[go: up one dir, main page]

JP6223160B2 - Imaging device, control method thereof, and control program - Google Patents

Imaging device, control method thereof, and control program Download PDF

Info

Publication number
JP6223160B2
JP6223160B2 JP2013254910A JP2013254910A JP6223160B2 JP 6223160 B2 JP6223160 B2 JP 6223160B2 JP 2013254910 A JP2013254910 A JP 2013254910A JP 2013254910 A JP2013254910 A JP 2013254910A JP 6223160 B2 JP6223160 B2 JP 6223160B2
Authority
JP
Japan
Prior art keywords
image
image signal
control
evaluation value
readout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013254910A
Other languages
Japanese (ja)
Other versions
JP2015114416A (en
Inventor
太郎 小林
太郎 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013254910A priority Critical patent/JP6223160B2/en
Priority to US14/564,418 priority patent/US9854216B2/en
Priority to CN201410756618.0A priority patent/CN104702826B/en
Publication of JP2015114416A publication Critical patent/JP2015114416A/en
Application granted granted Critical
Publication of JP6223160B2 publication Critical patent/JP6223160B2/en
Priority to US15/814,729 priority patent/US10349028B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、画像信号に応じて測光又は測距などに係る評価値を得てフォーカス制御を行う撮像装置に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to an imaging apparatus that obtains an evaluation value related to photometry or distance measurement according to an image signal and performs focus control.

従来、撮像装置において、フォーカス制御に用いるため被写体の位置情報を得る際には撮像素子から出力される画像信号に応じて位置情報を得ている。また、被写体を示す光信号を専用の検出装置に直接入力して、当該光信号が示す画像における位相差に応じて被写体の位置情報を得ることも行われている。そして、画像信号に応じて位置情報を得る場合には、専用の検出装置が不要となるので撮像装置を小型化することができる。   2. Description of the Related Art Conventionally, in an imaging apparatus, when obtaining subject position information for use in focus control, position information is obtained in accordance with an image signal output from an imaging element. In addition, an optical signal indicating a subject is directly input to a dedicated detection device, and position information of the subject is obtained according to a phase difference in an image indicated by the optical signal. When position information is obtained according to the image signal, a dedicated detection device is not necessary, and the imaging device can be downsized.

図7は、従来の撮像装置においてライブビューの際におけるオートフォーカス撮像動作(AF評価撮像)のタイミングを説明するための図である。   FIG. 7 is a diagram for explaining the timing of an autofocus imaging operation (AF evaluation imaging) during live view in a conventional imaging apparatus.

従来の撮像装置においては、垂直同期信号(Vertical Driving Pulse:VD)によって撮像タイミングが規定されている。AF制御信号がオンとなると、撮像装置によってライブビュー撮像期間後のVDに応じてAF評価像(AF評価用画像)が撮像される。そして、AF制御信号がオフとなると、再びライブビュー撮像期間となる。   In a conventional imaging apparatus, imaging timing is defined by a vertical synchronizing signal (VD). When the AF control signal is turned on, an AF evaluation image (an AF evaluation image) is captured by the imaging device in accordance with VD after the live view imaging period. When the AF control signal is turned off, the live view imaging period starts again.

このように、ライブビュー用画像を得るライブビュー撮像期間とAF評価用画像を得るAF動作期間とは時間軸に沿ってシリアルに存在するので、ライブビュー用画像とAF評価用画像を同時に撮像することはできない。   As described above, since the live view imaging period for obtaining the live view image and the AF operation period for obtaining the AF evaluation image exist serially along the time axis, the live view image and the AF evaluation image are simultaneously captured. It is not possible.

このため、図示のようにライブビュー期間(フレーム)の間に位置するAF動作期間においてAF評価用画像が撮像されることになって、ライブビュー用画像とAF評価用画像との間に不可避的にタイムラグが存在する。   For this reason, as shown in the figure, an AF evaluation image is picked up in an AF operation period located between the live view periods (frames), and is unavoidable between the live view image and the AF evaluation image. There is a time lag.

加えて、AF評価用画像を撮像する際においてもライブビュー画像の表示は行われるものの、この際には、AF評価用画像に応じてライブビュー画像の表示が行われる。そして、図7に示すように、AF評価用画像を撮像する際には、ライブビュー撮像期間よりもフレームレートが高くされるので、撮像素子の読み出しにおいては間引き率が高くなって、不可避的に画質が低くなってしまう。従って、ライブビュー用画像の画質低下および画質変動による違和感を回避することは困難である。   In addition, the live view image is displayed even when the AF evaluation image is captured. At this time, the live view image is displayed according to the AF evaluation image. As shown in FIG. 7, when an AF evaluation image is captured, the frame rate is set higher than that of the live view imaging period. Will be lower. Therefore, it is difficult to avoid a sense of incongruity due to a reduction in image quality and a change in image quality of the live view image.

この状態を回避するため、撮像素子に備えられた画素部に焦点検出用画素を撮像信号用画素とは別に設けるようにした撮像装置がある。この焦点検出用画素を用いたAF動作の一例として、通常画素(つまり、撮像信号用画素)で得られた被写体画像に応じて合焦位置を検出するコントラスト検出方式(コントラストAF)に対して、所謂位相差検出方式(位相差AF)と呼ばれる手法が知られている。   In order to avoid this state, there is an image pickup apparatus in which focus detection pixels are provided separately from image pickup signal pixels in a pixel portion provided in the image pickup element. As an example of the AF operation using this focus detection pixel, a contrast detection method (contrast AF) that detects a focus position according to a subject image obtained by a normal pixel (that is, an imaging signal pixel) A so-called phase difference detection method (phase difference AF) is known.

コントラストAFでは、撮像素子の出力信号、特に、高周波成分(コントラスト情報)に着目して、その評価値(コントラスト評価値)が最も大きくなる撮影レンズの位置を合焦位置とする。コントラストAFにおいては、撮影レンズを微少量動かしつつコントラスト評価値を求める。そして、コントラストAFでは、当該コントラスト評価値が最大となる撮影レンズの位置が分かるまで撮影レンズを駆動することが必要である。   In contrast AF, focusing on the output signal of the image sensor, in particular, high frequency components (contrast information), the position of the photographing lens having the largest evaluation value (contrast evaluation value) is set as the in-focus position. In contrast AF, the contrast evaluation value is obtained while moving the photographic lens by a small amount. In contrast AF, it is necessary to drive the photographic lens until the position of the photographic lens where the contrast evaluation value is maximized is known.

一方、位相差AFでは、撮影レンズの射出瞳を通過した光束を2分割して、当該2分割した光束を一対の焦点検出用センサー(つまり、焦点検出用画素)によってそれぞれ受光する。そして、受光量に応じて出力される像信号のずれ量、つまり、光束の分割方向の相対的位置ずれ量を検出して撮影レンズのピント方向のずれ量を直接求める。   On the other hand, in the phase difference AF, the light beam that has passed through the exit pupil of the photographing lens is divided into two, and the two divided light beams are received by a pair of focus detection sensors (that is, focus detection pixels). Then, the amount of deviation of the image signal output according to the amount of received light, that is, the amount of relative positional deviation in the beam splitting direction is detected to directly determine the amount of deviation of the photographing lens in the focus direction.

従って、位相差AFにおいては、焦点検出用センサーによって一度電荷蓄積動作を行えば、ピントのずれ量とその方向を得ることができ、高速に焦点調節動作を行うことができる。   Therefore, in the phase difference AF, once the charge accumulation operation is performed by the focus detection sensor, the focus shift amount and the direction can be obtained, and the focus adjustment operation can be performed at high speed.

なお、ライブビュー画像における画質と焦点検出精度とを両立させるため、焦点検出用画素が離散的に配列された撮像素子を有する撮像装置において撮像素子の駆動を変更するようにしたものがある(特許文献1参照)。ここでは、間引き率および間引き位相の少なくとも一方が異なる第1の間引き読み出しモードおよび第2の間引き読み出しモードを備えて、撮像装置の状態に応じて第1の間引き読み出しモードおよび第2の間引き読み出しモードを選択するようにしている。   Note that in order to achieve both image quality and focus detection accuracy in a live view image, there is an image pickup apparatus having an image pickup element in which focus detection pixels are discretely arranged to change the drive of the image pickup element (patent) Reference 1). Here, a first thinning readout mode and a second thinning readout mode in which at least one of the thinning rate and the thinning phase is different are provided, and the first thinning readout mode and the second thinning readout mode according to the state of the imaging device. To choose.

特開2010−181751号公報JP 2010-181751 A

ところが、特許文献1に記載の撮像装置においては、画素読み出しの際、撮影画像においては焦点検出用画素を欠陥画素として扱う必要がある。このため、全画素を用いた静止画などの画質を考慮すると、撮像素子の全ての領域に焦点検出用画像を高密度に配置することは困難である。   However, in the imaging device described in Patent Document 1, it is necessary to handle focus detection pixels as defective pixels in a captured image when reading pixels. For this reason, in consideration of the image quality such as a still image using all pixels, it is difficult to arrange the focus detection images at high density in all regions of the image sensor.

従って、焦点検出用画素のみで十分な画角領域をカバーして、高精度にAF制御を行うことは困難であり、AF制御性能を高めるためには焦点検出用画素を用いた位相差AFとともに画像信号を用いたコントラストAFを併用することが必要となる。この場合、コントラストAFにおいては、前述の駆動切り替えによるタイムラグが生じ、さらにライブビュー画像の画質が低下することを考慮すると、位相差AFおよびコントラストAFを併用すれば、タイムラグおよび画質低下を改善することは困難となってしまう。   Therefore, it is difficult to perform AF control with high accuracy by covering a sufficient field angle area with only focus detection pixels. To improve AF control performance, phase difference AF using focus detection pixels is difficult. It is necessary to use together contrast AF using an image signal. In this case, in contrast AF, the time lag due to the drive switching described above occurs, and further, the image quality of the live view image is reduced. If phase difference AF and contrast AF are used together, the time lag and the image quality reduction can be improved. Will be difficult.

加えて、位相差AFおよびコントラストAFを併用すると、撮像素子の駆動および画像データ処理回路の双方の負担が増加する。そして、位相差AFおよびコントラストAFを併用によって不可避的に消費電力が増加して、バッテリーなどの電源が短時間で消費されてしまう。   In addition, when phase difference AF and contrast AF are used in combination, the burden on both the driving of the image sensor and the image data processing circuit increases. Then, the combined use of the phase difference AF and the contrast AF inevitably increases the power consumption, and the power source such as a battery is consumed in a short time.

そこで、本発明の目的は、高速でしかも高精度のフォーカス制御を行いつつ、ライブビュー画像の画質の低下を回避して消費電力を低減することのできる撮像装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide an imaging apparatus, a control method thereof, and a control program capable of reducing power consumption by avoiding a deterioration in image quality of a live view image while performing high-speed and high-precision focus control. It is to provide.

上記の目的を達成するため、本発明による撮像装置は、複数の画像を備え、光学像に応じた画像信号を出力する撮像素子と、前記複数の画素のうち第1の画素群の読み出し制御を行って第1の画像信号を得る第1の読み出しと、前記複数の画素のうち第2の画素群の読み出し制御を行って第2の画像信号を得る第2の読み出しをする読み出し手段と、前記第1の画像信号に応じた画像を表示部に表示する表示制御手段と、前記第1の読み出しで得られた前記第1の画像信号に応じた画像を前記表示部に表示する際、前記第1の画像信号に基づいて行われる第1のフォーカス制御で合焦状態が得られない場合、前記第2の読み出しで得られた前記第2の画像信号に基づいて第2のフォーカス制御を行う制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes a plurality of images, an imaging element that outputs an image signal corresponding to an optical image, and readout control of a first pixel group among the plurality of pixels. Reading means for performing a first reading for obtaining a first image signal and performing a second reading for obtaining a second image signal by performing a reading control of a second pixel group among the plurality of pixels; Display control means for displaying an image corresponding to the first image signal on the display unit, and when displaying an image corresponding to the first image signal obtained by the first reading on the display unit, Control that performs second focus control based on the second image signal obtained by the second reading when the in-focus state cannot be obtained by the first focus control performed based on the first image signal. And means.

本発明による制御方法は、複数の画像を備え、光学像に応じた画像信号を出力する撮像素子を備える撮像装置の制御方法であって、前記複数の画素のうち第1の画素群の読み出し制御を行って第1の画像信号を得る第1の読み出しステップと、前記複数の画素のうち第2の画素群の読み出し制御を行って第2の画像信号を得る第2の読み出しステップと、前記第1の画像信号に応じた画像を表示部に表示する表示制御ステップと、前記第1の読み出しステップによって得られた前記第1の画像信号に応じた画像が前記表示部に表示される際、前記第1の画像信号に基づいて行われる第1のフォーカス制御で合焦状態が得られない場合、前記第2の読み出しステップによって得られた前記第2の画像信号に基づいて第2のフォーカス制御を行う制御ステップと、を有することを特徴とする。   A control method according to the present invention is a control method of an imaging apparatus that includes an image sensor that includes a plurality of images and outputs an image signal corresponding to an optical image, and performs readout control of a first pixel group among the plurality of pixels. Performing a first readout step for obtaining a first image signal, a second readout step for obtaining a second image signal by performing readout control of a second pixel group among the plurality of pixels, When a display control step of displaying an image corresponding to one image signal on the display unit and an image corresponding to the first image signal obtained by the first reading step are displayed on the display unit, When the in-focus state cannot be obtained by the first focus control performed based on the first image signal, the second focus control is performed based on the second image signal obtained by the second readout step. Do And having a control step.

本発明による制御プログラムは、複数の画像を備え、光学像に応じた画像信号を出力する撮像素子を備える撮像装置で用いられる制御プログラムであって、前記撮像装置が備えるコンピュータに、前記複数の画素のうち第1の画素群の読み出し制御を行って第1の画像信号を得る第1の読み出しステップと、前記複数の画素のうち第2の画素群の読み出し制御を行って第2の画像信号を得る第2の読み出しステップと、前記第1の画像信号に応じた画像を表示部に表示する表示制御ステップと、前記第1の読み出しステップによって得られた前記第1の画像信号に応じた画像が前記表示部に表示される際、前記第1の画像信号に基づいて行われる第1のフォーカス制御で合焦状態が得られない場合、前記第2の読み出しステップによって得られた前記第2の画像信号に基づいて第2のフォーカス制御を行う制御ステップと、を実行させることを特徴とする。   A control program according to the present invention is a control program used in an imaging apparatus that includes a plurality of images and includes an imaging element that outputs an image signal corresponding to an optical image, and the computer included in the imaging apparatus includes the plurality of pixels. A first readout step of performing a readout control of the first pixel group to obtain a first image signal, and performing a readout control of a second pixel group of the plurality of pixels to obtain a second image signal. A second reading step to be obtained, a display control step for displaying an image according to the first image signal on a display unit, and an image according to the first image signal obtained by the first reading step. When the in-focus state is not obtained by the first focus control performed based on the first image signal when displayed on the display unit, the second readout step obtains the in-focus state. A control step of performing a second focus control based on the second image signal, characterized in that to the execution.

本発明によれば、高速でしかも高精度のフォーカス制御を行いつつ、ライブビュー画像の画質の低下を回避して消費電力を低減することができる。   According to the present invention, it is possible to reduce power consumption by avoiding deterioration of the image quality of a live view image while performing high-speed and high-precision focus control.

本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示す撮像素子の構造を示す斜視図である。It is a perspective view which shows the structure of the image pick-up element shown in FIG. 図2の示す撮像素子の構成の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of a structure of the image pick-up element shown in FIG. 図3に示す第1のチップにおいて列信号線における画素選択を説明するための図である。FIG. 4 is a diagram for explaining pixel selection in a column signal line in the first chip shown in FIG. 3. 図1に示すカメラにおけるAF評価モードの際の撮像タイミングを説明するためのタイミング図である。FIG. 2 is a timing diagram for illustrating imaging timing in an AF evaluation mode in the camera shown in FIG. 1. 図1に示すカメラにおけるフォーカス制御を説明するためのフローチャートである。3 is a flowchart for explaining focus control in the camera shown in FIG. 1. 従来の撮像装置においてライブビューの際のオートフォーカス撮像動作のタイミングを説明するための図である。It is a figure for demonstrating the timing of the autofocus imaging operation in the case of live view in the conventional imaging device.

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention.

図示の撮像装置は、例えば、動画機能付き電子スチルカメラ又はビデオカメラである(以下単にカメラと呼ぶ)。カメラ100は、光学鏡筒101、撮像素子102、駆動回路103、信号処理部104、圧縮伸長部105、制御部106、発光部107、操作部108、画像表示部109、および画像記録部110を有している。   The illustrated imaging apparatus is, for example, an electronic still camera or video camera with a moving image function (hereinafter simply referred to as a camera). The camera 100 includes an optical barrel 101, an image sensor 102, a drive circuit 103, a signal processing unit 104, a compression / decompression unit 105, a control unit 106, a light emitting unit 107, an operation unit 108, an image display unit 109, and an image recording unit 110. Have.

光学鏡筒101は、撮影レンズユニット(図示せず、以下単に撮影レンズと呼ぶ)および光学機構部1011を備えている。撮影レンズは被写体からの光(光学像)を撮像素子102に集光する(つまり、結像する)。   The optical barrel 101 includes a photographic lens unit (not shown, hereinafter simply referred to as a photographic lens) and an optical mechanism unit 1011. The photographic lens collects light (optical image) from the subject on the image sensor 102 (that is, forms an image).

図示はしないが、光学機構部1011は、AF機構、ズーム駆動機構、メカニカルシャッタ機構、および絞り機構など有している。そして、光学機構部1011は、制御部106の制御下で駆動回路103によって駆動される。   Although not shown, the optical mechanism unit 1011 includes an AF mechanism, a zoom drive mechanism, a mechanical shutter mechanism, a diaphragm mechanism, and the like. The optical mechanism unit 1011 is driven by the drive circuit 103 under the control of the control unit 106.

撮像素子102は、後述する画素部201およびA/Dコンバータ(図示せず)を有し、例えば、所謂XY読み出し方式のCMOS型イメージセンサである。そして、撮像素子102、は制御部106の制御下で動作する駆動回路103によって駆動されて、露光、信号読み出し、およびリセットなどの撮像動作を行って、撮像信号(画像信号ともいう)を出力する。   The image sensor 102 includes a pixel unit 201 and an A / D converter (not shown) which will be described later, and is, for example, a so-called XY readout type CMOS image sensor. The image sensor 102 is driven by a drive circuit 103 that operates under the control of the control unit 106, performs an imaging operation such as exposure, signal readout, and reset, and outputs an imaging signal (also referred to as an image signal). .

信号処理部104は、制御部106の制御下で、撮像素子102の出力である画像信号に対して、ホワイトバランス調整処理、色補正処理、およびAE(Auto Exposure)処理などの所定の信号処理を行って画像データを出力する。また、信号処理部104には、後述するコントラストAF評価値検出部1041および位相差AF評価値検出部1042が備えられている。   The signal processing unit 104 performs predetermined signal processing such as white balance adjustment processing, color correction processing, and AE (Auto Exposure) processing on the image signal output from the image sensor 102 under the control of the control unit 106. Go to output image data. Further, the signal processing unit 104 includes a contrast AF evaluation value detection unit 1041 and a phase difference AF evaluation value detection unit 1042 described later.

このコントラストAF評価値検出部1041は、撮像素子102の出力である画像信号(ここでは、画像データ)に基づいて画像データのコントラストを示すコントラスト情報を得る。そしてコントラストAF評価値検出部1041はコントラスト情報に基づいて、制御部106で制御されるタイミングでコントラストAF評価値(オートフォーカス評価値)を検出する。   The contrast AF evaluation value detection unit 1041 obtains contrast information indicating the contrast of image data based on an image signal (here, image data) that is an output of the image sensor 102. The contrast AF evaluation value detection unit 1041 detects a contrast AF evaluation value (autofocus evaluation value) at a timing controlled by the control unit 106 based on the contrast information.

同様に、位相差AF評価値検出部1042は撮像素子102に備えられた焦点検出用画素で得られる焦点検出用画像信号に応じて位相差を示す位相差情報を得る。そして、位相差AF評価値検出部1042は位相差情報に基づいて、制御部106で制御されるタイミングで位相差AF評価値(オートフォーカス評価値)を検出する。   Similarly, the phase difference AF evaluation value detection unit 1042 obtains phase difference information indicating a phase difference in accordance with a focus detection image signal obtained from focus detection pixels provided in the image sensor 102. The phase difference AF evaluation value detection unit 1042 detects a phase difference AF evaluation value (autofocus evaluation value) at a timing controlled by the control unit 106 based on the phase difference information.

これらコントラストAF評価値および位相差AF評価値はそれぞれコントラストAF評価値検出部1041および位相差AF評価値検出部1042から制御部106に送られる。   The contrast AF evaluation value and the phase difference AF evaluation value are sent from the contrast AF evaluation value detection unit 1041 and the phase difference AF evaluation value detection unit 1042 to the control unit 106, respectively.

圧縮伸長部105は、制御部106の制御下で動作する。圧縮伸長部105は、信号処理部104の出力である画像データを、JPEG方式などの所定の静止画像データフォーマットによって圧縮符号化処理を行って符号化画像データを生成する。なお、JPEGは、Joint Photographic Coding Experts Groupの略である。また、圧縮伸長部105は、制御部106から送られた符号化画像データを伸長復号化処理して復号化画像データとする。   The compression / decompression unit 105 operates under the control of the control unit 106. The compression / decompression unit 105 performs compression encoding processing on the image data output from the signal processing unit 104 in a predetermined still image data format such as the JPEG method, and generates encoded image data. JPEG is an abbreviation for Joint Photographic Coding Experts Group. Further, the compression / decompression unit 105 decompresses and decodes the encoded image data sent from the control unit 106 to generate decoded image data.

なお、圧縮伸長部105は、MPEG(Moving Picture Experts Group)方式などによって動画像データについて圧縮符号化/伸長復号化処理を行うようにしてもよい。   Note that the compression / decompression unit 105 may perform compression encoding / decompression decoding processing on moving image data using an MPEG (Moving Picture Experts Group) method or the like.

制御部106は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などを備えるマイクロコントローラである。そして、CPUがROMに記憶されたプログラムを実行することによってカメラ100全体を統括的に制御する。   The control unit 106 is a microcontroller including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU 100 executes the program stored in the ROM to control the entire camera 100 as a whole.

制御部106は信号処理部104によるAE処理に応じて被写体の露光値が低いと判定すると、発光部107を制御して被写体に対して光を発光して照明を行う。発光部107として、例えば、キセノン管を用いたストロボ装置又はLED発光装置が用いられる。   When the control unit 106 determines that the exposure value of the subject is low according to the AE processing by the signal processing unit 104, the control unit 106 controls the light emitting unit 107 to emit light to illuminate the subject. As the light emitting unit 107, for example, a strobe device using a xenon tube or an LED light emitting device is used.

操作部108は、例えば、シャッタレリーズボタンなどの各種操作キー、レバー、およびダイヤルを有し、ユーザの入力操作に応じた操作信号を制御部106に与える。画像表示部109は、例えば、LCD(Liquid Crystal Display)などの表示デバイスと当該表示デバイスに対するインタフェース回路とを備え、制御部106から送られた画像データに応じた画像を表示デバイスに表示する。   The operation unit 108 includes, for example, various operation keys such as a shutter release button, a lever, and a dial, and gives an operation signal corresponding to a user input operation to the control unit 106. The image display unit 109 includes, for example, a display device such as an LCD (Liquid Crystal Display) and an interface circuit for the display device, and displays an image according to the image data sent from the control unit 106 on the display device.

画像記録部110は、例えば、可搬型の半導体メモリ、光ディスク、HDD(Hard Disk Drive)、又は磁気テープなどの記録媒体である。画像記録部110には、圧縮伸長部105によって圧縮符号化処理された符号化画像データが画像ファイルとして記憶される。また、画像記録部110は制御部106によって指定された画像ファイルを読み出して制御部106に出力する。そして、制御部106は読み出された符号化画像データを圧縮伸長部105で伸長復号化処理して復号化画像データとする。   The image recording unit 110 is a recording medium such as a portable semiconductor memory, an optical disc, an HDD (Hard Disk Drive), or a magnetic tape. The image recording unit 110 stores encoded image data that has been compression-encoded by the compression / decompression unit 105 as an image file. Further, the image recording unit 110 reads the image file designated by the control unit 106 and outputs the image file to the control unit 106. Then, the control unit 106 decompresses and decodes the read encoded image data in the compression / decompression unit 105 to obtain decoded image data.

ここで、図1に示すカメラ100の基本的な動作について説明する。   Here, the basic operation of the camera 100 shown in FIG. 1 will be described.

例えば、静止画像を撮影する際には、静止画像の撮像前(つまり、本撮影前)において、撮像素子102では画素部201の出力である画像信号について順次CDS処理およびAGC処理を施した後、A/Dコンバータでデジタル画像信号に変換する。そして、このデジタル画像信号は信号処理部104に送られる。   For example, when capturing a still image, before the still image is captured (that is, before the actual capturing), the image sensor 102 sequentially performs CDS processing and AGC processing on the image signal that is the output of the pixel unit 201. A digital image signal is converted by an A / D converter. The digital image signal is sent to the signal processing unit 104.

信号処理部104において、コントラストAF評価値検出部1041は、後述のライブビュー撮像およびAF評価値検出用撮像による画像信号から得られるコントラスト情報に応じて、コントラストAF評価値(コントラスト制御情報)を求める。そして、当該コントラストAF評価値を制御部106に出力する。   In the signal processing unit 104, a contrast AF evaluation value detection unit 1041 obtains a contrast AF evaluation value (contrast control information) according to contrast information obtained from an image signal obtained by live view imaging and AF evaluation value detection imaging described later. . Then, the contrast AF evaluation value is output to the control unit 106.

同様に、位相差AF評価値検出部1042は、後述のライブビュー撮像による画像信号のうち焦点検出用画素から得られる位相差情報に応じて、位相差AF評価値(制御情報)を求めて、当該位相差AF評価値を制御部106に出力する。   Similarly, the phase difference AF evaluation value detection unit 1042 obtains a phase difference AF evaluation value (control information) according to phase difference information obtained from a focus detection pixel in an image signal obtained by live view imaging described later. The phase difference AF evaluation value is output to the control unit 106.

制御部106は、後述するようにして、これらAF評価値に基づいて光学機構部1011の制御量を決定して、当該制御量に応じて駆動回路103を制御する。これによって、光学機構部1011が駆動回路103によって駆動される。   As will be described later, the control unit 106 determines a control amount of the optical mechanism unit 1011 based on these AF evaluation values, and controls the drive circuit 103 according to the control amount. As a result, the optical mechanism unit 1011 is driven by the drive circuit 103.

さらに、制御部106はAF評価値に基づいて後述のAF評価値検出用撮像の要否を判定してAFモード判定処理を行う。そして、制御部106は当該判定結果に応じてAF評価値検出用撮像を行うか否かを決定して駆動回路103を制御する。   Further, the control unit 106 performs AF mode determination processing by determining whether or not an AF evaluation value detection imaging described later is necessary based on the AF evaluation value. The control unit 106 determines whether or not to perform AF evaluation value detection imaging according to the determination result, and controls the drive circuit 103.

信号処理部104は、撮像素子102の出力であるデジタル画像信号に対して、例えば、画質補正処理を行ってカメラスルー画像信号を生成する。そして、信号処理部104は当該カメラスルー信号を制御部106を介して画像表示部109に送る。これによって、画像表示部109にはカメラスルー画像信号に応じたカメラスルー画像(ライブビュー画像)が表示されて、ユーザはカメラスルー画像を目視しつつ画角合わせを行うことができる。   The signal processing unit 104 performs, for example, image quality correction processing on the digital image signal that is the output of the image sensor 102 to generate a camera-through image signal. Then, the signal processing unit 104 sends the camera through signal to the image display unit 109 via the control unit 106. As a result, a camera-through image (live view image) corresponding to the camera-through image signal is displayed on the image display unit 109, and the user can adjust the angle of view while viewing the camera-through image.

カメラスルー画像が画像表示部109に表示された状態で、操作部108のシャッタレリーズボタンが押下されると、制御部106は駆動回路103を制御して、撮像素子102から1フレーム分の撮像信号(デジタル画像信号)を信号処理部104に取り込む。信号処理部104は当該1フレーム分のデジタル画像信号に画質補正処理して、処理後のデジタル画像信号(画像データ)を圧縮伸長部105に送る。   When the camera release image is displayed on the image display unit 109, when the shutter release button of the operation unit 108 is pressed, the control unit 106 controls the drive circuit 103 to capture an image signal for one frame from the image sensor 102. (Digital image signal) is taken into the signal processing unit 104. The signal processing unit 104 performs image quality correction processing on the digital image signal for one frame, and sends the processed digital image signal (image data) to the compression / decompression unit 105.

圧縮伸長部105は画像データを圧縮符号化処理して、符号化画像データを制御部106を介して画像記録部110に送る。これによって、撮像された静止画像に係る画像ファイルが画像記録部110に記録されることになる。   The compression / decompression unit 105 compresses and encodes the image data, and sends the encoded image data to the image recording unit 110 via the control unit 106. As a result, an image file related to the captured still image is recorded in the image recording unit 110.

画像記録部110に記録された画像ファイルを再生する際には、制御部106は、操作部108からの操作入力に応じて選択された画像ファイルを画像記録部110から読み込む。そして、制御部106は、当該画像ファイルを圧縮伸長部105に送って、圧縮伸長部105によって画像ファイルを伸長復号化処理し復号化画像データを得る。制御部106は復号化画像データを画像表示部109に送って、画像表示部109に復号化画像データに応じた静止画像を再生表示する。   When playing back an image file recorded in the image recording unit 110, the control unit 106 reads an image file selected according to an operation input from the operation unit 108 from the image recording unit 110. Then, the control unit 106 sends the image file to the compression / decompression unit 105, and the compression / decompression unit 105 decompresses and decodes the image file to obtain decoded image data. The control unit 106 sends the decoded image data to the image display unit 109, and reproduces and displays a still image corresponding to the decoded image data on the image display unit 109.

一方、動画像データを記録する際には、制御部106は駆動回路103を制御して撮像素子102から出力されたデジタル画像信号を信号処理部104に取り込む。信号処理部104はデジタル画像信号を順次処理して画像データ(つまり、動画像データ)を生成する。この動画像データは圧縮伸長部105で圧縮符号化処理されて、符号化動画像データが順次画像記録部110に順次転送され動画像ファイルとして記録される。   On the other hand, when recording moving image data, the control unit 106 controls the drive circuit 103 to capture the digital image signal output from the image sensor 102 into the signal processing unit 104. The signal processing unit 104 sequentially processes the digital image signal to generate image data (that is, moving image data). The moving image data is compression-encoded by the compression / decompression unit 105, and the encoded moving image data is sequentially transferred to the image recording unit 110 and recorded as a moving image file.

画像記録部110に記録された動画像ファイルを再生する際には、制御部106は、操作部108からの操作入力に応じて、選択された動画像ファイルを画像記録部110から読み込む。そして、制御部106は当該動画像ファイルを圧縮伸長部105に送って、圧縮伸長部105によって動画像ファイルを伸長復号化処理し復号化動画像データを得る。制御部106は復号化動画像データを画像表示部109に送って、画像表示部109に動画像データに応じた動画像を再生表示する。   When playing back a moving image file recorded in the image recording unit 110, the control unit 106 reads the selected moving image file from the image recording unit 110 in accordance with an operation input from the operation unit 108. Then, the control unit 106 sends the moving image file to the compression / decompression unit 105, and the compression / decompression unit 105 decompresses and decodes the moving image file to obtain decoded moving image data. The control unit 106 sends the decoded moving image data to the image display unit 109 and reproduces and displays the moving image corresponding to the moving image data on the image display unit 109.

図2は、図1に示す撮像素子102の構造を示す斜視図である。   FIG. 2 is a perspective view showing the structure of the image sensor 102 shown in FIG.

図2において、撮像素子102は第1のチップ(画素部)20および第2のチップ21を有しており、第2のチップ(第2の素子部)21上に第1のチップ(第1の素子部)20が積層されている。第1のチップ20はマトリックス状に配列された複数の画素201を有しており、第1のチップ20は光入射側に配置されている(つまり、光学像の受光側に位置している)。第2のチップ21は後述する列走査回路213−aおよび213−bと行走査回路212などの画素駆動回路が形成されている。   In FIG. 2, the image sensor 102 includes a first chip (pixel unit) 20 and a second chip 21, and the first chip (first element) is placed on the second chip (second element unit) 21. Element portion) 20 is laminated. The first chip 20 has a plurality of pixels 201 arranged in a matrix, and the first chip 20 is disposed on the light incident side (that is, located on the light receiving side of the optical image). . The second chip 21 is formed with pixel driving circuits such as column scanning circuits 213-a and 213-b and a row scanning circuit 212 described later.

このように、第1のチップ20に画素201を形成し、第2のチップ21に画素駆動回路を形成すれば、撮像素子102の周辺回路および画素部の製造プロセスを分けることができる。このため、周辺回路における配線の細線化、高密度化による高速化、小型化、および高機能化を図ることができる。   In this manner, if the pixel 201 is formed on the first chip 20 and the pixel driving circuit is formed on the second chip 21, the manufacturing process of the peripheral circuit and the pixel portion of the image sensor 102 can be divided. For this reason, it is possible to achieve high speed, miniaturization, and high functionality by thinning and increasing the density of wiring in the peripheral circuit.

図3は、図2の示す撮像素子102の構成の一例を説明するためのブロック図である。   FIG. 3 is a block diagram for explaining an example of the configuration of the image sensor 102 shown in FIG.

第1のチップ20において、画素201は2次元マトリクス状に配列されている。画素201は水平方向(行方向)において転送信号線203、リセット信号線204、および行選択信号線205に接続され、垂直方向(列方向)において列信号線202−aおよび202−bに接続されている。なお、列信号線202−aおよび202−bの各々は読み出し行単位に応じて接続先が異なる。   In the first chip 20, the pixels 201 are arranged in a two-dimensional matrix. The pixel 201 is connected to the transfer signal line 203, the reset signal line 204, and the row selection signal line 205 in the horizontal direction (row direction), and connected to the column signal lines 202-a and 202-b in the vertical direction (column direction). ing. The column signal lines 202-a and 202-b have different connection destinations depending on the read row unit.

図示のように、画素201の各々は、光電変換素子であるフォトダイオードPD、転送トランジスタM1、リセットトランジスタM2、増幅トランジスタM3、選択トランジスタM4、およびフローティングディフュージョンFDを有している。   As illustrated, each of the pixels 201 includes a photodiode PD, which is a photoelectric conversion element, a transfer transistor M1, a reset transistor M2, an amplification transistor M3, a selection transistor M4, and a floating diffusion FD.

なお、図示の例では、トランジスタの各々はnチャネルMOSFET(MOS Field−Effect Transistor)である。   In the illustrated example, each of the transistors is an n-channel MOSFET (MOS Field-Effect Transistor).

転送トランジスタM1、リセットトランジスタM2、および選択トランジスタM4のゲートには、それぞれ転送信号線203、リセット信号線204、および行選択信号線205が接続されている。これら信号線203〜205は水平方向に延在し、同一行の画素が同時に駆動される。これによって、ライン順次動作型のローリングシャッタ又は全行同時動作型のグローバルシャッタの動作を制御することができる。さらに、選択トランジスタM4のソースには列信号線202−a又は202−bが行単位で接続されている。   A transfer signal line 203, a reset signal line 204, and a row selection signal line 205 are connected to the gates of the transfer transistor M1, the reset transistor M2, and the selection transistor M4, respectively. These signal lines 203 to 205 extend in the horizontal direction, and pixels in the same row are driven simultaneously. As a result, the operation of the line sequential operation type rolling shutter or the all row simultaneous operation type global shutter can be controlled. Further, the column signal line 202-a or 202-b is connected to the source of the selection transistor M4 in units of rows.

フォトダイオードPDは、光電変換によって生成された電荷を蓄積する。そして、フォトダイオードPDのP側が接地され、N側が転送トランジスタM1のソースに接続されている。転送トランジスタM1がオンすると、フォトダイオードPDの電荷がFDに転送され、FDには寄生容量が存在するので、FDに転送された電荷が蓄積される。   The photodiode PD accumulates electric charges generated by photoelectric conversion. The P side of the photodiode PD is grounded, and the N side is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the FD, and since there is a parasitic capacitance in the FD, the charge transferred to the FD is accumulated.

増幅トランジスタM3のドレインには電源電圧Vddが印加され、そのゲートはFDに接続されている。増幅トランジスタM3は、FDの電荷(つまり、電圧)を増幅して電圧信号に変換する。選択トランジスタM4は、信号を読み出す画素を行単位で選択するためのものであり、そのドレインは増幅トランジスタM3のソースに接続されている。また、選択トランジスタM4のソースは、列信号線202に接続されている。   A power supply voltage Vdd is applied to the drain of the amplification transistor M3, and its gate is connected to the FD. The amplification transistor M3 amplifies the charge (that is, voltage) of the FD and converts it into a voltage signal. The selection transistor M4 is for selecting a pixel from which a signal is read out in units of rows, and its drain is connected to the source of the amplification transistor M3. The source of the selection transistor M4 is connected to the column signal line 202.

選択トランジスタM4がオンすると、FDの電圧に対応する電圧信号が列信号線202に出力される。リセットトランジスタM2のドレインには電源電圧Vddが印加され、そのソースはFDに接続されている。リセットトランジスタM2のオンによって、FDの電圧は電源電圧Vddにリセットされる。   When the selection transistor M4 is turned on, a voltage signal corresponding to the voltage of the FD is output to the column signal line 202. A power supply voltage Vdd is applied to the drain of the reset transistor M2, and its source is connected to the FD. When the reset transistor M2 is turned on, the voltage of the FD is reset to the power supply voltage Vdd.

第2のチップ21には、カラムADCブロック211が備えられており、カラムADC211は列信号線202−a又は202−bに接続されている。さらに、第2のチップ21には、行走査回路212、列走査回路213−aおよび213−b、タイミング制御回路214、水平信号線(出力手段)215−aおよび215−bが備えられている。   The second chip 21 is provided with a column ADC block 211, and the column ADC 211 is connected to the column signal line 202-a or 202-b. Furthermore, the second chip 21 includes a row scanning circuit 212, column scanning circuits 213-a and 213-b, a timing control circuit 214, and horizontal signal lines (output means) 215-a and 215-b. .

タイミング制御回路214は制御部106の制御下で行走査回路212、列走査回路213−aおよび213−b、およびカラムADCブロック211の動作タイミングを制御する。行走査回路212は各行の走査を行い、列走査回路213aおよび213bはそれぞれ各列の走査を行う。   The timing control circuit 214 controls the operation timing of the row scanning circuit 212, the column scanning circuits 213-a and 213-b, and the column ADC block 211 under the control of the control unit 106. The row scanning circuit 212 scans each row, and the column scanning circuits 213a and 213b scan each column.

水平信号線215−aおよび215−bは、それぞれ列走査回路213−aおよび213−bで制御されるタイミングに応じてカラムADCブロック211の出力信号(画像信号)を転送する。   The horizontal signal lines 215-a and 215-b transfer the output signal (image signal) of the column ADC block 211 according to the timing controlled by the column scanning circuits 213-a and 213-b, respectively.

なお、後述するように、水平信号線215−aに転送された画像信号は信号処理部104にライブビュー用の画像信号として与えられる。一方、水平信号線215−bに転送された画像信号はAF評価値検出用の画像信号として信号処理部104に与えられる。   As will be described later, the image signal transferred to the horizontal signal line 215-a is given to the signal processing unit 104 as an image signal for live view. On the other hand, the image signal transferred to the horizontal signal line 215-b is given to the signal processing unit 104 as an image signal for AF evaluation value detection.

図4は、図3に示す第1のチップ20において列信号線202−a又は202−bにおける画素選択を説明するための図である。   FIG. 4 is a diagram for explaining pixel selection in the column signal lines 202-a or 202-b in the first chip 20 shown in FIG.

図3においては、6行×8列の画素部が示されており、ここでは各画素はベイヤ配列されている。AFモード判定処理の結果、AF評価値検出用撮像(第2の撮像モード)が必要となると、ライブビュー用撮像(第1の撮像モード)およびAF評価値検出用撮像(第2の撮像モード)を同時に行うことができるように、撮像素子102における読み出し行を分ける。なお、AFモード判定処理については後述する。   In FIG. 3, a pixel portion of 6 rows × 8 columns is shown, and here, each pixel is arranged in a Bayer array. When AF evaluation value detection imaging (second imaging mode) is required as a result of the AF mode determination processing, live view imaging (first imaging mode) and AF evaluation value detection imaging (second imaging mode) are performed. Are separately read out in the image sensor 102. The AF mode determination process will be described later.

この際、ライブビュー用の画像信号(第1の画像信号、つまり、画像表示信号)は列信号線202−aに出力され、AF評価検出用の画像信号(第2の画像信号)は列信号線202−bに出力される。   At this time, an image signal for live view (first image signal, that is, an image display signal) is output to the column signal line 202-a, and an image signal for AF evaluation detection (second image signal) is a column signal. Output to line 202-b.

図3において、行番号1および2はAF評価値検出用撮像のための行(第2の画素群)であり、行番号3〜8はライブビュー用撮像のための行(第1の画素群)である。図示の例では、読み出し走査が行単位で順次行われて、8行単位で繰り返し読み出し走査が行われることになる。なお、第1の画素群には所定の周期で位相差AF用の焦点検出用画素(図示せず)が配置されており、ライブビュー表示の同時に位相差AF処理を行うことができる。   In FIG. 3, row numbers 1 and 2 are rows for AF evaluation value detection imaging (second pixel group), and row numbers 3 to 8 are rows for live view imaging (first pixel group). ). In the illustrated example, readout scanning is sequentially performed in units of rows, and readout scanning is repeatedly performed in units of 8 rows. The first pixel group is provided with focus detection pixels (not shown) for phase difference AF at a predetermined cycle, and phase difference AF processing can be performed simultaneously with live view display.

AF評価値検出用撮像では、フレームレート重視のため垂直同色4画素中3画素を間引き読み出しする。一方、ライブビュー用撮像では、画質重視のため垂直同色4画素中1画素を間引き3画素を加算する。   In AF evaluation value detection imaging, 3 pixels out of 4 pixels of the same vertical color are skipped and read out in order to emphasize the frame rate. On the other hand, in live view imaging, in order to emphasize image quality, 1 pixel out of 4 pixels of the same vertical color is thinned and 3 pixels are added.

言い換えると、AF評価値検出用撮像においては、第2の画素群を第2のフレームレートで読み出しを行う。そして、ライブビュー用撮像では第1の画素群を第2のフレームレートよりも遅い第1のフレームレートで読み出しを行う。   In other words, in the AF evaluation value detection imaging, the second pixel group is read at the second frame rate. In live view imaging, the first pixel group is read out at a first frame rate slower than the second frame rate.

上述のように、選択行毎にAF走査用撮像とライブビュー用撮像とを分けることによって、異なる電荷蓄積時間でデータサイズの異なるフレームレートの画像信号を取得することが可能となる。   As described above, by dividing AF scanning imaging and live view imaging for each selected row, it is possible to acquire image signals of different frame rates with different data sizes in different charge accumulation times.

次に、列信号線202−aおよび202−bに出力された電圧信号(アナログ信号)は、図3に示すカラムADCブロック211においてアナログ信号からデジタル信号(画像信号)に変換される。   Next, the voltage signals (analog signals) output to the column signal lines 202-a and 202-b are converted from analog signals to digital signals (image signals) in the column ADC block 211 shown in FIG.

カラムADCブロック211の出力である画像信号は、列走査回路213−a又は213−bによってカラムADCブロック211から水平信号線215−a又は215−bに読み出される。水平信号線215−aおよび215−bに読み出された画像信号は信号処理部104に送られる。   The image signal which is the output of the column ADC block 211 is read from the column ADC block 211 to the horizontal signal line 215-a or 215-b by the column scanning circuit 213-a or 213-b. The image signals read out to the horizontal signal lines 215-a and 215-b are sent to the signal processing unit 104.

後述するAFモード判定処理の結果、AF評価値検出用撮像(第2の撮影モード)が不要となると、ライブビュー用撮像(第1の撮影モード)は行われるが、AF評価値検出用撮像(第2の撮影モード)は動作しない(行われない)。つまり、画像信号は列信号線202−bには読み出されず、列走査回路213−bは動作しないので、水平信号線215−bからの出力はない。よって、AF評価値検出用撮像が不要の場合には、消費電力が低減することになる。   When AF evaluation value detection imaging (second imaging mode) becomes unnecessary as a result of AF mode determination processing described later, live view imaging (first imaging mode) is performed, but AF evaluation value detection imaging ( The second shooting mode) does not operate (is not performed). That is, the image signal is not read out to the column signal line 202-b, and the column scanning circuit 213-b does not operate, so there is no output from the horizontal signal line 215-b. Therefore, when the AF evaluation value detection imaging is unnecessary, the power consumption is reduced.

なお、上述の例では、列信号線202−bに画像信号が読み出されない場合について説明した。しかし、AF評価値検出用撮像(第2の撮影モード)が行われない場合には、信号処理部104においてAF評価値(つまり、位相差AF評価値)の算出が行われないことになるので、いずれのブロックにおける電力を停止するかについては任意である。   In the above example, the case where the image signal is not read out to the column signal line 202-b has been described. However, when the AF evaluation value detection imaging (second imaging mode) is not performed, the signal processing unit 104 does not calculate the AF evaluation value (that is, the phase difference AF evaluation value). In which block the power is stopped is arbitrary.

以下の説明では、撮像の際、列信号線202−aおよび水平信号線215−aによる出力経路をチャンネルCh1と呼び、列信号線202−bおよび水平信号線215−bによる出力経路をチャンネルCh2と呼ぶ。   In the following description, during imaging, the output path by the column signal line 202-a and the horizontal signal line 215-a is called a channel Ch1, and the output path by the column signal line 202-b and the horizontal signal line 215-b is a channel Ch2. Call it.

図5は、図1に示すカメラ100におけるAF評価モードの際の撮像タイミングを説明するためのタイミング図である。   FIG. 5 is a timing chart for explaining the imaging timing in the AF evaluation mode in the camera 100 shown in FIG.

図示のように、垂直同期信号(VD)によって撮像タイミングが規定されており、ここでは、説明の簡略化のため、AF評価値検出用撮像のフレームレートはライブビュー用撮像の3倍であるとする。そして、ライブビュー用撮像で得られた画像信号はライブビュー表示に用いられ、ここでは、常時ライブビュー用撮像が行われている。なお、ライブビュー撮像の開始の際には、AF評価値検出用撮像による画像信号の読み出しは行われない。   As shown in the figure, the imaging timing is defined by the vertical synchronization signal (VD). Here, for the sake of simplification, the frame rate of the AF evaluation value detection imaging is three times that of the live view imaging. To do. The image signal obtained by live view imaging is used for live view display, and here, live view imaging is always performed. At the start of live view imaging, image signals are not read out by AF evaluation value detection imaging.

期間T0〜T1のフレームにおいて、ライブビュー用撮像で得られた画像信号(第1の画像信号)はライブビュー表示に用いられる。さらに、焦点検出用画素(つまり、位相差検出用画素)で得られた画像信号(第1の画像情報と呼ぶ)は位相差AF評価値検出部1042に入力され、残りの画素で得られた画像信号(第2の画像情報と呼ぶ)はコントラストAF評価値検出部1041に入力される。   In the frames in the period T0 to T1, the image signal (first image signal) obtained by the live view imaging is used for live view display. Further, an image signal (referred to as first image information) obtained by the focus detection pixel (that is, the phase difference detection pixel) is input to the phase difference AF evaluation value detection unit 1042 and obtained by the remaining pixels. An image signal (referred to as second image information) is input to the contrast AF evaluation value detection unit 1041.

位相差AF評価値検出部1042は、第1の画像情報に応じて位相差AF評価値AFP_1を算出する。また、コントラストAF評価値検出部1041は第2の画像情報に応じてコントラストAF評価価値AFC_1を算出する。そして、制御部106は位相差AF評価値AFP_1およびコントラストAF評価価値AFC_1に基づいてAFモード判定処理を行う。制御部106は当該AFモード判定処理によってAF評価値検出用撮像が必要とされた場合にのみAF評価値検出用撮像を立ち上げる。   The phase difference AF evaluation value detection unit 1042 calculates a phase difference AF evaluation value AFP_1 according to the first image information. Further, the contrast AF evaluation value detection unit 1041 calculates the contrast AF evaluation value AFC_1 according to the second image information. The control unit 106 performs AF mode determination processing based on the phase difference AF evaluation value AFP_1 and the contrast AF evaluation value AFC_1. The control unit 106 activates AF evaluation value detection imaging only when AF evaluation value detection imaging is required by the AF mode determination processing.

続いて、期間T1〜T2のフレームにおいて、ライブビュー用撮像で得られた画像信号はライブビュー表示に用いられる。同様にして、位相差AF評価値検出部1042およびコントラストAF評価値検出部1041においてそれぞれ位相差AF評価値AFP_1およびコントラストAF評価価値AFC_1AF評価値が算出される。そして、制御部106は上述のAFモード判定処理を行って、AF評価値検出用撮像が必要であると、時間T2においてAF評価値検出用撮像における(つまり、AF評価値検出のための)読み出しを開始する。   Subsequently, in the frames of the periods T1 to T2, the image signal obtained by the live view imaging is used for live view display. Similarly, the phase difference AF evaluation value detection unit 1042 and the contrast AF evaluation value detection unit 1041 calculate the phase difference AF evaluation value AFP_1 and the contrast AF evaluation value AFC_1AF, respectively. Then, the control unit 106 performs the above-described AF mode determination processing, and when the AF evaluation value detection imaging is necessary, reading in the AF evaluation value detection imaging (that is, for AF evaluation value detection) is performed at time T2. To start.

期間T2〜T3のフレームにおいて、AF評価値検出用撮像(つまり、チャンネルCh2)で得られた画像信号(第2の画像信号)はコントラストAF評価値検出部1041に入力される。そして、コントラストAF評価値検出部1041はAFAF評価値検出(チャンネルCh2)で得られた画像信号(第2の画像信号)に基づいてコントラストAF評価値AFC_2を算出する。   In the frame of the period T2 to T3, the image signal (second image signal) obtained by the AF evaluation value detection imaging (that is, the channel Ch2) is input to the contrast AF evaluation value detection unit 1041. The contrast AF evaluation value detection unit 1041 calculates a contrast AF evaluation value AFC_2 based on the image signal (second image signal) obtained by AFAF evaluation value detection (channel Ch2).

制御部106は、当該コントラストAF評価値AFC_2に応じてAFモード判定処理を行って、合焦状態であるか否かを判定する。そして、合焦状態でないと判定すると、制御部106は引き続いてAF評価値検出用撮像による読み出しとAF動作とを継続する。   The control unit 106 performs an AF mode determination process according to the contrast AF evaluation value AFC_2, and determines whether or not it is in a focused state. If it is determined that the in-focus state is not obtained, the control unit 106 continues the readout by the AF evaluation value detection imaging and the AF operation.

一方、AF評価値検出用撮像によるAF動作の結果(つまり、コントラストAF評価値AFC_2に応じたAF動作の結果)、例えば、時間T4において、制御部106はAF評価値検出用撮像によるAF動作によって合焦状態になったと判定したとする。これによって、制御部106は、ライブビュー用撮像の画像信号に応じたAF評価値(つまり、位相差AF評価値AFP_1およびコントラストAF評価値AFC_1)を確認する。そして、制御部106は、これらAF評価値に基づいて合焦状態であると判定すると、時間T5でAF評価値検出用撮像による読み出しを停止する。   On the other hand, the result of the AF operation by the AF evaluation value detection imaging (that is, the result of the AF operation according to the contrast AF evaluation value AFC_2), for example, at time T4, the control unit 106 performs the AF operation by the AF evaluation value detection imaging. Assume that it is determined that the camera is in focus. Accordingly, the control unit 106 confirms the AF evaluation values (that is, the phase difference AF evaluation value AFP_1 and the contrast AF evaluation value AFC_1) corresponding to the image signal for live view imaging. If the control unit 106 determines that the in-focus state is based on these AF evaluation values, the control unit 106 stops reading by AF evaluation value detection imaging at time T5.

図6は、図1に示すカメラ100におけるフォーカス制御を説明するためのフローチャートである。なお、図示のフローチャートは制御部106の制御下で行われる。   FIG. 6 is a flowchart for explaining the focus control in the camera 100 shown in FIG. The illustrated flowchart is performed under the control of the control unit 106.

カメラ100の電源がオンとされて操作部108によってカメラ100が撮影モードとされると、制御部106は、前述のようにして、ライブビュー撮像を開始する(ステップS502)。このライブビュー撮像においては、図4で説明したように、ライブビュー選択行が読み出され、この読み出しには位相差AF用の焦点検出用画素が含まれる。   When the power of the camera 100 is turned on and the camera 100 is set to the shooting mode by the operation unit 108, the control unit 106 starts live view imaging as described above (step S502). In this live view imaging, as described with reference to FIG. 4, a live view selection row is read out, and this readout includes focus detection pixels for phase difference AF.

なお、ステップS502においてライブビュー用撮像による画像信号はライブビュー又は記録用動画像として画像処理および画面表示されることになるが、ここでは説明を省略する。   Note that in step S502, an image signal obtained by live view imaging is subjected to image processing and screen display as a live view or a moving image for recording, but the description thereof is omitted here.

続いて、制御部106は、AF評価値検出用撮像有無フラグSub_ONが”1”であるか否か確認する(ステップS503)。なお、ライブビュー用撮像が開始した時点においては、AF評価値検出用撮像有無フラグSub_ONは”0”であるとする。   Subsequently, the control unit 106 confirms whether the AF evaluation value detection imaging presence / absence flag Sub_ON is “1” (step S503). It is assumed that the AF evaluation value detection imaging presence / absence flag Sub_ON is “0” at the time when live view imaging starts.

AF評価値検出用撮像有無フラグSub_ONが”1”でないと(ステップS503において、NO)、つまり、AF評価値検出用撮像有無フラグSub_ONが”0”であると、制御部106の制御下で、位相差AF評価値検出部1042はライブビュー用撮像において焦点検出用画素から得られた画像信号に応じて位相差AF評価値AFP_1(第1の評価値である第1の位相差評価値)を算出する(ステップS504)。そして、制御部106は、位相差AF評価値AFP_1に応じてフィードバック制御量を求めて当該フィードバック制御量に応じて駆動回路103を駆動制御して光学機構部1011に備えられたAF機構を駆動することになる。   If the AF evaluation value detection imaging presence / absence flag Sub_ON is not “1” (NO in step S503), that is, if the AF evaluation value detection imaging presence / absence flag Sub_ON is “0”, under the control of the control unit 106, The phase difference AF evaluation value detection unit 1042 obtains a phase difference AF evaluation value AFP_1 (first phase difference evaluation value which is a first evaluation value) according to an image signal obtained from the focus detection pixel in live view imaging. Calculate (step S504). Then, the control unit 106 obtains a feedback control amount according to the phase difference AF evaluation value AFP_1, and drives and controls the drive circuit 103 according to the feedback control amount to drive the AF mechanism provided in the optical mechanism unit 1011. It will be.

次に、制御部106は、位相差AF評価値AFP_1が予め設定された位相差最小閾値P_Minと位相差最大閾値P_Maxとによって規定された範囲(位相差閾値範囲)にあるか否かを判定する。つまり、制御部106は、P_Min<AFP_1<P_Maxであるか否かを判定する(ステップS505)。   Next, the control unit 106 determines whether or not the phase difference AF evaluation value AFP_1 is within a range (phase difference threshold range) defined by a preset minimum phase difference threshold P_Min and maximum phase difference threshold P_Max. . That is, the control unit 106 determines whether or not P_Min <AFP_1 <P_Max (step S505).

ここでは、制御部106は、AFモード判定処理に当たって、位相差AF評価値AFP_1が位相差最小閾値P_Minと位相差最大閾値P_Maxとによって規定された範囲にあるか否かを判定する。そして、その範囲内であれば、制御部106は位相差AFによる合焦位置推定が可能であるとして(つまり、第1のフォーカス制御が可能であるとして)、さらなる高速AF動作は必要ないとする。   Here, in the AF mode determination process, the control unit 106 determines whether or not the phase difference AF evaluation value AFP_1 is in a range defined by the phase difference minimum threshold P_Min and the phase difference maximum threshold P_Max. If it is within the range, the control unit 106 assumes that the in-focus position can be estimated by the phase difference AF (that is, the first focus control is possible), and further high-speed AF operation is not necessary. .

P_Min<AFP_1<P_Maxであると(ステップS505において、YES)、制御部106は垂直同期信号VDによって次のフレームの撮影に移行する(ステップS506)。なお、次フレームの撮影はステップS502の処理から始まる。   If P_Min <AFP_1 <P_Max (YES in step S505), control unit 106 shifts to shooting of the next frame by vertical synchronization signal VD (step S506). Note that shooting of the next frame starts from the process of step S502.

コントラストAF評価値検出部1041は、制御部106の制御下で動作する。コントラストAF評価値検出部1041は、AFP_1≦P_Min又はP_Max≦AFP_1であると(ステップS505において、NO)、コントラストAF評価値AFC_1を算出する(ステップS507)。ここで、コントラストAF評価値AFC_1(第1の評価値である第1のコントラスト評価値)は、ライブビュー用撮像で得られた画像信号に応じて算出される。そして、制御部106は、コントラストAF評価値AFC_1に応じてフィードバック制御量を求めて当該フィードバック制御量に応じて駆動回路103を駆動制御して光学機構部1011に備えられたAF機構を駆動することになる。   The contrast AF evaluation value detection unit 1041 operates under the control of the control unit 106. When AFP_1 ≦ P_Min or P_Max ≦ AFP_1 is satisfied (NO in step S505), the contrast AF evaluation value detection unit 1041 calculates a contrast AF evaluation value AFC_1 (step S507). Here, the contrast AF evaluation value AFC_1 (the first contrast evaluation value which is the first evaluation value) is calculated according to the image signal obtained by the live view imaging. Then, the control unit 106 obtains a feedback control amount according to the contrast AF evaluation value AFC_1, drives the drive circuit 103 according to the feedback control amount, and drives the AF mechanism provided in the optical mechanism unit 1011. become.

続いて、制御部106は、コントラストAF評価値AFC_1が予め設定されたコントラスト最小閾値C_Minとコントラスト最大閾値C_Maxとによって規定された範囲(コントラスト閾値範囲)にあるか否かを判定する。つまり、制御部106は、C_Mim<AFC_1<C_Maxであるか否かを判定する(ステップS508)。   Subsequently, the control unit 106 determines whether or not the contrast AF evaluation value AFC_1 is within a range (contrast threshold range) defined by a preset minimum contrast threshold C_Min and maximum contrast threshold C_Max. That is, the control unit 106 determines whether or not C_Mim <AFC_1 <C_Max (step S508).

ここでは、制御部106は、コントラストAF評価値AFC_1がコントラスト最小閾値P_Minとコントラスト最大閾値P_Maxとによって規定された範囲にあるか否かを判定する。そして、範囲内であれば、制御部106はコントラストAFによる合焦位置推定が可能であるとして(第1のフォーカス制御が可能であるとして)、さらなる高速AF動作は必要ないとする。   Here, the control unit 106 determines whether or not the contrast AF evaluation value AFC_1 is in a range defined by the minimum contrast threshold P_Min and the maximum contrast threshold P_Max. If it is within the range, it is assumed that the control unit 106 can estimate the in-focus position by contrast AF (assuming that the first focus control is possible), and further high-speed AF operation is not necessary.

C_Min<AFC_1<C_Maxであると(ステップS508において、YES)、制御部106はステップS506の処理に進む。一方、AFC_1≦C_Min又はC_Max≦AFC_1であると(ステップS508において、NO)、制御部106は、現フレームが合焦状態でないと判定する。そして、制御部106はAF評価値検出用撮像有無フラグSub_ONを”1”として次フレームからAF評価値検出用撮像による高速AF動作を行うと設定する(ステップS509)。つまり、制御部106は第2のフォーカス制御を行うと決定することになる。そして、制御部106はステップS506の処理に進む。   If C_Min <AFC_1 <C_Max (YES in step S508), control unit 106 proceeds to the process in step S506. On the other hand, if AFC_1 ≦ C_Min or C_Max ≦ AFC_1 (NO in step S508), the control unit 106 determines that the current frame is not in focus. Then, the control unit 106 sets the AF evaluation value detection imaging presence / absence flag Sub_ON to “1” to perform high-speed AF operation by AF evaluation value detection imaging from the next frame (step S509). That is, the control unit 106 determines to perform the second focus control. And the control part 106 progresses to the process of step S506.

AF評価値検出用撮像有無フラグSub_ONが”1”であると(ステップS503において、YES)、制御部106はAF評価値検出用撮像回数を示す変数nを”0”にリセットする(ステップS510)。ここでは、AF評価値検出用撮像はライブビュー用撮像の3倍のフレームレートであるので、変数nが0、1、又は2であるとAF評価値検出用撮像が行われることになる。   When AF evaluation value detection imaging presence / absence flag Sub_ON is “1” (YES in step S503), control unit 106 resets variable n indicating the AF evaluation value detection imaging count to “0” (step S510). . Here, since the AF evaluation value detection imaging has a frame rate three times that of the live view imaging, if the variable n is 0, 1, or 2, the AF evaluation value detection imaging is performed.

続いて、制御部106は、前述のようにして、AF評価値検出用撮像を行う(ステップS511)。AF評価値検出用撮像においては、図4に示すAF用選択行が読み出しされて、ライブビュー画像とは別の画像信号が読み出されることになる。つまり、ライブビュー用撮像とは独立したタイミングでAF評価値検出用撮像が行われることになる。   Subsequently, the control unit 106 performs AF evaluation value detection imaging as described above (step S511). In AF evaluation value detection imaging, the AF selected row shown in FIG. 4 is read, and an image signal different from the live view image is read. That is, the AF evaluation value detection imaging is performed at a timing independent of the live view imaging.

次に、制御部106の制御下で、コントラストAF評価値検出部1041はAF評価値検出用撮像で得られた画像信号に応じてコントラストAF評価値AFC_2(第2の評価値である第2のコントラスト評価値)を算出する(ステップS512)。そして、制御部106は、当該コントラストAF評価値AFC_2に応じてフィードバック制御量を求めてこのフィードバック制御量に応じて駆動回路103を駆動制御して光学機構部1011に備えられたAF機構を駆動する。   Next, under the control of the control unit 106, the contrast AF evaluation value detection unit 1041 determines the contrast AF evaluation value AFC_2 (the second evaluation value is the second evaluation value) according to the image signal obtained by the AF evaluation value detection imaging. The contrast evaluation value is calculated (step S512). Then, the control unit 106 obtains a feedback control amount according to the contrast AF evaluation value AFC_2, and drives and controls the drive circuit 103 according to the feedback control amount to drive the AF mechanism provided in the optical mechanism unit 1011. .

続いて、制御部106はコントラストAF評価値AFC_2がコントラスト最小閾値C_Minとコントラスト最大閾値とによって規定された範囲にあるか否かを判定する(ステップS513)。ここでは、制御部106は、コントラストAF評価値AFC_2がコントラスト最小閾値C_Minとコントラスト最大閾値とによって規定された範囲にあるか否かを判定する。そして、その範囲内であれば、制御部106はコントラストAFによる合焦位置推定が可能であるとして、次フレーム以降においてさらなる高速AF動作は必要ないとする。   Subsequently, the control unit 106 determines whether or not the contrast AF evaluation value AFC_2 is within a range defined by the minimum contrast threshold C_Min and the maximum contrast threshold (step S513). Here, the control unit 106 determines whether or not the contrast AF evaluation value AFC_2 is within a range defined by the minimum contrast threshold C_Min and the maximum contrast threshold. If it is within the range, the control unit 106 is assumed to be able to estimate the in-focus position by contrast AF, and it is assumed that no further high-speed AF operation is necessary after the next frame.

C_Min<AFC_2<C_Maxであると(ステップS513において、YES)、制御部106は、AF評価値検出用撮像有無フラグSub_ONを”0”とする(ステップS514)。そして、制御部106はAF評価値検出用撮像回数を示す変数nを1カウントアップする(ステップS515)。一方、AFC_2≦C_Min又はC_Max≦AFC_2であると(ステップS513において、NO)、制御部106はステップS509の処理に進む。   If C_Min <AFC_2 <C_Max (YES in step S513), the control unit 106 sets the AF evaluation value detection imaging presence / absence flag Sub_ON to “0” (step S514). Then, the control unit 106 increments the variable n indicating the number of times of AF evaluation value detection imaging (step S515). On the other hand, if AFC_2 ≦ C_Min or C_Max ≦ AFC_2 (NO in step S513), the control unit 106 proceeds to the process of step S509.

続いて、制御部106は変数nが”3”であるか否かを確認する(ステップS516)。変数nが”3”でないと(ステップS516において、NO)、制御部106は、再度AF評価値検出用撮像を行うためステップS511の処理に戻る。一方、変数nが”3”であると(ステップS516において、YES)、制御部106は、ステップS504の処理に進み、前述のようにして位相差AF評価値検出部1042によってAF評価値AFP_1を算出する。   Subsequently, the control unit 106 confirms whether or not the variable n is “3” (step S516). If the variable n is not “3” (NO in step S516), the control unit 106 returns to the process of step S511 to perform AF evaluation value detection imaging again. On the other hand, if variable n is “3” (YES in step S516), control unit 106 proceeds to the process in step S504, and phase difference AF evaluation value detection unit 1042 sets AF evaluation value AFP_1 as described above. calculate.

このように、本発明の実施の形態では、ライブビュー用撮像において位相差AF評価値およびコントラストAF評価値が所定のレベルと達しないと、ライブビュー撮像よりも高いフレームレートでAF評価値検出用撮像を行って、コントラストAF評価値を得る。さらに、AF評価値検出用撮像においてはライブビュー用撮像と異なる画素を用いて当該画素の読み出しをライブビュー撮像と同時に行う。これによって、ライブビュー画像の画質の低下を回避して、しかもAF評価を行う際のタイムラグを短縮することができる。   As described above, in the embodiment of the present invention, if the phase difference AF evaluation value and the contrast AF evaluation value do not reach predetermined levels in live view imaging, AF evaluation value detection is performed at a higher frame rate than in live view imaging. Imaging is performed to obtain a contrast AF evaluation value. Further, in the AF evaluation value detection imaging, the pixel is read simultaneously with the live view imaging using a different pixel from the live view imaging. As a result, it is possible to avoid degradation of the image quality of the live view image and to reduce the time lag when performing AF evaluation.

さらに、本発明の実施の形態では、必要な場合にのみAF評価用撮像を行うようにしたのでAF動作の際の電力消費を低減することができる。   Furthermore, in the embodiment of the present invention, since the AF evaluation imaging is performed only when necessary, the power consumption during the AF operation can be reduced.

言い換えると、第1の画像信号に応じた画像を表示する際、第1の画像信号に基づいて行われる第1のフォーカス制御で合焦状態が得られないと、第2の読み出しで得られた第2の画像信号に基づいて第2のフォーカス制御を行う。つまり、ライブビュー表示とともに合焦状態が得られたか否かを判定して、その判定結果に応じて第2の画素群の読み出しを行うか否かを決定する。これによって、高速でしかも高精度のフォーカス制御を行いつつ、ライブビュー画像の画質の低下を回避して消費電力を低減することができる。   In other words, when an image corresponding to the first image signal is displayed, if the in-focus state is not obtained by the first focus control performed based on the first image signal, the image is obtained by the second readout. Second focus control is performed based on the second image signal. That is, it is determined whether or not an in-focus state is obtained together with the live view display, and it is determined whether or not to read out the second pixel group according to the determination result. Accordingly, it is possible to reduce power consumption by avoiding deterioration of the image quality of the live view image while performing high-speed and high-precision focus control.

なお、上述の実施の形態では、ライブビュー表示の際にAF動作を行う例について説明したが、ライブビュー表示の際に限らずその他の動画撮影のタイミングで上記の手法を用いてAF動作を行うようにしてもよい。   In the above-described embodiment, an example in which the AF operation is performed at the time of live view display has been described. However, the AF operation is performed not only at the time of live view display but also at other video shooting timings. You may do it.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

上述の説明から明らかなように、図1に示す例では、制御部106および駆動回路103が読み出し手段として機能する。また、制御部106および画像表示部109は表示制御手段として機能し、制御部106および駆動回路103は制御手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, the control unit 106 and the drive circuit 103 function as a reading unit. The control unit 106 and the image display unit 109 function as a display control unit, and the control unit 106 and the drive circuit 103 function as a control unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも第1の読み出しステップ、第2の読み出しステップ、表示制御ステップ、および制御ステップを有している。   Each of the control method and the control program has at least a first reading step, a second reading step, a display control step, and a control step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給して、システム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出し実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

101 光学鏡筒
102 撮像素子
103 駆動回路
104 信号処理部
106 制御部
108 操作部
109 画像表示部
1011 光学機構部
1041 コントラストAF評価値検出部
1042 位相差AF評価値検出部
DESCRIPTION OF SYMBOLS 101 Optical barrel 102 Image pick-up element 103 Drive circuit 104 Signal processing part 106 Control part 108 Operation part 109 Image display part 1011 Optical mechanism part 1041 Contrast AF evaluation value detection part 1042 Phase difference AF evaluation value detection part

Claims (8)

複数の画像を備え、光学像に応じた画像信号を出力する撮像素子と、
前記複数の画素のうち第1の画素群の読み出し制御を行って第1の画像信号を得る第1の読み出しと、前記複数の画素のうち第2の画素群の読み出し制御を行って第2の画像信号を得る第2の読み出しをする読み出し手段と、
前記第1の画像信号に応じた画像を表示部に表示する表示制御手段と、
前記第1の読み出しで得られた前記第1の画像信号に応じた画像を前記表示部に表示する際、前記第1の画像信号に基づいて行われる第1のフォーカス制御で合焦状態が得られない場合、前記第2の読み出しで得られた前記第2の画像信号に基づいて第2のフォーカス制御を行う制御手段と、
を有することを特徴とする撮像装置。
An image sensor that includes a plurality of images and outputs an image signal corresponding to the optical image;
Of the plurality of pixels, the first pixel group performs read control to obtain a first image signal, and among the plurality of pixels, the second pixel group performs read control and the second pixel group is read out. Reading means for performing second reading to obtain an image signal;
Display control means for displaying an image corresponding to the first image signal on a display unit;
When an image corresponding to the first image signal obtained by the first readout is displayed on the display unit, an in-focus state is obtained by the first focus control performed based on the first image signal. If not, control means for performing second focus control based on the second image signal obtained by the second readout;
An imaging device comprising:
前記第1の画像信号に基づいて得られる第1の評価値が予め設定された範囲にない場合、前記制御手段は前記第2の読み出しで得られた前記第2の画像信号に基づいて第2のフォーカス制御を行うことを特徴とする請求項1に記載の撮像装置。   When the first evaluation value obtained based on the first image signal is not within a preset range, the control means performs a second operation based on the second image signal obtained by the second reading. The imaging apparatus according to claim 1, wherein focus control is performed. 前記第1の画素群には、位相差を検出するための位相差検出用画素が含まれており、
前記制御手段は、前記位相差検出用画素で得られた画像信号に基づいて得られた第1の位相差評価値が所定の位相差閾値範囲になく、かつ前記位相差検出用画素でない他の画素で得られた画像信号に応じて得られた第1のコントラスト評価値が所定のコントラスト閾値範囲にない場合、前記第2の読み出しで得られた前記第2の画像信号に基づいて第2のフォーカス制御を行うことを特徴とする請求項1に記載の撮像装置。
The first pixel group includes a phase difference detection pixel for detecting a phase difference,
The control means is configured such that the first phase difference evaluation value obtained based on the image signal obtained from the phase difference detection pixel is not within a predetermined phase difference threshold range and is not the phase difference detection pixel. When the first contrast evaluation value obtained according to the image signal obtained from the pixel is not within the predetermined contrast threshold range, the second contrast signal is obtained based on the second image signal obtained by the second readout. The imaging apparatus according to claim 1, wherein focus control is performed.
前記制御手段は、前記第2の読み出しで得られた前記第2の画像信号に基づいて第2のフォーカス制御を行う際、前記第2の画像信号に基づいて得られた第2のコントラスト評価値に応じて前記第2のフォーカス制御を行うことを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   When the control means performs the second focus control based on the second image signal obtained by the second readout, the second contrast evaluation value obtained based on the second image signal The imaging apparatus according to any one of claims 1 to 3, wherein the second focus control is performed in accordance with the frequency. 前記制御手段は、前記第2のコントラスト評価値が所定のコントラスト閾値範囲にある場合、前記読み出し手段による前記第2の読み出しを停止させることを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the control unit stops the second reading by the reading unit when the second contrast evaluation value is in a predetermined contrast threshold range. 前記第1の読み出しでは、前記第1の画素群は第1のフレームレートで読み出され、
前記第2の読み出しでは、前記第2の画素群は前記第1のフレームレートよりも速い第2のフレームレートで読み出されることを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。
In the first readout, the first pixel group is read out at a first frame rate,
6. The imaging according to claim 1, wherein in the second readout, the second pixel group is read out at a second frame rate that is faster than the first frame rate. apparatus.
複数の画像を備え、光学像に応じた画像信号を出力する撮像素子を備える撮像装置の制御方法であって、
前記複数の画素のうち第1の画素群の読み出し制御を行って第1の画像信号を得る第1の読み出しステップと、
前記複数の画素のうち第2の画素群の読み出し制御を行って第2の画像信号を得る第2の読み出しステップと、
前記第1の画像信号に応じた画像を表示部に表示する表示制御ステップと、
前記第1の読み出しステップによって得られた前記第1の画像信号に応じた画像が前記表示部に表示される際、前記第1の画像信号に基づいて行われる第1のフォーカス制御で合焦状態が得られない場合、前記第2の読み出しステップによって得られた前記第2の画像信号に基づいて第2のフォーカス制御を行う制御ステップと、
を有することを特徴とする制御方法。
A control method of an imaging apparatus including an image sensor that includes a plurality of images and outputs an image signal corresponding to an optical image,
A first readout step of performing readout control of a first pixel group among the plurality of pixels to obtain a first image signal;
A second readout step of obtaining a second image signal by performing readout control of a second pixel group among the plurality of pixels;
A display control step of displaying an image according to the first image signal on a display unit;
When an image corresponding to the first image signal obtained in the first readout step is displayed on the display unit, the in-focus state is achieved by the first focus control performed based on the first image signal. Is not obtained, a control step of performing second focus control based on the second image signal obtained by the second readout step;
A control method characterized by comprising:
複数の画像を備え、光学像に応じた画像信号を出力する撮像素子を備える撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記複数の画素のうち第1の画素群の読み出し制御を行って第1の画像信号を得る第1の読み出しステップと、
前記複数の画素のうち第2の画素群の読み出し制御を行って第2の画像信号を得る第2の読み出しステップと、
前記第1の画像信号に応じた画像を表示部に表示する表示制御ステップと、
前記第1の読み出しステップによって得られた前記第1の画像信号に応じた画像が前記表示部に表示される際、前記第1の画像信号に基づいて行われる第1のフォーカス制御で合焦状態が得られない場合、前記第2の読み出しステップによって得られた前記第2の画像信号に基づいて第2のフォーカス制御を行う制御ステップと、
を実行させることを特徴とする制御プログラム。
A control program for use in an imaging apparatus that includes a plurality of images and includes an imaging device that outputs an image signal corresponding to an optical image,
In the computer provided in the imaging device,
A first readout step of performing readout control of a first pixel group among the plurality of pixels to obtain a first image signal;
A second readout step of obtaining a second image signal by performing readout control of a second pixel group among the plurality of pixels;
A display control step of displaying an image according to the first image signal on a display unit;
When an image corresponding to the first image signal obtained in the first readout step is displayed on the display unit, the in-focus state is achieved by the first focus control performed based on the first image signal. Is not obtained, a control step of performing second focus control based on the second image signal obtained by the second readout step;
A control program characterized by causing
JP2013254910A 2013-12-10 2013-12-10 Imaging device, control method thereof, and control program Expired - Fee Related JP6223160B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013254910A JP6223160B2 (en) 2013-12-10 2013-12-10 Imaging device, control method thereof, and control program
US14/564,418 US9854216B2 (en) 2013-12-10 2014-12-09 Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium
CN201410756618.0A CN104702826B (en) 2013-12-10 2014-12-10 Picture pick-up device and its control method
US15/814,729 US10349028B2 (en) 2013-12-10 2017-11-16 Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013254910A JP6223160B2 (en) 2013-12-10 2013-12-10 Imaging device, control method thereof, and control program

Publications (2)

Publication Number Publication Date
JP2015114416A JP2015114416A (en) 2015-06-22
JP6223160B2 true JP6223160B2 (en) 2017-11-01

Family

ID=53528282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013254910A Expired - Fee Related JP6223160B2 (en) 2013-12-10 2013-12-10 Imaging device, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6223160B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018033072A (en) * 2016-08-26 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 Imaging apparatus, imaging system, and signal processing method
CA3067526A1 (en) 2017-06-15 2018-12-20 Canon Kabushiki Kaisha Cartridge and electrophotographic image forming apparatus
JP7224930B2 (en) * 2019-01-23 2023-02-20 キヤノン株式会社 Imaging device and imaging device control method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4321579B2 (en) * 2006-11-28 2009-08-26 ソニー株式会社 Imaging device
JP5264131B2 (en) * 2007-09-14 2013-08-14 キヤノン株式会社 Imaging device
JP5187039B2 (en) * 2007-10-01 2013-04-24 株式会社ニコン Solid-state imaging device and electronic camera using the same
JP5956782B2 (en) * 2011-05-26 2016-07-27 キヤノン株式会社 Imaging device and imaging apparatus
JP5858683B2 (en) * 2011-08-15 2016-02-10 キヤノン株式会社 Focus detection apparatus and imaging apparatus
JP5853594B2 (en) * 2011-10-31 2016-02-09 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2013113857A (en) * 2011-11-24 2013-06-10 Canon Inc Imaging device, and control method therefor

Also Published As

Publication number Publication date
JP2015114416A (en) 2015-06-22

Similar Documents

Publication Publication Date Title
US10349028B2 (en) Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium
JP6190184B2 (en) Imaging device, imaging apparatus, control method thereof, and control program
JP6995806B2 (en) Image sensor and image sensor
US10609315B2 (en) Solid-state image pickup element, apparatus, and method for focus detection
US9609223B2 (en) Image pickup element, image pickup apparatus, and method and program for controlling the same
JP6521731B2 (en) Imaging device, control method therefor, and control program
JP6223160B2 (en) Imaging device, control method thereof, and control program
JP6881939B2 (en) Solid-state image sensor, its control method, and image sensor
JP6881940B2 (en) Solid-state image sensor, its control method, and image sensor
JP6346417B2 (en) Imaging apparatus, control method thereof, and control program
JP6632580B2 (en) Imaging device and imaging device
JP2017034344A (en) Imaging apparatus and control method therefor
JP7051565B2 (en) Imaging device and its control method, imaging system
KR101757655B1 (en) Image pickup element, image pickup apparatus, method for controlling the same, and storage medium
JP5975658B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R151 Written notification of patent or utility model registration

Ref document number: 6223160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees