[go: up one dir, main page]

JP2006094202A - Imaging apparatus, focusing processing method, and program - Google Patents

Imaging apparatus, focusing processing method, and program Download PDF

Info

Publication number
JP2006094202A
JP2006094202A JP2004277916A JP2004277916A JP2006094202A JP 2006094202 A JP2006094202 A JP 2006094202A JP 2004277916 A JP2004277916 A JP 2004277916A JP 2004277916 A JP2004277916 A JP 2004277916A JP 2006094202 A JP2006094202 A JP 2006094202A
Authority
JP
Japan
Prior art keywords
focus
image
color
target area
focus target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004277916A
Other languages
Japanese (ja)
Inventor
Takeshi Iwamoto
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004277916A priority Critical patent/JP2006094202A/en
Publication of JP2006094202A publication Critical patent/JP2006094202A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus whereby everyone can simply focus a desired part and photographs an object. <P>SOLUTION: In the imaging apparatus provided with a CCD 23 for imaging an object and a display section 19 for displaying image data of the object obtained by the CCD 23 as a through-image, a plurality of optional parts are designated on a screen of the display section 19 as a focus object area. A control section 32 calculates a focus evaluation value on the basis of image data corresponding to the focus object area and focuses each focus object area on the basis of the calculated focus evaluation value as its control. Thus, the user focuses the designated part to carry out photographing without the need for troublesome operations of matching the object with a predetermined position (e.g., a center of the screen). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えばデジタルカメラなどの撮像装置に係り、特にAF(automatic focusing)機能を備えた撮像装置と、この撮像装置に用いられる合焦処理方法及びプログラムに関する。   The present invention relates to an imaging apparatus such as a digital camera, and more particularly to an imaging apparatus having an AF (automatic focusing) function, and a focusing processing method and program used for the imaging apparatus.

例えば、デジタルカメラなどの撮像装置では、被写体に自動的にピントを合わせるAF機能(自動合焦機能)を備えるものがある。このAF機能は、シャッタキーを半押し操作することで動作し、フォーカスレンズを移動させて、例えば画面の中央部分にピントを合わせる。その際、画面中央にフォーカス枠を表示して、ピントを合わせた部分をユーザに知らしめることが一般的に行われている(例えば、特許文献1参照)。
特開2000−92354号公報
For example, some imaging devices such as digital cameras have an AF function (automatic focusing function) that automatically focuses on a subject. This AF function operates by half-pressing the shutter key, moves the focus lens, and focuses, for example, on the center portion of the screen. At that time, a focus frame is generally displayed at the center of the screen so that the user is informed of the focused portion (see, for example, Patent Document 1).
JP 2000-92354 A

上述したように、AF機能を搭載した撮像装置では、シャッタキーを半押しするだけで、被写体にピントを合わせて撮影することができる。しかしながら、ピントを合わせる位置が予め決められているため、まず、その位置に被写体を合わせてから構図を決めて撮影するといった面倒な操作が必要であり、カメラに不慣れなユーザには扱いづらいといった問題があった。   As described above, in an imaging apparatus equipped with an AF function, a subject can be focused and photographed by simply pressing the shutter key halfway. However, since the position to focus on is determined in advance, it is necessary to perform troublesome operations such as first taking the subject and then composing and shooting, and it is difficult for users who are unfamiliar with the camera to handle it. was there.

本発明は前記のような点に鑑みなされたもので、誰でも簡単に所望の箇所にピントを合わせて撮影を行うことのできる撮像装置、合焦処理方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide an imaging apparatus, a focusing processing method, and a program that enable anyone to easily focus and focus on a desired location. .

本発明の請求項1に係る撮像装置は、被写体を撮像する撮像手段と、この撮影手段によって得られた被写体の画像データをスルー画像として表示する表示手段と、この表示手段によって表示されたスルー画像の中の任意の複数の部分を合焦対象エリアとして指定する指定手段と、この指定手段によって指定された複数の合焦対象エリアに対応した画像データに基づいて合焦評価値を算出する評価値算出手段と、この評価値算出手段によって算出された合焦評価値に基づいて前記各合焦対象エリアにピントを合わせる制御手段とを具備して構成される。   An imaging apparatus according to a first aspect of the present invention includes an imaging unit for imaging a subject, a display unit for displaying image data of the subject obtained by the imaging unit as a through image, and a through image displayed by the display unit. An evaluation value for calculating a focus evaluation value based on image data corresponding to the plurality of focus target areas specified by the specification means, and a specifying means for specifying any of a plurality of portions in the focus target area The calculation means and a control means for focusing on each focus target area based on the focus evaluation value calculated by the evaluation value calculation means.

このような構成によれば、スルー画像の中の任意の複数の部分を合焦対象エリアとして指定することにより、これらの合焦対象エリアにピントを合わせて撮影することができる。   According to such a configuration, by designating an arbitrary plurality of portions in the through image as the in-focus target area, it is possible to shoot with focusing on the in-focus target area.

また、本発明の請求項2は、前記請求項1記載の撮像装置において、前記制御手段は、前記各合焦対象エリアにピントが合わない場合にはパンフォーカスに切り替えることを特徴とする。   According to a second aspect of the present invention, in the image pickup apparatus according to the first aspect, the control unit switches to pan focus when the focus target areas are not in focus.

このような構成によれば、各合焦対象エリアにピントが合わない場合にパンフォーカスに切り替えて撮影することができる。   According to such a configuration, when focus is not achieved on each focus target area, it is possible to switch to pan focus and shoot.

また、本発明の請求項3は、前記請求項1記載の撮像装置において、前記スルー画像からピントが合っている部分の色を検出する色検出手段と、この色検出手段によって検出された色を所定の形式で表示する色表示手段とを具備したことを特徴とする。   According to a third aspect of the present invention, in the imaging apparatus according to the first aspect, a color detection unit that detects a color of a focused portion from the through image, and a color detected by the color detection unit. And color display means for displaying in a predetermined format.

このような構成によれば、ピントが合っている部分の色が検出され、例えばウインドウ形式で表示されるので、その表示された色からどこにピントが合っているのかを把握することができる。   According to such a configuration, since the color of the in-focus portion is detected and displayed in, for example, a window format, it is possible to grasp where the focus is in focus from the displayed color.

また、本発明の請求項4は、前記請求項1記載の撮像装置において、前記スルー画像からピントが合っている部分の画像を抽出する画像抽出手段と、この画像抽出手段によって抽出された画像を所定の形式で表示する画像表示手段とを具備したことを特徴とする。   According to a fourth aspect of the present invention, in the imaging apparatus according to the first aspect, an image extracting unit that extracts an image of a focused portion from the through image, and an image extracted by the image extracting unit. And image display means for displaying in a predetermined format.

このような構成によれば、ピントが合っている部分の画像が抽出され、例えばウインドウ形式で表示されるので、その表示された画像からどこにピントが合っているのかを把握することができる。   According to such a configuration, an in-focus image is extracted and displayed in, for example, a window format, so it is possible to grasp where the image is in focus from the displayed image.

本発明の請求項5に係る撮像装置は、被写体を撮像する撮像手段と、この撮影手段によって得られた被写体の画像データをスルー画像として表示する表示手段と、任意の色を指定する指定手段と、前記表示手段によって表示されたスルー画像の中で前記指定手段によって指定された色を有する部分を検出し、該当する部分を合焦対象エリアとして設定する合焦対象設定手段と、この合焦対象設定手段によって設定された合焦対象エリアにピントを合わせる制御手段とを具備して構成される。   An imaging apparatus according to a fifth aspect of the present invention includes an imaging unit that images a subject, a display unit that displays image data of the subject obtained by the imaging unit as a through image, and a designation unit that specifies an arbitrary color. A focus target setting means for detecting a portion having a color designated by the designation means in the through image displayed by the display means and setting the corresponding portion as a focus target area; and the focus target And a control means for focusing on the focus target area set by the setting means.

このような構成によれば、任意の色を指定することにより、その指定された色を有する部分を合焦対象エリアとして設定し、その合焦対象エリアにピントを合わせて撮影することができる。   According to such a configuration, by designating an arbitrary color, a portion having the designated color can be set as an in-focus target area, and the in-focus target area can be focused and photographed.

また、本発明の請求項6は、前記請求項5記載の撮像装置において、前記合焦対象設定手段によって設定された合焦対象エリアを削除するか、あるいは、他の部分を合焦対象エリアとして追加する合焦対象変更手段を具備したことを特徴とする。   According to a sixth aspect of the present invention, in the imaging apparatus according to the fifth aspect, the focus target area set by the focus target setting unit is deleted, or another portion is set as the focus target area. It is characterized by comprising a focusing object changing means to be added.

このような構成によれば、ユーザが指定した色に基づいて合焦対象エリアが設定された際に、その合焦対象エリアを削除するか、あるいは、他の部分を合焦対象エリアとして追加することができる。   According to such a configuration, when the focus target area is set based on the color designated by the user, the focus target area is deleted or another part is added as the focus target area. be able to.

また、本発明の請求項7は、前記請求項5記載の撮像装置において、前記スルー画像からピントが合っている部分の色を検出する色検出手段と、この色検出手段によって検出された色を所定の形式で表示する色表示手段とを具備したことを特徴とする。   According to a seventh aspect of the present invention, in the imaging apparatus according to the fifth aspect, a color detection unit that detects a color of a focused portion from the through image, and a color detected by the color detection unit. And color display means for displaying in a predetermined format.

このような構成によれば、ピントが合っている部分の色が検出され、例えばウインドウ形式で表示されるので、その表示された色からどこにピントが合っているのかを把握することができる。   According to such a configuration, since the color of the in-focus portion is detected and displayed in, for example, a window format, it is possible to grasp where the focus is in focus from the displayed color.

また、本発明の請求項8は、前記請求項5記載の撮像装置において、前記スルー画像からピントが合っている部分の画像を抽出する画像抽出手段と、この画像抽出手段によって抽出された画像を所定の形式で表示する画像表示手段とを具備したことを特徴とする。   According to an eighth aspect of the present invention, in the imaging apparatus according to the fifth aspect, an image extracting unit that extracts an image of a focused portion from the through image, and an image extracted by the image extracting unit. And image display means for displaying in a predetermined format.

このような構成によれば、ピントが合っている部分の画像が抽出され、例えばウインドウ形式で表示されるので、その表示された画像からどこにピントが合っているのかを把握することができる。   According to such a configuration, an in-focus image is extracted and displayed in, for example, a window format, so it is possible to grasp where the image is in focus from the displayed image.

本発明の請求項9に係る合焦処理方法は、被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置に用いられる合焦処理方法であって、前記表示部に表示されたスルー画像の中の任意の複数の部分を合焦対象エリアとして指定するステップと、この指定された複数の合焦対象エリアに対応した画像データに基づいて合焦評価値を算出するステップと、この算出された合焦評価値に基づいて前記各合焦対象エリアにピントを合わせるステップとを備えたことを特徴とする。   A focusing processing method according to claim 9 of the present invention is used in an imaging apparatus including an imaging device that captures an image of a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image. A focus processing method, the step of designating an arbitrary plurality of portions in a through image displayed on the display unit as a focus target area, and image data corresponding to the plurality of designated focus target areas And a step of calculating a focus evaluation value based on the above and a step of focusing on each focus target area based on the calculated focus evaluation value.

このような合焦処理方法によれば、前記各ステップに従った処理を実行することにより、前記請求項1記載の発明と同様の作用効果が奏せられる。   According to such a focusing processing method, the same effect as that of the first aspect of the invention can be achieved by executing the processing according to each of the steps.

本発明の請求項10に係る合焦処理方法は、被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置に用いられる合焦処理方法であって、任意の色を指定するステップと、前記表示部に表示されたスルー画像の中で前記指定された色を有する部分を検出し、該当する部分を合焦対象エリアとして設定するステップと、この設定された合焦対象エリアにピントを合わせるステップとを備えたことを特徴とする。   According to a tenth aspect of the present invention, there is provided a focusing processing method used in an imaging device including an imaging device that captures an image of a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image. A focus processing method for specifying an arbitrary color and detecting a portion having the specified color in a through image displayed on the display unit and setting the corresponding portion as a focus target area And a step of focusing on the set focus target area.

このような合焦処理方法によれば、前記各ステップに従った処理を実行することにより、前記請求項5記載の発明と同様の作用効果が奏せられる。   According to such a focusing processing method, the same effects as those of the invention of the fifth aspect can be achieved by executing the processing according to each step.

本発明の請求項11に係るプログラムは、被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置を制御するコンピュータに用いられるプログラムであって、前記コンピュータに、前記表示部に表示されたスルー画像の中の任意の複数の部分を合焦対象エリアとして指定する機能と、この指定された複数の合焦対象エリアに対応した画像データに基づいて合焦評価値を算出する機能と、この算出された合焦評価値に基づいて前記各合焦対象エリアにピントを合わせる機能とを実現させることを特徴とする。   A program according to an eleventh aspect of the present invention is used in a computer that controls an imaging apparatus that includes an imaging device that images a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image. A program that has a function of designating a plurality of portions in a through image displayed on the display unit as a focus target area on the computer, and a function corresponding to the designated focus target areas. A function of calculating a focus evaluation value based on image data and a function of focusing on each focus target area based on the calculated focus evaluation value are realized.

したがって、コンピュータが前記各機能を実現するためのプログラムを実行することにより、前記請求項1記載の発明と同様の作用効果が奏せられる。   Therefore, when the computer executes the program for realizing each function, the same effects as those of the first aspect of the invention can be achieved.

本発明の請求項12に係るプログラムは、被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置を制御するコンピュータに用いられるプログラムであって、前記コンピュータに、任意の色を指定する機能と、前記表示部に表示されたスルー画像の中で前記指定された色を有する部分を検出し、該当する部分を合焦対象エリアとして設定する機能と、この設定された合焦対象エリアにピントを合わせる機能とを実現させることを特徴とする。   A program according to a twelfth aspect of the present invention is used in a computer that controls an imaging apparatus that includes an imaging device that captures an image of a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image. A program for detecting a portion having the designated color in a through image displayed on the display unit and a function for designating an arbitrary color on the computer, and detecting the corresponding portion as an in-focus area And a function for focusing on the set focus target area.

したがって、コンピュータが前記各機能を実現するためのプログラムを実行することにより、前記請求項5記載の発明と同様の作用効果が奏せられる。   Therefore, when the computer executes the program for realizing each function, the same effect as that of the invention of claim 5 can be obtained.

本発明によれば、画面上の任意の複数の部分を合焦対象エリアとして指定することができる。したがって、予め決められた位置(例えば画面中央部)に被写体を合わせるなどの面倒な操作をしなくても、これらの指定箇所にピントを合わせて撮影を行うことができる。   According to the present invention, an arbitrary plurality of portions on the screen can be designated as the focus target area. Therefore, it is possible to perform photographing while focusing on these designated portions without performing a troublesome operation such as aligning the subject to a predetermined position (for example, the center of the screen).

また、任意の色を指定することで、その指定した色を有する部分を合焦対象エリアとして設定することができる。これにより、予め決められた位置(例えば画面中央部)に被写体を合わせるなどの面倒な操作をしなくても、指定した色を有する部分にピントを合わせて撮影を行うことができる。   In addition, by designating an arbitrary color, a portion having the designated color can be set as a focus target area. Accordingly, it is possible to perform shooting while focusing on a portion having a designated color without performing a troublesome operation such as adjusting the subject to a predetermined position (for example, the center of the screen).

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は本発明の第1の実施形態に係る撮像装置としてデジタルカメラを例にした場合の外観構成を示す図であり、図1(a)は主に前面の構成、同図(b)は主に背面の構成を示す斜視図である。
(First embodiment)
FIG. 1 is a diagram showing an external configuration when a digital camera is taken as an example of the imaging apparatus according to the first embodiment of the present invention. FIG. 1 (a) is mainly a front configuration, and FIG. It is a perspective view which mainly shows the structure of a back surface.

このデジタルカメラ1は、略矩形の薄板状ボディ2の前面に、撮影レンズ3、セルフタイマランプ4、光学ファインダ窓5、ストロボ発光部6、マイクロホン部7などを有し、上面の(ユーザにとって)右端側には電源キー8及びシャッタキー9などが設けられている。   The digital camera 1 has a photographing lens 3, a self-timer lamp 4, an optical finder window 5, a strobe light emitting unit 6, a microphone unit 7 and the like on the front surface of a substantially rectangular thin plate-like body 2 on the upper surface (for the user). On the right end side, a power key 8 and a shutter key 9 are provided.

電源キー8は、電源のオン/オフ毎に操作するキーであり、シャッタキー9は、撮影時に撮影タイミングを指示するキーである。   The power key 8 is a key operated every time the power is turned on / off, and the shutter key 9 is a key for instructing a photographing timing at the time of photographing.

また、デジタルカメラ1の背面には、撮影モード(R)キー10、再生モード(P)キー11、光学ファインダ12、スピーカ部13、マクロキー14、ストロボキー15、メニュー(MENU)キー16、リングキー17、セット(SET)キー18、表示部19などが設けられている。   Also, on the back of the digital camera 1, a shooting mode (R) key 10, a playback mode (P) key 11, an optical viewfinder 12, a speaker unit 13, a macro key 14, a strobe key 15, a menu (MENU) key 16, a ring A key 17, a set (SET) key 18, a display unit 19, and the like are provided.

撮影モードキー10は、電源オフの状態から操作することで自動的に電源オンとして静止画の撮影モードに移行する一方で、電源オンの状態から繰返し操作することで、静止画モード、動画モードを循環的に設定する。静止画モードは、静止画を撮影するためのモードである。また、動画モードは、動画を撮影するためのモードである。   The shooting mode key 10 is operated automatically from the power-off state to automatically turn on the power and shift to the still image shooting mode. On the other hand, by repeatedly operating from the power-on state, the still image mode and the moving image mode are switched. Set cyclically. The still image mode is a mode for photographing a still image. The moving image mode is a mode for shooting a moving image.

前記シャッタキー9は、これらの撮影モードに共通に使用される。すなわち、静止画モードでは、シャッタキー9が押下されたときのタイミングで静止画の撮影が行われる。動画モードでは、シャッタキー9が押下されたときのタイミングで動画の撮影が開始され、シャッタキー9が再度押下されたときにその動画の撮影が終了する。   The shutter key 9 is commonly used for these photographing modes. That is, in the still image mode, a still image is taken at the timing when the shutter key 9 is pressed. In the moving image mode, shooting of a moving image is started at a timing when the shutter key 9 is pressed, and shooting of the moving image is ended when the shutter key 9 is pressed again.

再生モードキー11は、電源オフの状態から操作することで自動的に電源オンとして再生モードに移行する。   When the playback mode key 11 is operated from the power-off state, the playback mode key 11 is automatically turned on to enter the playback mode.

マクロキー14は、静止画の撮影モードで通常撮影とマクロ撮影とを切換える際に操作する。ストロボキー15は、ストロボ発光部6の発光モードを切換える際に操作する。メニューキー16は、各種メニュー項目等を選択する際に操作する。リングキー17は、上下左右各方向への項目選択用のキーが一体に形成されたものであり、このリングキー17の中央に位置するセットキー18は、その時点で選択されている項目を設定する際に操作する。   The macro key 14 is operated when switching between normal shooting and macro shooting in the still image shooting mode. The strobe key 15 is operated when switching the light emission mode of the strobe light emitting unit 6. The menu key 16 is operated when selecting various menu items. The ring key 17 is integrally formed with item selection keys in the up, down, left, and right directions, and the set key 18 located in the center of the ring key 17 sets the item selected at that time. To operate.

表示部19は、バックライト付きのカラー液晶パネルで構成されるもので、撮影モード時には電子ファインダとしてスルー画像のモニタ表示を行う一方で、再生モード時には選択した画像等を再生表示する。   The display unit 19 is composed of a color liquid crystal panel with a backlight, and displays a through image on the monitor as an electronic viewfinder in the photographing mode, and reproduces and displays the selected image and the like in the reproduction mode.

なお、図示はしないがデジタルカメラ1の底面には、記録媒体として用いられるメモリカードを着脱するためのメモリカードスロットや、外部のパーソナルコンピュータ等と接続するためのシリアルインタフェースコネクタとして、例えばUSB(Universal Serial Bus)コネクタ等が設けられているものとする。   Although not shown, the digital camera 1 has a memory card slot for attaching / detaching a memory card used as a recording medium, a serial interface connector for connecting to an external personal computer, etc., for example, USB (Universal). (Serial Bus) connector and the like are provided.

図2はデジタルカメラ1の電子回路構成を示すブロック図である。   FIG. 2 is a block diagram showing an electronic circuit configuration of the digital camera 1.

このデジタルカメラ1には、前記撮影レンズ3を構成する図示せぬフォーカスレンズおよびズームレンズを含むレンズ光学系22がモータ21の駆動により光軸方向に所定の範囲内で移動可能に設けられており、その光軸後方に撮像素子であるCCD23が配設されている。このCCD23は、撮影レンズ3を通過する光を受光し、その受光量に応じた画像データを取得する。   In the digital camera 1, a lens optical system 22 including a focus lens and a zoom lens (not shown) constituting the photographing lens 3 is provided so as to be movable within a predetermined range in the optical axis direction by driving a motor 21. A CCD 23, which is an image sensor, is disposed behind the optical axis. The CCD 23 receives light passing through the photographing lens 3 and acquires image data corresponding to the amount of received light.

基本モードである記録モード時において、CCD23がタイミング発生器(TG)24、ドライバ25によって走査駆動され、一定周期毎に結像した光像に対応する光電変換出力を1画面分出力する。   In the recording mode, which is the basic mode, the CCD 23 is scanned and driven by a timing generator (TG) 24 and a driver 25, and outputs a photoelectric conversion output corresponding to a light image formed at regular intervals for one screen.

このCCD23の光電変換出力は、アナログ値の信号の状態でRGBの各原色成分毎に適宜ゲイン調整された後に、サンプルホールド回路26でサンプルホールドされ、A/D変換器27でデジタルデータに変換される。そして、カラープロセス回路28において、画素補間処理及びγ補正処理を含むカラープロセス処理が行われて、デジタル値の輝度信号Y及び色差信号Cb,Crが生成され、DMA(Direct Memory Access)コントローラ29に出力される。   The photoelectric conversion output of the CCD 23 is appropriately gain-adjusted for each primary color component of RGB in the state of an analog value signal, sampled and held by the sample hold circuit 26, and converted into digital data by the A / D converter 27. The In the color process circuit 28, color process processing including pixel interpolation processing and γ correction processing is performed to generate digital luminance signals Y and color difference signals Cb, Cr, which are sent to a DMA (Direct Memory Access) controller 29. Is output.

DMAコントローラ29は、カラープロセス回路28の出力する輝度信号Y及び色差信号Cb,Crを、同じくカラープロセス回路28からの複合同期信号、メモリ書込みイネーブル信号、及びクロック信号を用いて一度DMAコントローラ29内部のバッファに書き込み、DRAMインタフェース(I/F)30を介してバッファメモリとして使用されるDRAM31にDMA転送を行う。   The DMA controller 29 once uses the luminance signal Y and the color difference signals Cb and Cr output from the color process circuit 28 by using the composite synchronization signal, memory write enable signal, and clock signal from the color process circuit 28 once. And the DMA transfer to the DRAM 31 used as the buffer memory via the DRAM interface (I / F) 30.

制御部32は、CPU32aと、このCPU32aで実行される動作プログラムを記憶したROM32b、及びワークメモリとして使用されるRAM32cなどを含むマイクロコンピュータにより構成される。この制御部32は、デジタルカメラ1全体の制御動作を司り、前記輝度及び色差信号のDRAM31へのDMA転送終了後に、この輝度及び色差信号をDRAMインタフェース30を介してDRAM31より読み出し、VRAMコントローラ33を介してVRAM34に書き込む。   The control unit 32 includes a microcomputer including a CPU 32a, a ROM 32b that stores an operation program executed by the CPU 32a, a RAM 32c used as a work memory, and the like. The control unit 32 controls the entire digital camera 1, and after the DMA transfer of the luminance and color difference signals to the DRAM 31 is completed, the luminance and color difference signals are read from the DRAM 31 via the DRAM interface 30 and the VRAM controller 33 is read. To the VRAM 34.

デジタルビデオエンコーダ35は、前記輝度及び色差信号をVRAMコントローラ33を介してVRAM34より定期的に読み出し、これらのデータを元にビデオ信号を発生して表示部19に出力する。   The digital video encoder 35 periodically reads the luminance and color difference signals from the VRAM 34 via the VRAM controller 33, generates a video signal based on these data, and outputs the video signal to the display unit 19.

この表示部19は、上述した如く撮影時にはモニタ表示部(電子ファインダ)として機能するもので、デジタルビデオエンコーダ35からのビデオ信号に基づいた表示を行うことで、その時点でVRAMコントローラ33から取込んでいる画像情報に基づく画像をリアルタイムに表示することとなる。   As described above, the display unit 19 functions as a monitor display unit (electronic finder) at the time of shooting. By performing display based on the video signal from the digital video encoder 35, the display unit 19 captures from the VRAM controller 33 at that time. An image based on the image information is displayed in real time.

このように、表示部19にその時点での画像がモニタ画像としてリアルタイムに表示されている状態で、例えば静止画撮影を行いたいタイミングでシャッタキー9を押下操作すると、トリガ信号が発生する。   As described above, when the image at that time is displayed in real time as the monitor image on the display unit 19, for example, when the shutter key 9 is pressed at a timing at which still image shooting is desired, a trigger signal is generated.

制御部32は、このトリガ信号に応じて、その時点でCCD23から取込んでいる1画面分の輝度及び色差信号のDRAM31へのDMA転送の終了後、直ちにCCD23からのDRAM31への経路を停止し、記録保存の状態に遷移する。   In response to the trigger signal, the control unit 32 immediately stops the path from the CCD 23 to the DRAM 31 immediately after the DMA transfer of the luminance and color difference signals for one screen captured from the CCD 23 to the DRAM 31 is completed. , Transition to the record storage state.

この記録保存の状態では、制御部32がDRAM31に書き込まれている1フレーム分の輝度及び色差信号をDRAMインタフェース30を介してY,Cb,Crの各コンポーネント毎に縦8画素×横8画素の基本ブロックと呼称される単位で読み出して、画像処理部37の内部に存在するJPEG(Joint Photograph coding Experts Group)処理ブロックに書き込み、この画像処理部37でADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)、エントロピ符号化方式であるハフマン符号化等の処理によりデータ圧縮する。   In this recording and storage state, the control unit 32 outputs the luminance and color difference signals for one frame written in the DRAM 31 to 8 pixels × 8 pixels for each of Y, Cb, and Cr components via the DRAM interface 30. The data is read out in units called basic blocks, written in a JPEG (Joint Photographic Coding Experts Group) processing block existing in the image processing unit 37, and the image processing unit 37 uses ADCT (Adaptive Discrete Cosine Transform: adaptive discrete cosine transform). ), The data is compressed by a process such as Huffman coding, which is an entropy coding method.

そして得た符号データを1画像のデータファイルとして該画像処理部37から読み出して記録用のメモリ38に書き込む。このメモリ38としては、予め本体に内蔵されたフラッシュメモリ等の内部メモリの他に、記録媒体として着脱自在に装着されるメモリカードなどを含む。1フレーム分の輝度及び色差信号の圧縮処理及びメモリ38への全圧縮データの書込み終了に伴って、制御部32はCCD23からDRAM31への経路を再び起動する。   The obtained code data is read out from the image processing unit 37 as a data file of one image and written in the recording memory 38. The memory 38 includes a memory card that is detachably mounted as a recording medium in addition to an internal memory such as a flash memory built in the main body in advance. With the compression processing of the luminance and color difference signals for one frame and the completion of writing all the compressed data to the memory 38, the control unit 32 activates the path from the CCD 23 to the DRAM 31 again.

制御部32には、さらに音声処理部39、USBインタフェース(I/F)40、ストロボ駆動部41、移動検出部42が接続される。   The control unit 32 is further connected with an audio processing unit 39, a USB interface (I / F) 40, a strobe driving unit 41, and a movement detection unit 42.

音声処理部39は、A/D変換およびD/A変換を含む音声データの入出力処理を行うものであり、動画撮影時には動画データに同期させてマイクロホン部(MIC)7より入力されたアナログの音声信号をデジタル化して取り込む。また、再生時には、音声付き動画データから分離された音声データをアナログ化して、デジタルカメラ1の背面側に設けられたスピーカ部(SP)13を通じて出力する。   The audio processing unit 39 performs input / output processing of audio data including A / D conversion and D / A conversion. When shooting a moving image, the analog processing unit 39 receives an analog input from the microphone unit (MIC) 7 in synchronization with the moving image data. Digitally capture audio signals. At the time of reproduction, the audio data separated from the moving image data with audio is converted into analog data and output through a speaker unit (SP) 13 provided on the back side of the digital camera 1.

USBインタフェース40は、USBコネクタを介して有線接続されるパーソナルコンピュータ等の他の情報端末装置との間で画像データ、その他の送受を行う場合の通信制御を行う。ストロボ駆動部41は、撮影時に図示せぬストロボ用の大容量コンデンサを充電した上で、制御部32からの制御に基づいてストロボ発光部6を閃光駆動する。   The USB interface 40 performs communication control when image data and other information are transmitted / received to / from another information terminal device such as a personal computer connected by wire via a USB connector. The strobe drive unit 41 charges a strobe capacitor (not shown) at the time of shooting, and then drives the strobe light emitting unit 6 to flash based on control from the control unit 32.

移動検出部42は、例えば3軸加速度センサなどからなり、撮影時に装置本体を任意の方向に移動させたときの移動距離を検出する。この移動検出部42によって検出された移動距離は、後述するフォーカス枠の表示処理に用いられる。   The movement detection unit 42 includes, for example, a three-axis acceleration sensor and detects a movement distance when the apparatus main body is moved in an arbitrary direction during photographing. The movement distance detected by the movement detection unit 42 is used for a focus frame display process described later.

なお、前記キー入力部36は、上述したシャッタキー9の他に、電源キー8、撮影モードキー10、再生モードキー11、マクロキー14、ストロボキー15、メニューキー16、リングキー17、セットキー18などから構成され、それらのキー操作に伴う信号は直接制御部32へ送出される。   In addition to the shutter key 9 described above, the key input unit 36 includes a power key 8, a shooting mode key 10, a playback mode key 11, a macro key 14, a strobe key 15, a menu key 16, a ring key 17, and a set key. 18 and the like, and signals accompanying these key operations are sent directly to the control unit 32.

また、静止画像ではなく動画像の撮影時においては、シャッタキー9が押下操作されたときに、上述した画像処理部37の内部に存在する動画処理ブロックで、MPEG(Moving Picture Expert Group)またはmotion−JPEG(Joint Photographic Experts Group)などの手法により撮影動画をデータ圧縮してメモリ38へ記録する。再度シャッタキー9が操作されると、動画データの記録を終了する。   Further, when shooting a moving image instead of a still image, the moving picture processing group (MPEG) or motion is a moving image processing block existing in the image processing unit 37 described above when the shutter key 9 is pressed. -Captured moving image data is compressed and recorded in the memory 38 by a method such as JPEG (Joint Photographic Experts Group). When the shutter key 9 is operated again, the recording of the moving image data is finished.

一方、基本モードである再生モード時には、制御部32がメモリ38に記録されている画像データを選択的に読み出し、画像処理部37で記録モード時にデータ圧縮した手順と全く逆の手順で、圧縮されている画像データを伸長する。そして、この伸長した画像データをDRAMインタフェース30を介してDRAM31に保持させた上で、このDRAM31の保持内容をVRAMコントローラ33を介してVRAM34に記憶させ、このVRAM34より定期的に画像データを読み出してビデオ信号を発生し、表示部19で再生出力させる。   On the other hand, in the playback mode, which is the basic mode, the control unit 32 selectively reads out the image data recorded in the memory 38, and the image processing unit 37 compresses the image data in a procedure that is completely opposite to the procedure of data compression in the recording mode. Decompress the image data. The decompressed image data is held in the DRAM 31 via the DRAM interface 30, and then the content held in the DRAM 31 is stored in the VRAM 34 via the VRAM controller 33. The image data is periodically read out from the VRAM 34. A video signal is generated and reproduced and output by the display unit 19.

選択した画像データが静止画像ではなく動画像であった場合には、その動画データを構成する複数フレームの静止画データを時系列の順で順次再生して表示し、すべての静止画データの再生を終了した時点で、例えば、次に再生の指示がなされるまで先頭に位置する静止画データを表示するなどを行う。   If the selected image data is not a still image but a moving image, the multiple frames of still image data that make up the moving image data are played back and displayed sequentially in chronological order, and all the still image data is played back. For example, the top still image data is displayed until the next playback instruction is given.

次に、第1の実施形態の動作について説明する。   Next, the operation of the first embodiment will be described.

なお、以下の各フローチャートで示される処理は、マイクロプロセッサである制御部32(CPU32a)がROM32bなどに記憶されたプログラムを読み込むことにより実行される。また、他の実施形態に関する処理についても同様であり、制御部32(CPU32a)がその実施形態を実現するためのプログラムを読み込むことによって実行される。   Note that the processing shown in the following flowcharts is executed when the control unit 32 (CPU 32a), which is a microprocessor, reads a program stored in the ROM 32b or the like. The same applies to processing relating to other embodiments, and is executed by the control unit 32 (CPU 32a) reading a program for realizing the embodiment.

図3は第1の実施形態におけるデジタルカメラ1の撮影時の処理動作を示すフローチャートである。   FIG. 3 is a flowchart showing a processing operation at the time of photographing by the digital camera 1 in the first embodiment.

電源投入後、このデジタルカメラ1に設けられた撮影モードキー10の操作により静止画の撮影モードを設定すると、被写体の画像がレンズ光学系22およびCCD23を通じて取り込まれ、所定のカラープロセス処理を経た後、スルー画像として表示部19の画面上に表示される(ステップA11)。   When the still image shooting mode is set by operating the shooting mode key 10 provided in the digital camera 1 after the power is turned on, the image of the subject is captured through the lens optical system 22 and the CCD 23, and after undergoing a predetermined color process. The through image is displayed on the screen of the display unit 19 (step A11).

ここで、図8に示すように、ユーザが表示部19の画面上に表示されたスルー画像50の中で任意の複数の部分を合焦対象エリアとして指定すると(ステップA12)、制御部32(CPU32a)は、これらの指定エリアに所定サイズのフォーカス枠51〜53を表示する(ステップA13)。   Here, as shown in FIG. 8, when the user designates an arbitrary plurality of portions in the through image 50 displayed on the screen of the display unit 19 as the focus target area (step A12), the control unit 32 ( The CPU 32a) displays focus frames 51 to 53 of a predetermined size in these designated areas (step A13).

前記合焦対象エリアの指定方法としては、例えば表示部19の画面上に透明のタッチパネルを搭載していれば、画面上の任意の位置を指やペンで直接タッチする方法や、カーソールキーの操作により画面上の任意の位置を指定するなどの方法がある。図8の例では、合焦対象エリアとして3箇所指定されており、それぞれの指定箇所に合焦対象エリアであることを示すフォーカス枠51〜53が表示されている。   As a method for specifying the focus target area, for example, if a transparent touch panel is mounted on the screen of the display unit 19, a method of directly touching an arbitrary position on the screen with a finger or a pen, or a cursor key operation There is a method such as designating an arbitrary position on the screen. In the example of FIG. 8, three places are designated as the focus target areas, and focus frames 51 to 53 indicating the focus target areas are displayed at the designated places.

このような状態で、ユーザがシャッタキー9の半押し操作により合焦指示を行うと(ステップA14のYes)、制御部32は、前記指定された複数の合焦対象エリアに対するAF処理(自動合焦処理)を実行する(ステップA15)。なお、このAF処理(自動合焦処理)については、後に図4〜図6を参照して詳しく説明する。   In this state, when the user gives a focus instruction by half-pressing the shutter key 9 (Yes in Step A14), the control unit 32 performs AF processing (automatic focus on the plurality of designated focus target areas. Focusing process) is executed (step A15). The AF process (automatic focusing process) will be described in detail later with reference to FIGS.

また続いて、制御部32は、図9に示すようにピントを合わせた部分の画像や色を表示するための合焦表示処理を実行するが(ステップA16)、この合焦表示処理については後に図7を参照して説明する。   Subsequently, the control unit 32 executes a focus display process for displaying the focused image and color as shown in FIG. 9 (step A16). The focus display process will be described later. This will be described with reference to FIG.

ここで、ユーザがシャッタキー9の押下操作により撮影指示を行うと(ステップA17のYes)、制御部32は所定の撮影処理を実行することにより、現在表示されているスルー画像を静止画として取り込み、所定の方式で圧縮してメモリ38に記録する(ステップA18)。なお、撮影処理については、図2で詳しく説明してあるため、ここでは省略する。   Here, when the user gives a shooting instruction by pressing the shutter key 9 (Yes in step A17), the control unit 32 executes a predetermined shooting process to capture the currently displayed through image as a still image. Then, it is compressed by a predetermined method and recorded in the memory 38 (step A18). The photographing process has been described in detail with reference to FIG.

(自動合焦処理)
次に、前記ステップA15にて実行される自動合焦処理について、コントラスト検出方式を想定して説明する。
(Automatic focusing process)
Next, the automatic focusing process executed in step A15 will be described assuming a contrast detection method.

コントラスト検出方式とは、図10に示すように、レンズ光学系22に含まれるフォーカスレンズ22aを光軸上に移動させながら、画像データのコントラスト(高周波成分)を検出し、最もコントラストが大きくなる位置をピットが合った位置つまり合焦位置として検出する方式である。   As shown in FIG. 10, the contrast detection method is a position where the contrast (high frequency component) of image data is detected while moving the focus lens 22a included in the lens optical system 22 on the optical axis, and the contrast becomes the largest. Is detected as the position where the pit is aligned, that is, the in-focus position.

通常は、画面中央部などの予め決められたエリアに対応した画像データ(これを画像ブロックと呼ぶ)について前記のような処理を行うが、ここでは複数の指定エリアについて同様の処理を行うことで合焦位置を検出する。   Normally, the above processing is performed for image data corresponding to a predetermined area such as the center of the screen (this is called an image block), but here the same processing is performed for a plurality of designated areas. The focus position is detected.

図4はその自動合焦処理の全体の流れを示すフローチャートである。   FIG. 4 is a flowchart showing the overall flow of the automatic focusing process.

まず、制御部32は、モータ21を駆動してフォーカスレンズを光軸上の一方端に動かして(ステップB11)、例えば画面中央部などの所定の位置で得られる画像データの高周波成分を検出する(ステップB12)。そして、制御部32は、この検出した高周波成分の値を他のレンズ位置で検出した高周波成分と比較することで最高値であるか否かの判定を行い(ステップB13)、最高値として判定された場合にはその値をRAM32cの所定の領域に記憶する(ステップB14)。   First, the control unit 32 drives the motor 21 to move the focus lens to one end on the optical axis (step B11), and detects a high-frequency component of image data obtained at a predetermined position such as the center of the screen. (Step B12). And the control part 32 determines whether it is the maximum value by comparing the value of this detected high frequency component with the high frequency component detected in another lens position (step B13), and is determined as the maximum value. If so, the value is stored in a predetermined area of the RAM 32c (step B14).

具体的に説明すると、今、図10に示すように、フォーカスレンズ22aがP0〜P6の間を移動可能であるとする。まず、その一方端のP0の位置にフォーカスレンズ22aを移動させ、そこで得られる高周波成分の値f0を検出する。この検出した高周波成分の値f0を他のレンズ位置で検出した高周波成分の値と比較して最高値であるか否かの判定を行う。この場合、最初はP0の位置で得られた高周波成分の値f0しかないため、f0が最高値としてセットされる。   Specifically, it is assumed that the focus lens 22a is movable between P0 to P6 as shown in FIG. First, the focus lens 22a is moved to the position of P0 at one end thereof, and the value f0 of the high frequency component obtained there is detected. The detected high-frequency component value f0 is compared with the high-frequency component values detected at other lens positions to determine whether or not it is the highest value. In this case, since there is only the high-frequency component value f0 obtained at the position P0 at first, f0 is set as the maximum value.

続いて、制御部32は、フォーカスレンズ22aをP1の位置に移動させて(ステップB15→B16)、そこで得られる画像データの高周波成分の値f1を検出する(ステップB12)。そして、制御部32は、この検出した高周波成分の値f1と現在最高値としてセットされている高周波成分の値f0とを比較することにより(ステップB13)、f1がf0よりも大きい場合にはf1を新たな最高値としてセットし直す(ステップB14)。また、f1がf0よりも小さい場合には、そのまま前回のf0を最高値として保持する。   Subsequently, the control unit 32 moves the focus lens 22a to the position P1 (step B15 → B16), and detects the high-frequency component value f1 of the image data obtained there (step B12). Then, the control unit 32 compares the detected high-frequency component value f1 with the high-frequency component value f0 that is currently set as the maximum value (step B13). If f1 is greater than f0, the control unit 32 sets f1. Is reset as a new maximum value (step B14). If f1 is smaller than f0, the previous f0 is held as the maximum value.

このようにして、フォーカスレンズ22aを一方端(P0)から反対端(P6)まで一単位ずつ移動させながら、その位置で得られる高周波成分の値と現在最高値としてセットされている高周波成分とを比較して、前記所定の位置(例えば画面中央部)で得られる高周波成分の最高値を求める。この高周波成分の最高値をfmaxとし、これを基準にして以下のように各指定エリアでの合焦評価値を算出する。   In this way, while moving the focus lens 22a one unit at a time from one end (P0) to the opposite end (P6), the value of the high-frequency component obtained at that position and the high-frequency component currently set as the maximum value are obtained. In comparison, the highest value of the high-frequency component obtained at the predetermined position (for example, the center of the screen) is obtained. The maximum value of this high frequency component is set to fmax, and based on this, the focus evaluation value in each designated area is calculated as follows.

すなわち、制御部32は、フォーカスレンズ22aを反対端(P6)から一方端(P0)に逆方向に一単位ずつ移動させながら、ユーザが指定した複数の合焦対象エリアに対する評価値を算出する。   That is, the control unit 32 calculates evaluation values for a plurality of focus target areas designated by the user while moving the focus lens 22a from the opposite end (P6) to the one end (P0) in the reverse direction one unit at a time.

今、ユーザが指定した複数の合焦対象エリアをE1〜E3とする。図8の例では、フォーカス枠51〜53が表示されているエリアがE1〜E3に相当する。制御部32は、まず、フォーカスレンズ22aが反対端のP6にある状態で、合焦対象エリアE1〜E3で得られる画像データの高周波成分の値を検出する(ステップB17)。   Now, let the plurality of focus target areas designated by the user be E1 to E3. In the example of FIG. 8, areas where the focus frames 51 to 53 are displayed correspond to E1 to E3. First, the control unit 32 detects the value of the high-frequency component of the image data obtained in the focusing target areas E1 to E3 with the focus lens 22a at the opposite end P6 (step B17).

そして、制御部32は、以下のような式(1)に従って合焦対象エリアE1〜E3の評価値をそれぞれ算出し(ステップB18)、その算出した各評価値を図11に示す評価テーブル57に記憶する(ステップB19)。なお、この評価テーブル57は、例えばRAM32cの所定の領域に設けられる。   And the control part 32 calculates the evaluation value of each focusing object area E1-E3 according to the following formula | equation (1) (step B18), respectively, and the calculated evaluation value is put into the evaluation table 57 shown in FIG. Store (step B19). The evaluation table 57 is provided in a predetermined area of the RAM 32c, for example.

評価値=(SEn/fmax)×100(%) …(1)
SEn :合焦対象エリアEnの高周波成分の値(nは1以上の整数)
fmax:所定位置の高周波成分の値
例えば、前記所定位置(画面中央部)における高周波成分の値fmax=100であるとした場合に、合焦対象エリアE1での高周波成分の値SE1=80であれば、評価値は80として求められる。同様に、合焦対象エリアE2での高周波成分の値SE2=60、合焦対象エリアE3での高周波成分の値SE3=50であれば、これらのエリアの評価値は60、50として求められる。
Evaluation value = (SEn / fmax) × 100 (%) (1)
SEn: Value of the high frequency component of the focusing target area En (n is an integer of 1 or more)
fmax: value of the high-frequency component at the predetermined position For example, when the value of the high-frequency component at the predetermined position (center of the screen) is fmax = 100, the value of the high-frequency component in the focusing target area E1 is SE1 = 80. In this case, the evaluation value is obtained as 80. Similarly, if the high-frequency component value SE2 = 60 in the focusing target area E2 and the high-frequency component value SE3 = 50 in the focusing target area E3, the evaluation values of these areas are obtained as 60 and 50, respectively.

以下同様にして、フォーカスレンズ22aを反対端(P6)から一方端(P0)まで反対方向に一単位ずつ移動させながら(ステップB20→B21)、その位置で得られる高周波成分の値SEnと最高値fmaxと基づいて各合焦対象エリアE1〜E3の評価値を求めて、その値を評価テーブル57にセットしていく。   Similarly, while moving the focus lens 22a one unit at a time in the opposite direction from the opposite end (P6) to the one end (P0) (step B20 → B21), the value SEn and the maximum value of the high frequency component obtained at that position Based on fmax, the evaluation values of the focusing target areas E1 to E3 are obtained, and the values are set in the evaluation table 57.

フォーカスレンズ22aがP0の位置に戻り、評価テーブル57に各位置P0〜P6に対応した評価値が各合焦対象エリアE1〜E3毎に得られると、制御部32は、この評価テーブル57にセットされた各評価値に基づいて合焦判定処理を行い(ステップB22)、その合焦判定処理によって決定された合焦位置にフォーカスレンズ22aを移動させる(ステップB23)。   When the focus lens 22a returns to the position P0 and evaluation values corresponding to the respective positions P0 to P6 are obtained in the evaluation table 57 for the respective focus target areas E1 to E3, the control unit 32 sets the evaluation table 57. A focus determination process is performed based on each evaluation value (step B22), and the focus lens 22a is moved to the focus position determined by the focus determination process (step B23).

ここで、合焦判定の方法として2通りの方法を説明する。   Here, two methods for focusing determination will be described.

(第1の方法)
図5は前記ステップB22で実行される合焦判定処理であって、第1の方法による合焦判定処理を示すフローチャートである。
(First method)
FIG. 5 is a flowchart showing the focus determination process executed in step B22 and the focus determination process according to the first method.

制御部32は、まず、評価テーブル57のP0の位置に対応した各合焦対象エリアE1〜E3の評価値を読み出し、これらの評価値を加算することにより、その合計値を求める(ステップC11)。例えば図11に示すように、P0の位置に対応した各合焦対象エリアE1〜E3の評価値が80、60、50とすると、合計値は190として求まる。また、他の位置P1〜P6についても同様にして各合焦対象エリアE1〜E3の評価値を加算することにより、その合計値を求める。   First, the control unit 32 reads the evaluation values of the focusing target areas E1 to E3 corresponding to the position P0 in the evaluation table 57, and obtains the total value by adding these evaluation values (step C11). . For example, as shown in FIG. 11, if the evaluation values of the focusing target areas E1 to E3 corresponding to the position of P0 are 80, 60, and 50, the total value is obtained as 190. Similarly, the other positions P1 to P6 are similarly calculated by adding the evaluation values of the focusing target areas E1 to E3.

このようにして、すべての位置P0〜P6について各評価値の合計値が得られると(ステップC12のYes)、制御部32は、これらの中から合計値が最も高いものを検出する(ステップC13)。そして、この検出した合計値が所定値以上であれば(ステップC14のYes)、制御部32は、各合焦対象エリアE1〜E3にピントがあったものと判断し、当該レンズ位置(合計値が最も高くなるレンズ位置)を合焦位置として決定する(ステップC15)。   Thus, when the total value of each evaluation value is obtained for all the positions P0 to P6 (Yes in Step C12), the control unit 32 detects the one having the highest total value from these (Step C13). ). If the detected total value is equal to or greater than the predetermined value (Yes in step C14), the control unit 32 determines that each focusing target area E1 to E3 is in focus, and determines the lens position (total value). Is determined as the in-focus position (step C15).

一方、前記検出した合計値が所定値より少なければ(ステップC14のNo)、制御部32は、各合焦対象エリアE1〜E3にピントが合わなかったものと判断し、パンフォーカスに切り替える(ステップC16)。パンフォーカスとは、「常焦点」あるいは「固定焦点」などとも呼ばれ、被写体の特定部分に焦点を合わせるのではなく、例えば2〜3mの場所に焦点を固定し、被写界深度を深くすることで近接距離から望遠距離までのすべての範囲にピントを合わせる状態を言う。   On the other hand, if the detected total value is less than the predetermined value (No in Step C14), the control unit 32 determines that the in-focus areas E1 to E3 are not in focus and switches to pan focus (Step S14). C16). Pan focus is also called “ordinary focus” or “fixed focus” and does not focus on a specific part of the subject, but fixes the focus at a place of 2 to 3 m, for example, to increase the depth of field. This means that the entire range from the close range to the telephoto range is in focus.

(第2の方法)
前記第1の方法では、すべての評価値を判定要素として用いたが、第2の方法では、所定値に満たない評価値は対象外として排除し、残りの評価値つまり所定値以上の各評価値から合焦位置を決定する。
(Second method)
In the first method, all evaluation values are used as determination elements. However, in the second method, evaluation values that are less than a predetermined value are excluded from the target, and the remaining evaluation values, that is, evaluations that are equal to or higher than the predetermined value are excluded. The focus position is determined from the value.

図6は前記ステップB22で実行される合焦判定処理であって、第2の方法による合焦判定処理を示すフローチャートである。   FIG. 6 is a flowchart showing the focus determination process executed in step B22 and the focus determination process by the second method.

制御部32は、まず、評価テーブル57のP0の位置に対応した各合焦対象エリアE1〜E3の評価値の中で所定値以上のものだけを選出し(ステップD11)、これらの評価値を加算することにより、その合計値を求める(ステップD12)。例えば所定値=50とした場合には、図11の例では、P0の位置に対応した各合焦対象エリアE1〜E3のうちのE3の評価値50を対象外とし、E1とE2の評価値だけで合計値を求めることになる。また、他の位置P1〜P6についても同様であり、それぞれに所定値以上の評価値だけを対象にして合計値を求める。   First, the control unit 32 selects only the evaluation values of the focus target areas E1 to E3 corresponding to the position P0 in the evaluation table 57 that are equal to or greater than a predetermined value (step D11), and uses these evaluation values. The sum is obtained by addition (step D12). For example, when the predetermined value = 50, in the example of FIG. 11, the evaluation value 50 of E3 out of the focus target areas E1 to E3 corresponding to the position P0 is excluded, and the evaluation values of E1 and E2 Only the total value is obtained. The same applies to the other positions P1 to P6, and the total value is obtained only for evaluation values equal to or greater than a predetermined value.

以降の処理は図5と同様である。すなわち、すべての位置P0〜P6について、各評価値の合計値が得られると(ステップD13のYes)、制御部32は、これらの中から合計値が最も高いものを検出する(ステップD14)。そして、この検出した合計値が所定値以上であれば(ステップD15のYes)、制御部32は、各合焦対象エリアE1〜E3にピントがあったものと判断し、当該レンズ位置(合計値が最も高くなるレンズ位置)を合焦位置として決定する(ステップD16)。   The subsequent processing is the same as in FIG. That is, when the total value of the evaluation values is obtained for all the positions P0 to P6 (Yes in Step D13), the control unit 32 detects the one having the highest total value (Step D14). If the detected total value is equal to or greater than the predetermined value (Yes in step D15), the control unit 32 determines that each focusing target area E1 to E3 is in focus, and the lens position (total value). Is determined as the in-focus position (step D16).

一方、前記検出した合計値が所定値より少なければ(ステップD15のNo)、制御部32は、各合焦対象エリアE1〜E3にピントが合わなかったものと判断し、パンフォーカスに切り替える(ステップD17)。   On the other hand, if the detected total value is less than the predetermined value (No in Step D15), the control unit 32 determines that the in-focus areas E1 to E3 are not in focus and switches to pan focus (Step S15). D17).

このように、最初から所定値に満たない評価値は排除しておき、残りの評価値つまり所定値以上の各評価値から合焦位置を決定することで、合焦精度を高めて、より適切な合焦位置を求めることができる。   In this way, evaluation values that are less than the predetermined value are excluded from the beginning, and the focusing position is determined from the remaining evaluation values, that is, evaluation values that are equal to or higher than the predetermined value, thereby improving the focusing accuracy and more appropriately. The in-focus position can be obtained.

(合焦表示処理)
次に、前記ステップA15にて実行される合焦表示処理について説明する。合焦表示処理とは、スルー画像の画面上でピントが合っている部分の画像や色を表示する処理のことを言う。
(Focus display processing)
Next, the focus display process executed in step A15 will be described. The in-focus display process refers to a process for displaying an image and color of a focused part on the through image screen.

図7はその合焦表示処理の流れを示すフローチャートである。   FIG. 7 is a flowchart showing the flow of the focus display process.

上述した自動合焦処理によってユーザが指定した複数の合焦対象エリアE1〜E3に対してピントが調整されると、その合焦対象エリアE1〜E3に表示されていたフォーカス枠51〜53の表示形態が変更されてフォーカスロックしたことが示される(ステップE11)。フォーカス枠51〜53の表示形態を変更するとは、例えば表示色や形状などを変更することである。なお、各合焦対象エリアE1〜E3にピントを合わせられず、パンフォーカスとなった場合には、ここでの合焦表示処理は行われない。   When the focus is adjusted for the plurality of focus target areas E1 to E3 designated by the user by the automatic focusing process described above, the focus frames 51 to 53 displayed in the focus target areas E1 to E3 are displayed. It is indicated that the focus has been changed by changing the form (step E11). Changing the display form of the focus frames 51 to 53 is, for example, changing the display color or shape. Note that when the focus target areas E1 to E3 cannot be focused and the pan focus is achieved, the focus display process here is not performed.

ここで、ユーザが例えばメニューキー16の操作により合焦画像表示指示を行うと(ステップE12のYes)、制御部32は、現在表示されているスルー画像50からフォーカス枠51〜53内の各画像をピントが合っている部分の画像(合焦画像と呼ぶ)として抽出する(ステップE13)。そして、制御部32は、図9に示すようなウインドウ画面54a〜54cを画面上の所定の位置に開き、そこに前記抽出した合焦画像55a〜55cをそれぞれ表示する(ステップE14)。この例では、被写体に向かって左側から「花」、「人物の顔」、「看板」の3カ所にピントが合っているので、これらの部分の画像が合焦画像55a〜55cとして表示されることになる。   Here, for example, when the user issues an in-focus image display instruction by operating the menu key 16 (Yes in Step E12), the control unit 32 starts from the currently displayed through image 50 to each image in the focus frames 51 to 53. Is extracted as an image of a portion in focus (referred to as a focused image) (step E13). And the control part 32 opens the window screens 54a-54c as shown in FIG. 9 in the predetermined position on a screen, and each displays the said focused images 55a-55c there (step E14). In this example, since “flower”, “person's face”, and “signboard” are in focus from the left toward the subject, images of these portions are displayed as focused images 55a to 55c. It will be.

なお、ウインドウ画面54a〜54cは、所定の操作に従って1画面ずつ順に開いても良いし、すべてを一度に開くようにしても良い。   The window screens 54a to 54c may be opened one by one in order according to a predetermined operation, or all may be opened at once.

また、合焦画像55a〜55cの表示方法としては、その合焦画像55a〜55cの全体を表示しても良いし、中心を含む一部だけを表示することでも良い。また、その際に所定サイズに拡大して表示するようにしても良い。   Moreover, as a display method of the focused images 55a to 55c, the entire focused images 55a to 55c may be displayed, or only a part including the center may be displayed. At that time, the image may be enlarged and displayed in a predetermined size.

一方、ユーザが例えばメニューキー16の操作により色表示指示を行うと(ステップE15のYes)、制御部32は、現在表示されているスルー画像50からフォーカス枠51〜53内の画像の中心部1ドットの色のデータをピントが合っている部分の色として抽出する(ステップE16)。そして、制御部32は、図9に示すようなウインドウ画面54a〜54cを画面上の所定の位置に開き、そこに前記検出した色データに基づいて色マーク56a〜56cを表示する(ステップE17)。この例では、「花」、「人物の顔」、「看板」の3カ所にピントが合っているので、それぞれに対応した色マーク56a〜56cが表示されることになる。   On the other hand, when the user gives a color display instruction, for example, by operating the menu key 16 (Yes in step E15), the control unit 32 starts from the currently displayed through image 50 to the center portion 1 of the image within the focus frames 51 to 53. The dot color data is extracted as the color of the in-focus portion (step E16). Then, the control unit 32 opens the window screens 54a to 54c as shown in FIG. 9 at predetermined positions on the screen, and displays the color marks 56a to 56c there based on the detected color data (step E17). . In this example, since “flower”, “person's face”, and “signboard” are in focus, the corresponding color marks 56a to 56c are displayed.

なお、この色マーク56a〜56cの形状やサイズは任意設定であり、例えば矩形や円形などの各種形状からユーザが任意に選ぶことができ、また、そのマークサイズで任意に変更可能であるとする。   The shapes and sizes of the color marks 56a to 56c are arbitrarily set, and can be arbitrarily selected by the user from various shapes such as a rectangle and a circle, and can be arbitrarily changed according to the mark size. .

また、図9の例では、合焦画像55a〜55cと色マーク56a〜56cが同じウインドウ画面54a〜54c内に表示されているが、これらを別々のウインドウ画面で表示するようにしても良い。   In the example of FIG. 9, the focused images 55a to 55c and the color marks 56a to 56c are displayed in the same window screens 54a to 54c. However, they may be displayed on separate window screens.

このような合焦画像55a〜55cや色マーク56a〜56cは、例えばメニューキー16の操作により表示解除を明示的に指示するか、あるいは、シャッタキー9から指を離してフォーカスロックを解除するまでの間、表示される。   Such in-focus images 55a to 55c and color marks 56a to 56c are, for example, explicitly instructed to cancel the display by operating the menu key 16, or until the focus lock is released by releasing the finger from the shutter key 9. Is displayed during

このように、第1の実施形態によれば、画面上の任意の複数の部分を合焦対象エリアとして指定することができ、これらの指定箇所にピントを合わせた静止画を誰でも簡単に得ることができる。   As described above, according to the first embodiment, any plurality of portions on the screen can be designated as the in-focus target area, and anyone can easily obtain a still image in which these designated portions are in focus. be able to.

また、所定の操作によりピントを合わせた部分の画像や色を表示することができる。これにより、ユーザは被写体のどこにピントを合わせているのかをより正確に把握して撮影を行うことができる。   In addition, it is possible to display an image and color of a portion focused by a predetermined operation. Thus, the user can take a picture while accurately grasping where the subject is in focus.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

前記第1の実施形態では、ユーザが画面上の任意の複数の部分を合焦対象エリアとして指定するものとしたが、第2の実施形態では、ユーザが任意の色を指定することにより、その指定した色の部分にピントを合わせることを特徴とする。   In the first embodiment, the user designates an arbitrary plurality of portions on the screen as the focus target area. However, in the second embodiment, when the user designates an arbitrary color, It is characterized by focusing on the specified color part.

なお、デジタルカメラ1としての外観構成や回路構成について前記第1の実施形態と同様であるため、ここでは処理的に違う点について説明する。   Note that the external configuration and circuit configuration of the digital camera 1 are the same as those in the first embodiment, and therefore, differences in processing will be described here.

図12は本発明の第2の実施形態におけるデジタルカメラ1の撮影時の処理動作を示すフローチャートである。   FIG. 12 is a flowchart showing a processing operation at the time of photographing by the digital camera 1 in the second embodiment of the present invention.

電源投入後、このデジタルカメラ1に設けられた撮影モードキー10の操作により静止画の撮影モードを設定すると、被写体の画像がレンズ光学系22およびCCD23を通じて取り込まれ、所定のカラープロセス処理を経た後、スルー画像として表示部19の画面上に表示される(ステップF11)。   When the still image shooting mode is set by operating the shooting mode key 10 provided in the digital camera 1 after the power is turned on, the image of the subject is captured through the lens optical system 22 and the CCD 23, and after undergoing a predetermined color process. The through image is displayed on the screen of the display unit 19 (step F11).

ここで、例えばメニューキー16の操作により色指定モードを指示すると(ステップF12のYes)、制御部32(CPU32a)は、図14に示すような色指定ウインドウ61を表示する(ステップF12)。   Here, for example, when the color designation mode is instructed by operating the menu key 16 (Yes in Step F12), the control unit 32 (CPU 32a) displays a color designation window 61 as shown in FIG. 14 (Step F12).

この色指定ウインドウ61には、多数の色サンプル62a,62b,62c…が設けられている。ユーザは、これらの色サンプル62a,62b,62c…の中からピントを合わせたい色に対応したサンプルを選択する。なお、色サンプルの選択方法としては、例えば表示部19の画面上に透明のタッチパネルを搭載していれば、画面上に指やペンで所望の色サンプルが表示された箇所を直接タッチして選択する方法や、カーソールキーの操作により選択するなどの方法がある。   The color designation window 61 is provided with a number of color samples 62a, 62b, 62c. The user selects a sample corresponding to the color to be focused from among these color samples 62a, 62b, 62c. As a method for selecting a color sample, for example, if a transparent touch panel is mounted on the screen of the display unit 19, the portion where the desired color sample is displayed on the screen with a finger or a pen is directly touched for selection. And a method of selecting by operating a cursor key.

また、色指定ウインドウ61としては、図14のような構成に限らず、例えば色データを構成するR,G,Bの数値を入力するような構成であっても良い。   Further, the color designation window 61 is not limited to the configuration shown in FIG. 14, but may be configured to input R, G, and B numerical values constituting color data, for example.

このような色指定ウインドウ61の表示により、ピントを合わせたい色が指定されると、制御部32は、その指定された色のデータをRAM32cの所定の領域に記憶した後(ステップF14)、現在スルー画像として表示されている画像データの中から前記色データを有する画像ブロックを検出する(ステップF15)。   When the color to be focused is designated by the display of the color designation window 61 as described above, the control unit 32 stores the data of the designated color in a predetermined area of the RAM 32c (step F14), and then presents the current color. An image block having the color data is detected from the image data displayed as a through image (step F15).

詳しくは、例えば色データとしてRGBデータを例にすると、R,G,Bの各色要素の数値が指定色の範囲内にあるドット(例えば指定色に対してR±10,G±10,B±10の範囲内にあるドット)を所定数以上含んだ画像ブロックを検出する。   Specifically, for example, when RGB data is taken as an example of color data, dots whose numerical values of R, G, and B are within the specified color range (for example, R ± 10, G ± 10, B ± for the specified color). An image block including a predetermined number or more of dots within the range of 10 is detected.

前記画像ブロックとは、図15に示すように、画像データの全領域を例えば8×8画素に分割した場合の1つの単位を言う。この画像ブロックの中に指定色の範囲内にあるドット(画素)が所定数以上あれば合焦対象エリアとする。図中の例では、斜線で示す部分が該当するドットの集まりを示しており、太線で囲んだ画像ブロックが合焦対象エリアとして検出される。   As shown in FIG. 15, the image block is one unit when the entire area of the image data is divided into, for example, 8 × 8 pixels. If this image block has a predetermined number or more of dots (pixels) within the range of the designated color, it is set as a focus target area. In the example in the figure, the hatched portion indicates the corresponding dot collection, and the image block surrounded by the thick line is detected as the focus target area.

このようにして、指定された色データを有する画像ブロックが検出されると、制御部32は、この検出した画像ブロックを合焦対象エリアとして設定し、画面上の対応する部分にその旨の表示を行う(ステップF16)。この場合、該当する画像ブロックが複数存在すれば、これらを合焦対象エリアとして設定し、その旨の表示を行う。具体的には、図16に示すように、スルー画像70として表示されている画像データの中で合焦対象エリアとして検出された部分、つまり、ユーザが指定した色を有する部分にフォーカス枠71〜73を表示する。   When an image block having the designated color data is detected in this way, the control unit 32 sets the detected image block as a focusing target area, and displays that effect on the corresponding part on the screen. Is performed (step F16). In this case, if there are a plurality of corresponding image blocks, these are set as the focusing target area, and a display to that effect is displayed. Specifically, as shown in FIG. 16, focus frames 71 to 71 are provided on a portion detected as a focus target area in the image data displayed as the through image 70, that is, a portion having a color designated by the user. 73 is displayed.

このようなフォーカス枠71〜73の表示により、ユーザは色指定によってピントを合わせた部分を知ることができる。図16の例では、例えば「肌色」の指定により、被写体に向かって左側から人物の「右手」、「顔」、「左手」の各部分にフォーカス枠71〜73がそれぞれ表示されており、これらの部分にピントを合わせたことが分かる。   With such display of the focus frames 71 to 73, the user can know the portion focused by color designation. In the example of FIG. 16, for example, by specifying “skin color”, focus frames 71 to 73 are respectively displayed on the “right hand”, “face”, and “left hand” of the person from the left side toward the subject. You can see that the focus is on the part of.

ところで、ユーザが指定した色の部分にピントを自動的に合わせる方法では、必ずしもユーザが意図している部分にピントが合うとは限らない。例えば、ある人物の顔部分にピントを合わせるべく、「肌色」を指定したとしても、別の人が近くにいると、その別の人の顔部分を含めてピントが調整されてしまうことになる。   By the way, in the method of automatically focusing on the color portion designated by the user, the portion intended by the user is not necessarily focused. For example, even if you specify "skin color" to focus on a person's face, if another person is nearby, the focus will be adjusted including that person's face. .

そこで、このような問題を回避するため、前記ステップF16で合焦対象エリアを表示した後に、制御部32は、ユーザの指示に従って合焦対象エリアを変更するための処理を実行する(ステップF17)。   Therefore, in order to avoid such a problem, after the focus target area is displayed in step F16, the control unit 32 executes a process for changing the focus target area in accordance with a user instruction (step F17). .

図13にその合焦対象変更処理のフローチャートを示す。   FIG. 13 shows a flowchart of the focusing object changing process.

すなわち、例えば画面上でユーザが合焦対象エリアから削除したい部分をタッチするなどの所定の操作により削除指示を行うと(ステップG11のYes)、制御部32は、その指定された部分に対応した画像ブロックを検索することにより、その画像ブロックを合焦対象エリアから削除する(ステップG12)。詳しくは、合焦対象エリアを管理する図示せぬ管理テーブルから当該画像ブロックを削除するといった処理を行う。これにより、その削除された画像ブロックに表示されていたフォーカス枠も消える。   That is, for example, when the user issues a deletion instruction by a predetermined operation such as touching a portion to be deleted from the focus target area on the screen (Yes in step G11), the control unit 32 corresponds to the specified portion. By searching for an image block, the image block is deleted from the focusing target area (step G12). Specifically, a process of deleting the image block from a management table (not shown) that manages the focus target area is performed. As a result, the focus frame displayed in the deleted image block also disappears.

また、例えば画面上でユーザが合焦対象エリアとして追加したい部分をタッチするなどの所定の操作により追加指示を行うと(ステップG13のYes)、制御部32は、その指定された部分に対応した画像ブロックを検索し、その画像ブロックを合焦対象エリアに追加する(ステップG14)。詳しくは、合焦対象エリアを管理する図示せぬ管理テーブルから当該画像ブロックを追加するといった処理を行う。これにより、その追加された画像ブロックに対応した部分にフォーカス枠が追加表示される。   Further, for example, when the user gives an addition instruction by a predetermined operation such as touching a part to be added as a focus target area on the screen (Yes in step G13), the control unit 32 corresponds to the designated part. The image block is searched, and the image block is added to the focus target area (step G14). Specifically, processing such as adding the image block from a management table (not shown) that manages the focusing target area is performed. As a result, the focus frame is additionally displayed at the portion corresponding to the added image block.

以後の処理は前記第1の実施形態と同様である。   Subsequent processing is the same as in the first embodiment.

すなわち、ユーザがシャッタキー9の半押し操作により合焦指示を行うと(ステップF18のYes)、制御部32は、前記色指定によって設定された複数の合焦対象エリアに対するAF処理(自動合焦処理)を実行し(ステップF19)、続いて、AF処理によってピントを合わせた部分の画像や色を表示するための合焦表示処理を実行する(ステップF20)。   That is, when the user gives a focus instruction by half-pressing the shutter key 9 (Yes in Step F18), the control unit 32 performs AF processing (automatic focus) on a plurality of focus target areas set by the color designation. Process) (step F19), and subsequently, an in-focus display process for displaying the image and color of the portion focused by the AF process is executed (step F20).

ここで、ユーザがシャッタキー9の押下操作により撮影指示を行うと(ステップF21のYes)、制御部32は所定の撮影処理を実行することにより、現在表示されているスルー画像を静止画として取り込み、所定の方式で圧縮してメモリ38に記録する(ステップF22)。なお、撮影処理については、図2で詳しく説明してあるため、ここでは省略する。   Here, when the user gives a shooting instruction by depressing the shutter key 9 (Yes in Step F21), the control unit 32 executes a predetermined shooting process to capture the currently displayed through image as a still image. Then, it is compressed by a predetermined method and recorded in the memory 38 (step F22). The photographing process has been described in detail with reference to FIG.

また、前記ステップF19で実行されるAF処理については、図4〜図6と同様である。すなわち、フォーカスレンズ22aを移動させながら各レンズ位置で得られる高周波成分(コントラスト)を検出することにより、各合焦対象エリアに対応した評価値を求め、その評価値に基づいて合焦位置を決定するといった処理を行う。   Further, the AF process executed in step F19 is the same as that shown in FIGS. That is, by detecting a high frequency component (contrast) obtained at each lens position while moving the focus lens 22a, an evaluation value corresponding to each focus target area is obtained, and the focus position is determined based on the evaluation value. Process.

また、前記ステップF20で実行される合焦表示処理については、図7と同様である。すなわち、例えばメニューキー16の操作により合焦画像表示指示があると、現在表示されているスルー画像70の中からフォーカス枠71〜73内の各画像をピントが合っている部分の画像(合焦画像と呼ぶ)を抽出し、その抽出した各合焦画像をウインドウ表示する。   Further, the focus display process executed in step F20 is the same as that in FIG. That is, for example, when there is an in-focus image display instruction by operating the menu key 16, each of the images in the focus frames 71 to 73 from the currently displayed through image 70 is an in-focus image (in-focus). (Referred to as an image), and each of the extracted focused images is displayed in a window.

具体的には、図17に示すようなウインドウ画面74a〜74cを画面上の所定の位置に開き、そこに前記抽出した合焦画像75a〜75cをそれぞれ表示する。この例では、「肌色」の指定により、被写体に向かって左側から人物の「右手」、「顔」、「左手」の3カ所にピントが合っているので、これらの部分の画像が合焦画像75a〜75cとして表示されることになる。   Specifically, window screens 74a to 74c as shown in FIG. 17 are opened at predetermined positions on the screen, and the extracted focused images 75a to 75c are displayed there, respectively. In this example, by specifying “skin color”, the person's “right hand”, “face”, and “left hand” are in focus from the left side toward the subject, so the images of these portions are in-focus images. It will be displayed as 75a-75c.

なお、ウインドウ画面74a〜74cは、所定の操作に従って1画面ずつ順に開いても良いし、すべてを一度に開くようにしても良い。   The window screens 74a to 74c may be opened one by one in order according to a predetermined operation, or all may be opened at once.

また、合焦画像75a〜75cの表示方法としては、その合焦画像75a〜75cの全体を表示しても良いし、中心を含む一部だけを表示することでも良い。また、その際に所定サイズに拡大して表示するようにしても良い。   Moreover, as a display method of the focused images 75a to 75c, the entire focused images 75a to 75c may be displayed, or only a part including the center may be displayed. At that time, the image may be enlarged and displayed in a predetermined size.

一方、例えばメニューキー16の操作により色表示指示があると、現在表示されているスルー画像70からフォーカス枠71〜73内の各画像の中心部1ドットの色のデータをピントが合っている部分の色として検出し、これらの色をウインドウ表示する。   On the other hand, for example, when there is a color display instruction by operating the menu key 16, a portion where the color data of one dot center of each image in the focus frames 71 to 73 is in focus from the currently displayed through image 70 is in focus. These colors are detected and displayed in a window.

具体的には、図17に示すようなウインドウ画面74a〜74cを画面上の所定の位置に開き、そこに前記検出した色データに基づいて色マーク76a〜76cを表示する。この例では、「肌色」の指定によって人物の「右手」、「顔」、「左手」の3カ所にピントが合っているので、それぞれに対応した色マーク76a〜76cとしては「肌色」が表示されることになる。   Specifically, window screens 74a to 74c as shown in FIG. 17 are opened at predetermined positions on the screen, and color marks 76a to 76c are displayed there based on the detected color data. In this example, since the “right hand”, “face”, and “left hand” of the person are in focus by designating “skin color”, “skin color” is displayed as the color marks 76a to 76c corresponding to each. Will be.

なお、この色マーク76a〜76cの形状やサイズは任意設定であり、例えば矩形や円形などの各種形状からユーザが任意に選ぶことができ、また、そのマークサイズで任意に変更可能であるとする。   The shapes and sizes of the color marks 76a to 76c are arbitrarily set, and can be arbitrarily selected by the user from various shapes such as a rectangle and a circle, and can be arbitrarily changed according to the mark size. .

また、図17の例では、合焦画像75a〜75cと色マーク76a〜76cが同じウインドウ画面74a〜74c内に表示されているが、これらを別々のウインドウ画面で表示するようにしても良い。   In the example of FIG. 17, the focused images 75a to 75c and the color marks 76a to 76c are displayed in the same window screens 74a to 74c. However, they may be displayed on separate window screens.

このような合焦画像75a〜75cや色マーク76a〜76cは、例えばメニューキー16の操作により表示解除を明示的に指示するか、あるいは、シャッタキー9から指を離してフォーカスロックを解除するまでの間、表示される。   Such in-focus images 75a to 75c and color marks 76a to 76c are explicitly instructed to cancel display by, for example, operating the menu key 16, or until the focus lock is released by releasing the finger from the shutter key 9. Is displayed during

このように、第2の実施形態によれば、色を指定することにより、その指定した色にピントを合わせることができる。この場合、指定した色を有する部分でも、ユーザの意図していない部分であれば、それを削除したり、あるいは、別の部分を追加することで、ユーザの望む部分に正確にピントを合わせて撮影を行うことができる。   As described above, according to the second embodiment, by designating a color, it is possible to focus on the designated color. In this case, even if the part has the specified color, if the part is not intended by the user, it can be deleted or another part added to focus on the part desired by the user. Shooting can be performed.

また、所定の操作によりピントを合わせた部分の画像や色を表示することで、ユーザは被写体のどこにピントを合わせているのかをより正確に把握して撮影を行うことができる。   Further, by displaying the image and color of the portion that has been focused by a predetermined operation, the user can more accurately grasp where the subject is focused and perform shooting.

なお、前記実施形態では、デジタルカメラを例にして説明したが、本発明はこれに限らず、例えば静止画撮影可能なデジタルムービカメラや、カメラ付きの携帯電話機など、画面上にスルー画像を表示しながら静止画を撮影可能な機能を備えた電子機器であれば、その全てに適用可能である。   In the above embodiment, the digital camera has been described as an example. However, the present invention is not limited to this, and a through image is displayed on a screen such as a digital movie camera capable of taking a still image or a mobile phone with a camera. However, the present invention can be applied to all electronic devices provided with a function capable of shooting a still image.

その他、本発明は前記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   In addition, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the respective embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

また、上述した各実施形態において記載した手法は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、そのプログラム自体をネットワーク等の伝送媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、記録媒体に記録されたプログラムあるいは伝送媒体を介して提供されたプログラムを読み込み、このプログラムによって動作が制御されることにより、上述した処理を実行する。   In addition, the methods described in each of the above-described embodiments are, as programs that can be executed by a computer, for example, a recording medium such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), and a semiconductor memory. The program itself can be applied to various apparatuses, or the program itself can be transmitted through a transmission medium such as a network to be applied to various apparatuses. A computer that implements this apparatus reads a program recorded on a recording medium or a program provided via a transmission medium, and performs the above-described processing by controlling the operation by this program.

本発明の第1の実施形態に係る撮像装置としてデジタルカメラを例にした場合の外観構成を示す図であり、図1(a)は主に前面の構成、同図(b)は主に背面の構成を示す斜視図。FIGS. 1A and 1B are diagrams illustrating an external configuration when a digital camera is taken as an example of an imaging apparatus according to a first embodiment of the present invention, in which FIG. 1A is mainly a front configuration, and FIG. FIG. 同実施形態におけるデジタルカメラの電子回路構成を示すブロック図。FIG. 2 is a block diagram showing an electronic circuit configuration of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの撮影時の処理動作を示すフローチャート。6 is a flowchart showing processing operations at the time of shooting by the digital camera in the embodiment. 同実施形態におけるデジタルカメラの自動合焦処理全体の流れを示すフローチャート。6 is a flowchart showing the flow of the entire automatic focusing process of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの合焦判定処理であって、第1の方法による合焦判定処理を示すフローチャートである。It is a flowchart which shows the focus determination process by the 1st method, which is the focus determination process of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの合焦判定処理であって、第2の方法による合焦判定処理を示すフローチャートである。It is a flowchart which shows the focus determination process by the 2nd method which is a focus determination process of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの合焦表示処理の流れを示すフローチャート。6 is a flowchart showing a flow of focus display processing of the digital camera in the embodiment. 同実施形態におけるデジタルカメラのスルー画像表示画面の一例を示す図であり、複数の箇所を合焦対象エリアとして指定した場合の図。It is a figure which shows an example of the through image display screen of the digital camera in the embodiment, and is a figure when a plurality of places are designated as the focus target area. 同実施形態におけるデジタルカメラのピントを合わせた部分の画像と色を表示するためのウインドウ画面の一例を示す図。The figure which shows an example of the window screen for displaying the image and color of the part which adjusted the focus of the digital camera in the embodiment. 同実施形態におけるデジタルカメラに用いられるコントラスト検出方式を説明するための図。The figure for demonstrating the contrast detection system used for the digital camera in the embodiment. 同実施形態におけるデジタルカメラに備えられる評価テーブルの構成を示す図。The figure which shows the structure of the evaluation table with which the digital camera in the embodiment is equipped. 本発明の第2の実施形態におけるデジタルカメラの撮影時の処理動作を示すフローチャート。9 is a flowchart showing processing operations at the time of photographing by a digital camera according to the second embodiment of the present invention. 同実施形態におけるデジタルカメラの合焦対象変更処理を示すフローチャート。6 is a flowchart showing focusing target change processing of the digital camera in the embodiment. 同実施形態におけるデジタルカメラの色指定時に表示される色指定ウインドウの一例を示す図。FIG. 5 is a diagram showing an example of a color designation window displayed when color designation is performed on the digital camera according to the embodiment. 同実施形態におけるデジタルカメラの色指定された画像ブロックの検出方法を説明するための図。FIG. 4 is a diagram for explaining a method for detecting a color-designated image block of the digital camera according to the embodiment. 同実施形態におけるデジタルカメラのスルー画像表示画面の一例を示す図であり、色指定によりピントを合わせた場合の図。It is a figure which shows an example of the through image display screen of the digital camera in the embodiment, and is a view when focusing is performed by color designation. 同実施形態におけるデジタルカメラのピントを合わせた部分の画像と色を表示するためのウインドウ画面の一例を示す図。The figure which shows an example of the window screen for displaying the image and color of the part which adjusted the focus of the digital camera in the embodiment.

符号の説明Explanation of symbols

1…デジタルカメラ、2…ボディ、3…撮影レンズ、4…セルフタイマランプ、5…光学ファインダ窓、6…ストロボ発光部、7…マイクロホン部、8…電源キー、9…シャッタキー、10…撮影モードキー、11…再生モードキー、12…光学ファインダ、13…スピーカ部、14…マクロキー、15…ストロボキー、16…メニュー(MENU)キー、17…リングキー、18…セット(SET)キー、19…表示部、21…モータ、22…レンズ光学系、23…CCD、24…タイミング発生器(TG)、25…ドライバ、26…サンプルホールド回路(S/H)、27…A/D変換器、28…カラープロセス回路、29…DMAコントローラ、30…DRAMインタフェース(I/F)、31…DRAM、32…制御部、33…VRAMコントローラ、34…VRAM、35…デジタルビデオエンコーダ、36…キー入力部、37…画像処理部、38…メモリ、39…音声処理部、40…USBインタフェース(I/F)、42…移動検出部、50…スルー画像、51〜53…フォーカス枠、54a〜54c…ウインドウ画面、55a〜55c…合焦画像、56a〜56c…色マーク、57…評価テーブル、61…色指定ウインドウ、62a,62b,62c…色サンプル、71〜73…フォーカス枠、74a〜74c…ウインドウ画面、75a〜75c…合焦画像、76a〜76c…色マーク。   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 2 ... Body, 3 ... Shooting lens, 4 ... Self-timer lamp, 5 ... Optical finder window, 6 ... Strobe light emission part, 7 ... Microphone part, 8 ... Power key, 9 ... Shutter key, 10 ... Photographing Mode key, 11 ... Playback mode key, 12 ... Optical viewfinder, 13 ... Speaker unit, 14 ... Macro key, 15 ... Strobe key, 16 ... Menu (MENU) key, 17 ... Ring key, 18 ... Set key, DESCRIPTION OF SYMBOLS 19 ... Display part, 21 ... Motor, 22 ... Lens optical system, 23 ... CCD, 24 ... Timing generator (TG), 25 ... Driver, 26 ... Sample hold circuit (S / H), 27 ... A / D converter 28 ... Color process circuit, 29 ... DMA controller, 30 ... DRAM interface (I / F), 31 ... DRAM, 32 ... Control unit, 33 ... VR M controller, 34 ... VRAM, 35 ... digital video encoder, 36 ... key input unit, 37 ... image processing unit, 38 ... memory, 39 ... audio processing unit, 40 ... USB interface (I / F), 42 ... movement detection unit 50 ... Through image, 51-53 ... Focus frame, 54a-54c ... Window screen, 55a-55c ... Focus image, 56a-56c ... Color mark, 57 ... Evaluation table, 61 ... Color designation window, 62a, 62b, 62c ... color sample, 71-73 ... focus frame, 74a-74c ... window screen, 75a-75c ... focused image, 76a-76c ... color mark.

Claims (12)

被写体を撮像する撮像手段と、
この撮影手段によって得られた被写体の画像データをスルー画像として表示する表示手段と、
この表示手段によって表示されたスルー画像の中の任意の複数の部分を合焦対象エリアとして指定する指定手段と、
この指定手段によって指定された複数の合焦対象エリアに対応した画像データに基づいて合焦評価値を算出する評価値算出手段と、
この評価値算出手段によって算出された合焦評価値に基づいて前記各合焦対象エリアにピントを合わせる制御手段と
を具備したことを特徴とする撮像装置。
Imaging means for imaging a subject;
Display means for displaying the image data of the subject obtained by the photographing means as a through image;
Designating means for designating an arbitrary plurality of portions in the through image displayed by the display means as an in-focus target area;
Evaluation value calculating means for calculating a focus evaluation value based on image data corresponding to a plurality of focus target areas specified by the specifying means;
An imaging apparatus comprising: control means for focusing on each focus target area based on the focus evaluation value calculated by the evaluation value calculation means.
前記制御手段は、前記各合焦対象エリアにピントが合わない場合にはパンフォーカスに切り替えることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit switches to pan focus when the focus target areas are not in focus. 前記スルー画像からピントが合っている部分の色を検出する色検出手段と、
この色検出手段によって検出された色を所定の形式で表示する色表示手段と
を具備したことを特徴とする請求項1記載の撮像装置。
Color detection means for detecting the color of the in-focus portion from the through image;
The image pickup apparatus according to claim 1, further comprising color display means for displaying the color detected by the color detection means in a predetermined format.
前記スルー画像からピントが合っている部分の画像を抽出する画像抽出手段と、
この画像抽出手段によって抽出された画像を所定の形式で表示する画像表示手段と
を具備したことを特徴とする請求項1記載の撮像装置。
Image extracting means for extracting an image of a portion in focus from the through image;
The imaging apparatus according to claim 1, further comprising: an image display unit that displays the image extracted by the image extraction unit in a predetermined format.
被写体を撮像する撮像手段と、
この撮影手段によって得られた被写体の画像データをスルー画像として表示する表示手段と、
任意の色を指定する指定手段と、
前記表示手段によって表示されたスルー画像の中で前記指定手段によって指定された色を有する部分を検出し、該当する部分を合焦対象エリアとして設定する合焦対象設定手段と、
この合焦対象設定手段によって設定された合焦対象エリアにピントを合わせる制御手段と
を具備したことを特徴とする撮像装置。
Imaging means for imaging a subject;
Display means for displaying the image data of the subject obtained by the photographing means as a through image;
A designation means for designating an arbitrary color;
A focus target setting means for detecting a portion having a color designated by the designation means in the through image displayed by the display means, and setting the corresponding portion as a focus target area;
An imaging apparatus comprising: control means for focusing on a focus target area set by the focus target setting means.
前記合焦対象設定手段によって設定された合焦対象エリアを削除するか、あるいは、他の部分を合焦対象エリアとして追加する合焦対象変更手段を具備したことを特徴とする請求項5記載の撮像装置。   6. The focus target changing means for deleting the focus target area set by the focus target setting means or adding another part as the focus target area. Imaging device. 前記スルー画像からピントが合っている部分の色を検出する色検出手段と、
この色検出手段によって検出された色を所定の形式で表示する色表示手段と
を具備したことを特徴とする請求項5記載の撮像装置。
Color detection means for detecting the color of the in-focus portion from the through image;
6. The imaging apparatus according to claim 5, further comprising color display means for displaying the color detected by the color detection means in a predetermined format.
前記スルー画像からピントが合っている部分の画像を抽出する画像抽出手段と、
この画像抽出手段によって抽出された画像を所定の形式で表示する画像表示手段と
を具備したことを特徴とする請求項5記載の撮像装置。
Image extracting means for extracting an image of a portion in focus from the through image;
6. The imaging apparatus according to claim 5, further comprising: an image display unit that displays an image extracted by the image extraction unit in a predetermined format.
被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置に用いられる合焦処理方法であって、
前記表示部に表示されたスルー画像の中の任意の複数の部分を合焦対象エリアとして指定するステップと、
この指定された複数の合焦対象エリアに対応した画像データに基づいて合焦評価値を算出するステップと、
この算出された合焦評価値に基づいて前記各合焦対象エリアにピントを合わせるステップと
を備えたことを特徴とする合焦処理方法。
A focusing processing method used in an imaging device including an imaging device that images a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image,
Designating any plurality of portions in the through image displayed on the display unit as an in-focus target area;
Calculating a focus evaluation value based on image data corresponding to the plurality of designated focus target areas;
And a step of focusing on each focus target area based on the calculated focus evaluation value.
被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置に用いられる合焦処理方法であって、
任意の色を指定するステップと、
前記表示部に表示されたスルー画像の中で前記指定された色を有する部分を検出し、該当する部分を合焦対象エリアとして設定するステップと、
この設定された合焦対象エリアにピントを合わせるステップと
を備えたことを特徴とする合焦処理方法。
A focusing processing method used in an imaging device including an imaging device that images a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image,
A step of specifying an arbitrary color;
Detecting a portion having the specified color in the through image displayed on the display unit, and setting the corresponding portion as a focusing target area;
And a step of focusing on the set focus target area.
被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置を制御するコンピュータに用いられるプログラムであって、
前記コンピュータに、
前記表示部に表示されたスルー画像の中の任意の複数の部分を合焦対象エリアとして指定する機能と、
この指定された複数の合焦対象エリアに対応した画像データに基づいて合焦評価値を算出する機能と、
この算出された合焦評価値に基づいて前記各合焦対象エリアにピントを合わせる機能と
を実現させることを特徴とするプログラム。
A program used for a computer that controls an imaging device including an imaging device that images a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image,
In the computer,
A function of designating an arbitrary plurality of portions in the through image displayed on the display unit as a focus target area;
A function for calculating a focus evaluation value based on image data corresponding to the plurality of designated focus target areas;
A program that realizes a function of focusing on each focus target area based on the calculated focus evaluation value.
被写体を撮像する撮像素子と、この撮像素子によって得られる被写体の画像データをスルー画像として表示する表示部とを備えた撮像装置を制御するコンピュータに用いられるプログラムであって、
前記コンピュータに、
任意の色を指定する機能と、
前記表示部に表示されたスルー画像の中で前記指定された色を有する部分を検出し、該当する部分を合焦対象エリアとして設定する機能と、
この設定された合焦対象エリアにピントを合わせる機能と
を実現させることを特徴とするプログラム。
A program used for a computer that controls an imaging device including an imaging device that images a subject and a display unit that displays image data of the subject obtained by the imaging device as a through image,
In the computer,
The ability to specify any color,
A function of detecting a part having the designated color in the through image displayed on the display unit and setting the corresponding part as a focus target area;
A program characterized by realizing a function of focusing on the set focus target area.
JP2004277916A 2004-09-24 2004-09-24 Imaging apparatus, focusing processing method, and program Pending JP2006094202A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004277916A JP2006094202A (en) 2004-09-24 2004-09-24 Imaging apparatus, focusing processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004277916A JP2006094202A (en) 2004-09-24 2004-09-24 Imaging apparatus, focusing processing method, and program

Publications (1)

Publication Number Publication Date
JP2006094202A true JP2006094202A (en) 2006-04-06

Family

ID=36234740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004277916A Pending JP2006094202A (en) 2004-09-24 2004-09-24 Imaging apparatus, focusing processing method, and program

Country Status (1)

Country Link
JP (1) JP2006094202A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007311901A (en) * 2006-05-16 2007-11-29 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2008118387A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging device
JP2008259544A (en) * 2007-04-10 2008-10-30 Topcon Corp Slit lamp
JP2020021086A (en) * 2013-08-09 2020-02-06 武蔵エンジニアリング株式会社 Focus adjustment method and device therefor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04207767A (en) * 1990-11-30 1992-07-29 Sharp Corp Autofocusing device
JPH11142725A (en) * 1997-11-13 1999-05-28 Casio Comput Co Ltd Camera apparatus and autofocusing control method
JPH11196301A (en) * 1997-12-26 1999-07-21 Casio Comput Co Ltd Electronic camera device
JPH11239291A (en) * 1998-02-20 1999-08-31 Fuji Photo Film Co Ltd Image pickup controller and image pickup control method
JPH11327030A (en) * 1998-05-15 1999-11-26 Canon Inc Device and method for controlling camera and storage medium
JP2002318341A (en) * 2001-04-20 2002-10-31 Fuji Photo Film Co Ltd Device and method for automatic focusing
JP2004208028A (en) * 2002-12-25 2004-07-22 Minolta Co Ltd Imaging device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04207767A (en) * 1990-11-30 1992-07-29 Sharp Corp Autofocusing device
JPH11142725A (en) * 1997-11-13 1999-05-28 Casio Comput Co Ltd Camera apparatus and autofocusing control method
JPH11196301A (en) * 1997-12-26 1999-07-21 Casio Comput Co Ltd Electronic camera device
JPH11239291A (en) * 1998-02-20 1999-08-31 Fuji Photo Film Co Ltd Image pickup controller and image pickup control method
JPH11327030A (en) * 1998-05-15 1999-11-26 Canon Inc Device and method for controlling camera and storage medium
JP2002318341A (en) * 2001-04-20 2002-10-31 Fuji Photo Film Co Ltd Device and method for automatic focusing
JP2004208028A (en) * 2002-12-25 2004-07-22 Minolta Co Ltd Imaging device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007311901A (en) * 2006-05-16 2007-11-29 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2008118387A (en) * 2006-11-02 2008-05-22 Canon Inc Imaging device
JP2008259544A (en) * 2007-04-10 2008-10-30 Topcon Corp Slit lamp
JP2020021086A (en) * 2013-08-09 2020-02-06 武蔵エンジニアリング株式会社 Focus adjustment method and device therefor

Similar Documents

Publication Publication Date Title
JP4702401B2 (en) Camera, camera control program, and camera control method
JP4645685B2 (en) Camera, camera control program, and photographing method
US7154544B2 (en) Digital camera including a zoom button and/or a touch tablet useable for performing a zoom operation
JP4697606B2 (en) Imaging apparatus and focus control method
JP4967746B2 (en) Image reproduction apparatus and program
JPH10228483A (en) Information processor
JP4259339B2 (en) Imaging apparatus, imaging condition setting method and program
JP4742296B2 (en) Imaging apparatus, composite image creation method, and program
JP4570171B2 (en) Information processing apparatus and recording medium
JP2006339784A (en) Imaging apparatus, image processing method, and program
JP2006094202A (en) Imaging apparatus, focusing processing method, and program
JP3918228B2 (en) Information processing apparatus and recording medium
JP4345515B2 (en) Imaging apparatus and program
JP4360395B2 (en) Information processing device
JP4671989B2 (en) camera
JP2006094200A (en) Imaging apparatus, focusing display method, and program
JP2005347885A (en) Imaging unit, photographing range adjustment method, and program
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
JP2011050107A (en) Camera, camera control program, and imaging method
JP5115523B2 (en) Imaging apparatus, imaging range adjustment method, and program
JP4571111B2 (en) Information processing apparatus and recording medium
JP4310711B2 (en) Information processing apparatus and recording medium
JPH10224677A (en) Information processor and recording medium
JP2011107721A (en) Photographing device and focusing control method
JP2006237713A (en) Image pickup device, mark preparing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706