[go: up one dir, main page]

JP6851788B2 - Focus control device, control method and program of focus control device - Google Patents

Focus control device, control method and program of focus control device Download PDF

Info

Publication number
JP6851788B2
JP6851788B2 JP2016220533A JP2016220533A JP6851788B2 JP 6851788 B2 JP6851788 B2 JP 6851788B2 JP 2016220533 A JP2016220533 A JP 2016220533A JP 2016220533 A JP2016220533 A JP 2016220533A JP 6851788 B2 JP6851788 B2 JP 6851788B2
Authority
JP
Japan
Prior art keywords
focus
range
display
touch
target range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016220533A
Other languages
Japanese (ja)
Other versions
JP2018077424A (en
Inventor
知宏 太田
知宏 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016220533A priority Critical patent/JP6851788B2/en
Publication of JP2018077424A publication Critical patent/JP2018077424A/en
Application granted granted Critical
Publication of JP6851788B2 publication Critical patent/JP6851788B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、タッチセンサ等のポインティングデバイスを用いたフォーカス位置の指定に応じて、フォーカスに関する制御を行うための、フォーカス制御装置に関する。 The present invention relates to a focus control device for controlling focus according to a designation of a focus position using a pointing device such as a touch sensor.

従来、ファインダとポインティングデバイスが一体化したタッチパネルを備え、タッチ操作によってフォーカスポイントを選択可能なデジタルカメラが普及している。一方で、ファインダとは別のタッチセンサをポインティングデバイスとして備えた装置も知られている。特許文献1には、覗き込み型の表示部とタッチセンサとを併用した表示装置において、指の移動が検出された場合に、移動の状態に従ってAF(オートフォーカス)ターゲット枠の表示位置を移動させる技術が開示されている。また、特許文献2には、ビューファインダ画面上で指定された被写体にピントを合わせるカメラシステムにおいて、フォーカスポイントの移動可能範囲が制限されている場合に、その範囲をビューファインダに表示する技術が開示されている。 Conventionally, digital cameras equipped with a touch panel in which a finder and a pointing device are integrated and in which a focus point can be selected by touch operation have become widespread. On the other hand, a device equipped with a touch sensor other than the finder as a pointing device is also known. According to Patent Document 1, when the movement of a finger is detected in a display device using a peep-type display unit and a touch sensor, the display position of the AF (autofocus) target frame is moved according to the movement state. The technology is disclosed. Further, Patent Document 2 discloses a technique of displaying the movable range of the focus point on the viewfinder when the movable range of the focus point is limited in the camera system that focuses on the subject specified on the viewfinder screen. Has been done.

特開2012−203143号公報Japanese Unexamined Patent Publication No. 2012-203143 特開2002−365519号公報Japanese Unexamined Patent Publication No. 2002-365519

しかしながら、特許文献1の技術においては、指の動きに応じてAFターゲット枠の表示位置を移動させるため、俊敏な切り替えができなかったり、移動中にフォーカスが不安定になったりする可能性があった。また、特許文献2の技術においては、ビューファインダ画面が小さい場合に、フォーカスポイント可動範囲は狭い範囲となり、正確な位置をタッチするのが難しく、正確なAFポイント位置指定が難しいという問題があった。 However, in the technique of Patent Document 1, since the display position of the AF target frame is moved according to the movement of the finger, there is a possibility that agile switching may not be possible or the focus may become unstable during the movement. It was. Further, in the technique of Patent Document 2, when the viewfinder screen is small, the focus point movable range becomes a narrow range, it is difficult to touch an accurate position, and it is difficult to specify an accurate AF point position. ..

本発明はこのような問題点に鑑みなされたもので、ユーザが希望するフォーカス位置を正確に特定することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to accurately specify a focus position desired by a user.

そこで、本発明は、フォーカス制御装置であって、撮影手段による撮影範囲の全体よりも狭い一部の範囲であるフォーカス対象範囲に含まれる被写体を基準として、フォーカスに関する制御を行うフォーカス制御手段と、タッチ検知面に対するタッチ操作を検知するタッチ検知手段と、前記タッチ検知面の所定の範囲内における、前記タッチ操作が行われたタッチ位置を、前記所定の範囲とタッチ位置の位置関係に対応した、フォーカス対象範囲における位置に変換する位置変換手段と、コントラストAF方式に設定されている場合には、前記撮影範囲の全体よりも狭い一部の範囲である第1の範囲を前記フォーカス対象範囲として設定し、位相差AF方式に設定されている場合に、前記第1の範囲よりも狭い第2の範囲を前記フォーカス対象範囲として設定する範囲設定手段とを有し、前記位置変換手段は、前記フォーカス対象範囲において、前記タッチ検知面の同じ位置にタッチ操作がされても、前記位相差AF方式に設定された場合の方が前記コントラストAF方式に設定された場合よりも前記撮影範囲のより中心に近い位置に変換し、前記フォーカス制御手段は、前記位置変換手段により得られた前記フォーカス対象範囲内の位置に基づいて、フォーカスに関する制御を行うことを特徴とする。 Therefore, the present invention is a focus control device, which is a focus control means for controlling the focus with reference to a subject included in a focus target range which is a part of a range narrower than the entire shooting range by the shooting means. The touch detection means for detecting the touch operation on the touch detection surface and the touch position where the touch operation is performed within a predetermined range of the touch detection surface correspond to the positional relationship between the predetermined range and the touch position. The position conversion means for converting to a position in the focus target range, and when the contrast AF method is set, the first range, which is a part narrower than the entire shooting range, is set as the focus target range. However, when the phase difference AF method is set, the position changing means has a range setting means for setting a second range narrower than the first range as the focus target range, and the position changing means has the focus. Even if a touch operation is performed at the same position on the touch detection surface in the target range, the case where the phase difference AF method is set is closer to the center of the shooting range than the case where the contrast AF method is set. The focus control means controls the focus based on the position within the focus target range obtained by the position conversion means.

本発明によれば、ユーザが希望するフォーカス位置を正確に特定することができる。 According to the present invention, the focus position desired by the user can be accurately specified.

デジタルカメラの外観図である。It is an external view of a digital camera. 操作リモコンの外観図である。It is an external view of the operation remote controller. デジタルカメラ及び操作リモコンの構成例を示すブロック図である。It is a block diagram which shows the configuration example of a digital camera and an operation remote controller. デジタルカメラによる制御処理を示すフローチャートである。It is a flowchart which shows the control process by a digital camera. 表示画面例を示す図である。It is a figure which shows the display screen example. 表示画面例を示す図である。It is a figure which shows the display screen example. 操作リモコンによる制御処理を示すフローチャートである。It is a flowchart which shows the control process by an operation remote controller. 表示画面例を示す図である。It is a figure which shows the display screen example. デジタルカメラによる制御処理を示すフローチャートである。It is a flowchart which shows the control process by a digital camera. 操作リモコンによる制御処理を示すフローチャートである。It is a flowchart which shows the control process by an operation remote controller. 表示画面例を示す図である。It is a figure which shows the display screen example.

以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
図1(a)、(b)は第1の実施形態に係るフォーカス制御装置の一例であるデジタルカメラ100の外観図である。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。図1において、表示部28は画像や各種情報を表示する表示部であり、本実施例では、アスペクト比を16対9とする。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。端子カバー40は外部機器との接続ケーブルとデジタルカメラ100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。
<First Embodiment>
1 (a) and 1 (b) are external views of a digital camera 100 which is an example of a focus control device according to a first embodiment. FIG. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100. In FIG. 1, the display unit 28 is a display unit that displays images and various information, and in this embodiment, the aspect ratio is 16: 9. The shutter button 61 is an operation unit for giving a shooting instruction. The mode changeover switch 60 is an operation unit for switching various modes. The terminal cover 40 is a cover that protects a connector (not shown) such as a connection cable for connecting a connection cable to an external device and the digital camera 100.

メイン電子ダイヤル71は図3に記載の操作部70に含まれる回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は操作部70に含まれ、操作部70に含まれる回転操作部材であり、選択枠の移動や画像送りなどを行える。十字キー74は操作部70に含まれ、上、下、左、右部分をそれぞれ押し込み可能な十字キーである。十字キー74の押した部分に応じた操作が可能である。 The main electronic dial 71 is a rotation operation member included in the operation unit 70 shown in FIG. 3, and by turning the main electronic dial 71, setting values such as a shutter speed and an aperture can be changed. The power switch 72 is an operating member that switches the power of the digital camera 100 on and off. The sub-electronic dial 73 is a rotation operation member included in the operation unit 70 and included in the operation unit 70, and can move the selection frame, feed an image, and the like. The cross key 74 is included in the operation unit 70, and is a cross key capable of pushing up, down, left, and right portions, respectively. The operation can be performed according to the pressed portion of the cross key 74.

SETボタン75は操作部70に含まれ、押しボタンであり、主に選択項目の決定などに用いられる。LVボタン76は操作部70に含まれ、静止画撮影モードにおいてライブビュー(以下、LV)のONとOFFを切り替えるボタンである。動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。拡大ボタン77は操作部70に含まれ、撮影モードのライブビュー表示において拡大モードのON、OFF及び拡大モード中の拡大率の変更を行うための操作ボタンである。再生モードにおいては再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。 The SET button 75 is included in the operation unit 70, is a push button, and is mainly used for determining a selection item or the like. The LV button 76 is included in the operation unit 70, and is a button for switching ON / OFF of the live view (hereinafter, LV) in the still image shooting mode. In the moving image shooting mode, it is used to instruct the start and stop of movie shooting (recording). The enlargement button 77 is included in the operation unit 70, and is an operation button for turning on / off the enlargement mode and changing the enlargement ratio during the enlargement mode in the live view display of the shooting mode. In the playback mode, it functions as an enlargement button for enlarging the reproduced image and increasing the enlargement ratio.

再生ボタン78は操作部70に含まれ、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン78を押下することで再生モードに移行し、記録媒体300に記録された画像のうち最新の画像を表示部28に表示させることができる。蓋202は記録媒体300を格納したスロットの蓋である。 The play button 78 is included in the operation unit 70, and is an operation button for switching between a shooting mode and a play mode. By pressing the playback button 78 during the shooting mode, the playback mode can be entered, and the latest image among the images recorded on the recording medium 300 can be displayed on the display unit 28. The lid 202 is a lid of a slot that stores the recording medium 300.

グリップ部90は、ユーザがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。クイックリターンミラー12は、図3に記載のシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。通信端子10はデジタルカメラ100がレンズ側(着脱可能)と通信を行う為の通信端子である。接眼ファインダ16はフォーカシングスクリーン13を観察することで、レンズユニット110を通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。 The grip portion 90 is a holding portion having a shape that makes it easy for the user to hold the digital camera 100 with his / her right hand. The quick return mirror 12 is instructed by the system control unit 50 shown in FIG. 3 and is moved up and down by an actuator (not shown). The communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens side (detachable). The eyepiece finder 16 is a peep-type finder for confirming the focus and composition of the optical image of the subject obtained through the lens unit 110 by observing the focusing screen 13.

図2は、操作リモコン200の外観図である。ユーザは、操作リモコン200において、デジタルカメラ100の撮影に関する設定や記録に関する操作が可能である。操作リモコン200は、デジタルカメラ100の端子カバー40内のコネクタ(不図示)と接続ケーブル191により接続可能である。デジタルカメラ100と操作リモコン200は接続ケーブル191により双方向のデータ通信が可能である。ただし、本実施形態においては、撮像画像をリアルタイムに送受信して操作リモコン200で表示するようなことは行っていない。本実施例においては、1フレーム(1/60秒)あたりに数100バイト通信可能なシリアル通信を、接続ケーブル191を介して行うことを前提とするが、通信方法や1フレームあたりの通信量は特に限定しない。また、接続ケーブル191とその通信は無線通信に代替可能である。 FIG. 2 is an external view of the operation remote controller 200. The user can perform operations related to shooting settings and recording of the digital camera 100 on the operation remote controller 200. The operation remote controller 200 can be connected to a connector (not shown) in the terminal cover 40 of the digital camera 100 by a connection cable 191. The digital camera 100 and the operation remote controller 200 can perform bidirectional data communication by the connection cable 191. However, in the present embodiment, the captured image is transmitted and received in real time and displayed by the operation remote controller 200. In this embodiment, it is premised that serial communication capable of communicating several hundred bytes per frame (1/60 second) is performed via the connection cable 191. However, the communication method and the amount of communication per frame are different. Not particularly limited. Further, the connection cable 191 and its communication can be replaced with wireless communication.

電源スイッチ172は操作リモコン200の電源のON及びOFFを切り替える操作部材である。表示部128は設定情報や記録状態を表示する表示部である。なお、表示部128は、デジタルカメラ100の表示部28とは異なり、撮像画像の表示は行わない。また、本実施例では、表示部128のアスペクト比を16対9とする。操作ボタン171は、操作リモコン200の上下に6つあり、表示部128に表示される内容によって、各操作ボタン171に対応する機能が変わり、図3に記載の操作部170に含まれる。十字キー174は操作部170に含まれ、上、下、左、右部分をそれぞれ押し込み可能な十字キーである。十字キー174の押した部分に応じた操作が可能である。 The power switch 172 is an operating member that switches the power of the operating remote controller 200 on and off. The display unit 128 is a display unit that displays setting information and a recording state. The display unit 128 does not display the captured image, unlike the display unit 28 of the digital camera 100. Further, in this embodiment, the aspect ratio of the display unit 128 is 16: 9. There are six operation buttons 171 above and below the operation remote controller 200, and the functions corresponding to each operation button 171 change depending on the content displayed on the display unit 128, and are included in the operation unit 170 shown in FIG. The cross key 174 is included in the operation unit 170, and is a cross key capable of pushing up, down, left, and right portions, respectively. The operation can be performed according to the pressed portion of the cross key 174.

SETボタン175は操作部170に含まれ、押しボタンであり、主に選択項目の決定などに用いられる。HOMEボタン176は操作部170に含まれ、押しボタンであり、HOME画面へ遷移する際に用いられる。MENUボタン177は操作部170に含まれ、押しボタンであり、MENU画面へ遷移する際に用いられる。BACKボタン178は操作部170に含まれ、押しボタンであり、キャンセル操作や一つ前の画面へ戻る場合に用いられる。 The SET button 175 is included in the operation unit 170, is a push button, and is mainly used for determining a selection item or the like. The HOME button 176 is included in the operation unit 170, is a push button, and is used when transitioning to the HOME screen. The MENU button 177 is included in the operation unit 170, is a push button, and is used when transitioning to the MENU screen. The BACK button 178 is included in the operation unit 170 and is a push button, which is used for a cancel operation or a return to the previous screen.

図3(a)は、デジタルカメラ100の構成例を示すブロック図である。図3(b)は、操作リモコン200の構成例を示すブロック図である。図3(a)において、レンズユニット110は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット110がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット110側と通信を行う為の通信端子である。 FIG. 3A is a block diagram showing a configuration example of the digital camera 100. FIG. 3B is a block diagram showing a configuration example of the operation remote controller 200. In FIG. 3A, the lens unit 110 is a lens unit equipped with an interchangeable photographing lens. The lens 103 is usually composed of a plurality of lenses, but here, only one lens is shown for brevity. The communication terminal 6 is a communication terminal for the lens unit 110 to communicate with the digital camera 100 side, and the communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 110 side.

レンズユニット110は、この通信端子6、10を介してシステム制御部50と通信する。レンズユニット110は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り機構102の制御を行い、AF(Autoforcus)駆動回路3を介して、レンズ103の位置を変位させることで焦点を合わせる。AEセンサー17は、レンズユニット110を通した被写体の輝度を測光する。焦点検出部11は、システム制御部50にデフォーカス量情報を出力する。システム制御部50はそれに基づいてレンズユニット110を制御し、位相差AFを行う。位相差AFは、後述のコントラストAFと比べると、レンズユニット110を駆動すべき方向および距離が分かるため、より高速にAFすることができる。その反面、精度がレンズ103に依存するため、装着するレンズによっては十分な精度が得られない場合がある。 The lens unit 110 communicates with the system control unit 50 via the communication terminals 6 and 10. The lens unit 110 controls the aperture mechanism 102 via the aperture drive circuit 2 by the internal lens system control circuit 4, and shifts the position of the lens 103 via the AF (Autoforce) drive circuit 3 to focus. match. The AE sensor 17 measures the brightness of the subject through the lens unit 110. The focus detection unit 11 outputs defocus amount information to the system control unit 50. The system control unit 50 controls the lens unit 110 based on this, and performs phase difference AF. Compared with the contrast AF described later, the phase difference AF can perform AF at a higher speed because the direction and distance in which the lens unit 110 should be driven can be known. On the other hand, since the accuracy depends on the lens 103, sufficient accuracy may not be obtained depending on the lens to be attached.

クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ103から入射した光束を接眼ファインダ16側と撮像部22側とに切替えるためのミラーである。ミラー12は通常時は接眼ファインダ16へと光束を導くよう反射させるように配されているが、撮影が行われる場合やライブビュー表示の場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。撮影者は、ペンタプリズム14と接眼ファインダ16を介して、フォーカシングスクリーン13を観察することで、レンズユニット110を通して得た被写体の光学像の焦点や構図の確認が可能となる。 The quick return mirror 12 (hereinafter referred to as the mirror 12) is instructed by the system control unit 50 at the time of exposure, live view shooting, and moving image shooting, and is moved up and down by an actuator (not shown). The mirror 12 is a mirror for switching the light flux incident from the lens 103 between the eyepiece finder 16 side and the image pickup unit 22 side. Normally, the mirror 12 is arranged so as to guide the light flux to the eyepiece finder 16, but when shooting is performed or in the case of live view display, the mirror 12 is upward so as to guide the light flux to the image pickup unit 22. It jumps up and evacuates from the luminous flux (mirror lockup). By observing the focusing screen 13 through the pentaprism 14 and the eyepiece finder 16, the photographer can confirm the focus and composition of the optical image of the subject obtained through the lens unit 110.

接眼検知部19は接眼ファインダ16に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)。システム制御部50は、接眼検知部19で検知された状態に応じて、表示部28と接眼ファインダ16内の表示部(不図示。光学像と同時に視認可能な撮影設定などを表示する表示素子)の表示(表示状態)/非表示(非表示状態)を切り替える。接眼検知部19には、例えば赤外線近接センサを用いることができ、接眼ファインダ16の接眼部への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部19の投光部(図示せず)から投光した赤外線が反射して赤外線近接センサの受光部(図示せず)に受光される。受光された赤外線の量によって、物体が接眼部からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部19は、接眼部への物体の近接距離を検知する接眼検知を行う。 The eyepiece detection unit 19 detects the approach (eyepiece) and separation (eyepiece) of the eye (object) with respect to the eyepiece finder 16 (approach detection). The system control unit 50 is a display unit in the display unit 28 and the eyepiece finder 16 according to the state detected by the eyepiece detection unit 19 (not shown. A display element that displays an optical image and a visible shooting setting at the same time). Switch between display (display state) and non-display (non-display state) of. For example, an infrared proximity sensor can be used for the eyepiece detection unit 19, and it is possible to detect the approach of some object to the eyepiece of the eyepiece finder 16. When an object approaches, the infrared rays projected from the light projecting unit (not shown) of the eyepiece detection unit 19 are reflected and received by the light receiving unit (not shown) of the infrared proximity sensor. From the amount of infrared rays received, it is possible to determine how close the object is from the eyepiece (eyepiece distance). In this way, the eyepiece detection unit 19 performs eyepiece detection for detecting the close distance of the object to the eyepiece.

接眼検知部19は、非接眼状態(非接近状態)から、ファインダの接眼部に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼検知部19は、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサは一例であって、接眼検知部19には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサを採用してもよい。 The eyepiece detection unit 19 shall detect that an eyepiece has been drawn when an object approaching the eyepiece of the finder within a predetermined distance is detected from the non-eyepiece state (non-approaching state). The eyepiece detection unit 19 shall detect that the eye has been removed when the object for which the approach has been detected is separated by a predetermined distance or more from the eyepiece state (approaching state). The threshold value for detecting the eyepiece and the threshold value for detecting the eyepiece may be different, for example, by providing hysteresis. In addition, after the eyepiece is detected, the eyepiece is assumed to be in the eyepiece state until the eyepiece is detected. After the eyepiece is detected, it is assumed that the eyepiece is not in the eyepiece state until the eyepiece is detected. The infrared proximity sensor is an example, and the eyepiece detection unit 19 may employ another sensor as long as it can detect the approach of an eye or an object that can be regarded as an eyepiece.

シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は測距センサとなる素子を含んでおり、撮像した被写体のデフォーカス量を判断することができる。これにより、いわゆる撮像面位相差AFを行うことができる。なお、デフォーカス量を取得可能な素子(像面センサ)が撮像部22のうち一部の範囲にしか配置されていない場合には、撮像面位相差AFが可能な領域はその一部の範囲に限られる。また、デフォーカス量を取得可能な素子が撮像部22の全範囲に配置されている場合であっても、周縁部はAF可能領域として設定せずに、中央から所定の範囲に撮像面位相差AF可能な領域を限定するものとする。以下、位相差AFとは、焦点検出部11による位相差AFと、撮像部22の像面センサによる撮像面位相差AFの双方を総称した呼称であるものとする。 The shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50. The image pickup unit 22 is an image pickup device composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The image pickup unit 22 includes an element that serves as a distance measuring sensor, and can determine the amount of defocus of the captured subject. As a result, so-called imaging surface phase-difference AF can be performed. When the element (image plane sensor) capable of acquiring the defocus amount is arranged only in a part of the range of the imaging unit 22, the region where the imaging surface phase difference AF is possible is a part of the range. Limited to. Further, even when the elements capable of acquiring the defocus amount are arranged in the entire range of the imaging unit 22, the peripheral portion is not set as the AF-capable region, and the imaging surface phase difference is within a predetermined range from the center. The AF-capable area shall be limited. Hereinafter, the phase difference AF is a generic name for both the phase difference AF by the focus detection unit 11 and the image plane phase difference AF by the image plane sensor of the image pickup unit 22.

A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、コントラストAF方式(TVAF方式)のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。
The A / D converter 23 converts an analog signal into a digital signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal.
The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. Further, in the image processing unit 24, a predetermined calculation process is performed using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-flash) processing of the contrast AF method (TVAF method) are performed.

コントラストAFは、映像の先鋭度を計算してフォーカシングを行うため、レンズ103の個体差によらずにフォーカス精度を得ることができるが、AF速度は位相差AFに劣る場合が多い。一方、コントラストAFは、映像の先鋭度(コントラスト)を計算出来る範囲であればフォーシング(フォーカス調整、焦点調節)できるため、位相差方式よりも広い範囲でフォーカスに関する情報の取得、及びAFが可能である。 Since the contrast AF calculates the sharpness of the image and performs focusing, the focus accuracy can be obtained regardless of the individual difference of the lens 103, but the AF speed is often inferior to the phase difference AF. On the other hand, contrast AF can perform forcing (focus adjustment, focus adjustment) as long as the sharpness (contrast) of the image can be calculated, so it is possible to acquire information on focus and AF in a wider range than the phase difference method. Is.

画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データを格納する。メモリ32はまた、表示部28に表示するための画像データや、表示部28に設定状態や設定情報を表示するためのOSD(On−Screen Display)データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像や音声およびOSDデータを格納するのに十分な記憶容量を備えている。 Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and also performs a TTL-type AWB (auto white balance) process based on the obtained calculation result. The output data from the A / D converter 23 is written directly to the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23. The memory 32 also stores image data for display on the display unit 28 and OSD (On-Screen Display) data for displaying the setting state and setting information on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, audio, and OSD data.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器27は、メモリ32に格納されている画像表示用(画像データとOSDデータの合成)のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器27を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器27からのアナログ信号に応じた表示を行う。システム制御部50が、A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器27においてアナログ変換し、表示部28に逐次転送して表示するよう制御する。これにより、表示部28は、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)やMENU画面表示を行える。 Further, the memory 32 also serves as a memory (video memory) for displaying an image. The D / A converter 27 converts the image display (combining image data and OSD data) data stored in the memory 32 into an analog signal and supplies it to the display unit 28. In this way, the display image data written in the memory 32 is displayed by the display unit 28 via the D / A converter 27. The display unit 28 displays on a display such as an LCD according to the analog signal from the D / A converter 27. The system control unit 50 analog-converts the digital signal once A / D-converted by the A / D converter 23 and stored in the memory 32 by the D / A converter 27, and sequentially transfers the digital signal to the display unit 28 for display. Control. As a result, the display unit 28 functions as an electronic viewfinder, and can perform through image display (live view display) and MENU screen display.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここで、プログラムには、本実施形態にて後述する各種フローチャートを実行するためのプログラムが含まれる。 The non-volatile memory 56 is a memory that can be electrically erased and recorded, and for example, EEPROM or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. Here, the program includes a program for executing various flowcharts described later in the present embodiment.

システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。52はシステムメモリであり、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器27、表示部28等を制御することによりOSDデータを含む表示制御も行う。システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system control unit 50 controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment described later is realized. Reference numeral 52 denotes a system memory, and RAM is used. In the system memory 52, constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded. The system control unit 50 also controls the display including the OSD data by controlling the memory 32, the D / A converter 27, the display unit 28, and the like. The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.

モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ64、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。さらに、静止画記録モードに含まれるモードとして、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、静止画撮影モードに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切替スイッチ60で静止画撮影モードに一旦切り換えた後に、静止画撮影モードに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。 The mode changeover switch 60, the first shutter switch 62, the second shutter switch 64, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50. The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image recording mode, a playback mode, and the like. The modes included in the still image recording mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). Further, as a mode included in the still image recording mode, there are various scene modes, a program AE mode, a custom mode, etc., which are shooting settings for each shooting scene. The mode changeover switch 60 directly switches to any of these modes included in the still image shooting mode. Alternatively, after switching to the still image shooting mode once with the mode changeover switch 60, the mode may be switched to any of these modes included in the still image shooting mode by using another operating member.

同様に、動画撮影モードにも複数のモードが含まれていてもよい。第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体300に画像データを書き込むまでの一連の撮影処理の動作を開始する。 Similarly, the moving image shooting mode may include a plurality of modes. The first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 61 provided on the digital camera 100, and the first shutter switch signal SW1 is generated. The first shutter switch signal SW1 starts operations such as AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing. The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processing operations from reading the signal from the imaging unit 22 to writing the image data to the recording medium 300 by the second shutter switch signal SW2.

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザは、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。 Each operation member of the operation unit 70 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 28, and acts as various function buttons. The function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28 and the up / down / left / right four-direction buttons and the SET button.

操作部70は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部70には、少なくとも以下の操作部が含まれる。すなわち、シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75、LVボタン76、拡大ボタン77、再生ボタン78である。電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体300を含む各部へ供給する。 The operation unit 70 is various operation members as an input unit that receives an operation from the user. The operation unit 70 includes at least the following operation units. That is, the shutter button 61, the main electronic dial 71, the power switch 72, the sub electronic dial 73, the cross key 74, the SET button 75, the LV button 76, the enlargement button 77, and the play button 78. The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 300 for a necessary period.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体300とのインターフェースである。記録媒体300は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。外部I/F93は、端子カバー40内のコネクタ(不図示)から他機器と接続するためのI/Fであり、PCとのPTP接続や外部モニターとのHDMI(登録商標)接続を含む。さらに、外部I/F93は操作リモコン200と接続するためのI/Fも備え、システム制御部50の制御の下、操作リモコン200との通信を行う。通信I/F92は、外部機器と無線で通信するための無線チップやアンテナなどを含む。通信I/F92はシステム制御部50の制御の下、無線LANによる通信を行うものとする。 The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The recording medium I / F 18 is an interface with a recording medium 300 such as a memory card or a hard disk. The recording medium 300 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like. The external I / F 93 is an I / F for connecting to another device from a connector (not shown) in the terminal cover 40, and includes a PTP connection with a PC and an HDMI (registered trademark) connection with an external monitor. Further, the external I / F 93 also includes an I / F for connecting to the operation remote controller 200, and communicates with the operation remote controller 200 under the control of the system control unit 50. The communication I / F 92 includes a wireless chip, an antenna, and the like for wirelessly communicating with an external device. The communication I / F 92 shall perform communication by wireless LAN under the control of the system control unit 50.

上述したデジタルカメラ100では、ライブビュー撮影時に中央1点AFや顔AFやタッチAFを用いた撮影が可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。タッチAFとはユーザからの操作により指定された位置に対してAFを行うことである。ただし、AF制御のために、AF点の周辺画素の情報を用いたり、映像の先鋭度を評価したりするため、タッチAFが可能な領域は、映像全体よりもやや内側の矩形領域に限られる。どの程度の領域でタッチAFが可能となるかは、AF方式によって異なる。 With the above-mentioned digital camera 100, it is possible to take a picture using a central one-point AF, a face AF, or a touch AF at the time of live view shooting. The central one-point AF is to perform AF on one central position on the shooting screen. Face AF is to perform AF on the face in the shooting screen detected by the face detection function. Touch AF is to perform AF at a position specified by an operation from the user. However, since the information of the pixels around the AF point is used for AF control and the sharpness of the image is evaluated, the area where touch AF is possible is limited to the rectangular area slightly inside the entire image. .. The extent to which touch AF is possible depends on the AF method.

次に、顔検出機能について説明する。システム制御部50は顔検出対象の画像データを画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。 Next, the face detection function will be described. The system control unit 50 sends the image data of the face detection target to the image processing unit 24. Under the control of the system control unit 50, the image processing unit 24 applies a horizontal bandpass filter to the image data. Further, under the control of the system control unit 50, the image processing unit 24 applies a vertical bandpass filter to the processed image data. Edge components are detected from the image data by these horizontal and vertical bandpass filters.

その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。システム制御部50は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数や顔の撮影画像に対する座標などの情報をシステムメモリ52に記憶する。 After that, the system control unit 50 performs pattern matching on the detected edge components and extracts candidate groups for eyes, nose, mouth, and ears. Then, the system control unit 50 determines from the extracted eye candidate groups that satisfy the preset conditions (for example, the distance between the two eyes, the inclination, etc.) as the eye pair, and determines that the eye pair. Only those with are narrowed down as a candidate group for the eyes. Then, the system control unit 50 associates the narrowed-down eye candidate group with other parts (nose, mouth, ear) that form the corresponding face, and passes a preset non-face condition filter. , Detect the face. The system control unit 50 outputs the above face information according to the face detection result, and ends the process. At this time, information such as the number of faces and the coordinates of the captured image of the face is stored in the system memory 52.

以上のようにライブビュー表示あるいは再生表示される画像データを画像解析して、画像データの特徴量を抽出して被写体情報を検出することが可能である。本実施例では被写体情報として顔情報を例に挙げたが、被写体情報には他にも赤目判定や目の検出、目つむり検出、笑顔検出等の様々な情報がある。 As described above, it is possible to perform image analysis on the image data displayed in the live view or reproduced, extract the feature amount of the image data, and detect the subject information. In this embodiment, face information is taken as an example of subject information, but the subject information also includes various information such as red-eye determination, eye detection, eye blindness detection, and smile detection.

なお、デジタルカメラ100は、顔AFと同時に顔AE、顔FE、顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のWBを最適化することである。また、検出された複数の顔のうち選択された特定の顔(被写体)を追尾して、この顔にフォーカスや露出を合わせ続けることもできる。追尾モードにおいては、顔の向きや動きによって一時的に検出が途切れても追尾を継続できるよう、被写体の輝度情報や色情報も加味して特定被写体の追尾を行う。 The digital camera 100 can perform face AE, face FE, and face WB at the same time as face AF. Face AE is to optimize the exposure of the entire screen according to the detected brightness of the face. Face FE is to adjust the flash around the detected face. The face WB is to optimize the WB of the entire screen according to the detected face color. It is also possible to track a specific face (subject) selected from a plurality of detected faces and continue to focus and expose the face. In the tracking mode, tracking of a specific subject is performed by taking into account the brightness information and color information of the subject so that the tracking can be continued even if the detection is temporarily interrupted due to the direction or movement of the face.

また、デジタルカメラ100は、操作部70の一つとして、表示部28に対する接触を検知可能なタッチパネルを有する。タッチパネルと表示部28とは一体的に構成されている。例えば、タッチパネルを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。システム制御部50はタッチパネルへの以下の操作を検出できる。
・タッチパネルを指やペンで触れたこと(以下、タッチダウンと称する)。
・タッチパネルを指やペンで触れている状態であること(以下、タッチオンと称する)。
・タッチパネルを指やペンで触れたまま移動していること(以下、ムーブと称する)。
・タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップと称する)。
・タッチパネルに何も触れていない状態(以下、タッチオフと称する)。
Further, the digital camera 100 has a touch panel capable of detecting contact with the display unit 28 as one of the operation units 70. The touch panel and the display unit 28 are integrally configured. For example, the touch panel is configured so that the light transmittance does not interfere with the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel are associated with the display coordinates on the display unit 28. As a result, it is possible to configure the GUI as if the user can directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following operations on the touch panel.
-Touching the touch panel with a finger or pen (hereinafter referred to as touchdown).
-The touch panel must be touched with a finger or pen (hereinafter referred to as touch-on).
-Move while touching the touch panel with your finger or pen (hereinafter referred to as move).
-Release the finger or pen that was touching the touch panel (hereinafter referred to as touch-up).
-A state in which nothing is touched on the touch panel (hereinafter referred to as touch-off).

これらの操作や、タッチパネル上に指やペンが触れている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。システム制御部50は、タッチパネル上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたと判定する。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。 These operations and the position coordinates of the finger or pen touching the touch panel are notified to the system control unit 50 through the internal bus, and the system control unit 50 performs what kind of operation on the touch panel based on the notified information. Determine if it was done. Regarding the move, the moving direction of the finger or pen moving on the touch panel can also be determined for each vertical component and horizontal component on the touch panel based on the change in the position coordinates. The system control unit 50 determines that a stroke has been drawn when the touch panel is touched up after a certain move from the touchdown. The operation of drawing a stroke quickly is called flicking. Flicking is an operation of quickly moving a finger on the touch panel by a certain distance and then releasing it as it is, in other words, an operation of quickly tracing the touch panel as if flicking it with a finger.

システム制御部50は、所定距離以上を所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されると、フリックが行なわれたと判定する。また、システム制御部50は、所定距離以上を、所定速度未満でムーブしたことが検出された場合は、ドラッグが行なわれたと判定する。タッチパネルには、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のうちいずれの方式のものを用いてもよい。なお、タッチパネルは、タッチを検知するタッチ検知面の一例である。 The system control unit 50 determines that the flick has been performed when it is detected that the movement has been performed over a predetermined distance at a predetermined speed or higher and the touch-up is detected as it is. Further, the system control unit 50 determines that the drag has been performed when it is detected that the movement is performed at a predetermined speed or more and less than a predetermined speed. As the touch panel, any of various methods such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method may be used. The touch panel is an example of a touch detection surface that detects touch.

図3(b)において、メモリ132はOSD表示用のメモリを兼ねている。D/A変換器127は、メモリ132に格納されているOSD表示用のデータをアナログ信号に変換して表示部128に供給する。こうして、システム制御部150によりメモリ132に書き込まれた表示用のOSDデータはD/A変換器127を介して表示部128により表示される。表示部128は、LCD等の表示器上に、D/A変換器127からのアナログ信号に応じた表示を行う。システム制御部150が、メモリ132に書き込まれたOSDデータをD/A変換器127においてアナログ変換させ、表示部128に逐次転送して表示するよう制御する。これにより、表示パネル上にHOME画面やMENU画面が表示される。 In FIG. 3B, the memory 132 also serves as a memory for displaying the OSD. The D / A converter 127 converts the OSD display data stored in the memory 132 into an analog signal and supplies it to the display unit 128. In this way, the OSD data for display written in the memory 132 by the system control unit 150 is displayed by the display unit 128 via the D / A converter 127. The display unit 128 displays on a display such as an LCD according to the analog signal from the D / A converter 127. The system control unit 150 controls the OSD data written in the memory 132 to be analog-converted by the D / A converter 127 and sequentially transferred to the display unit 128 for display. As a result, the HOME screen and the MENU screen are displayed on the display panel.

不揮発性メモリ156は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ156には、システム制御部150の動作用の定数、プログラム等が記憶される。ここでプログラムには、本実施形態にて後述する各種フローチャートを実行するためのプログラムが含まれる。システム制御部150は、操作リモコン200全体を制御する。前述した不揮発性メモリ156に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。152はシステムメモリであり、RAMが用いられる。システムメモリ152には、システム制御部150の動作用の定数、変数、不揮発性メモリ156から読み出したプログラム等を展開する。また、システム制御部はメモリ132、D/A変換器127、表示部128等を制御することによりOSDデータの表示制御も行う。システムタイマー153は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The non-volatile memory 156 is a memory that can be electrically erased and recorded, and for example, EEPROM or the like is used. The non-volatile memory 156 stores constants, programs, and the like for the operation of the system control unit 150. Here, the program includes a program for executing various flowcharts described later in the present embodiment. The system control unit 150 controls the entire operation remote controller 200. By executing the program recorded in the non-volatile memory 156 described above, each process of the present embodiment described later is realized. Reference numeral 152 denotes a system memory, and RAM is used. In the system memory 152, constants and variables for the operation of the system control unit 150, a program read from the non-volatile memory 156, and the like are expanded. The system control unit also controls the display of OSD data by controlling the memory 132, the D / A converter 127, the display unit 128, and the like. The system timer 153 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.

操作部170の各操作部材は、表示部128に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、HOMEボタン176が押されると各種の設定可能なメニュー画面が表示部128に表示される。ユーザは、表示部128に表示されたHOME画面と、表示部128上下の操作ボタン171やSETボタン175とを用いて直感的に各種設定を行うことができる。操作部170は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部170には、少なくとも以下の操作部が含まれる。すなわち、HOMEボタン176、MENUボタン177、BACKボタン178、電源スイッチ172、十字キー174、SETボタン175、操作ボタン171である。 Each operation member of the operation unit 170 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 128, and acts as various function buttons. The function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the HOME button 176 is pressed, various configurable menu screens are displayed on the display unit 128. The user can intuitively make various settings by using the HOME screen displayed on the display unit 128 and the operation buttons 171 and SET buttons 175 on the upper and lower sides of the display unit 128. The operation unit 170 is various operation members as an input unit that receives an operation from the user. The operation unit 170 includes at least the following operation units. That is, the HOME button 176, the MENU button 177, the BACK button 178, the power switch 172, the cross key 174, the SET button 175, and the operation button 171.

電源制御部180は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部180は、その検出結果及びシステム制御部150の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間を含む各部へ供給する。電源部130は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。 The power supply control unit 180 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 180 controls the DC-DC converter based on the detection result and the instruction of the system control unit 150, and supplies a necessary voltage to each unit including a necessary period. The power supply unit 130 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.

外部I/F193は、デジタルカメラ100と接続するためのI/Fを備え、システム制御部150の制御の下、デジタルカメラ100との通信を行う。通信I/F192は、外部機器と無線で通信するための無線チップやアンテナなどを含む。通信I/F192はシステム制御部150の制御の下、無線LANによる通信を行うものとする。なお操作部170の一つとして、表示部128に対する接触を検知可能なタッチパネルを有する。ここで、タッチパネルは、タッチを検知するタッチ検知面の一例である。タッチパネルと表示部128とは一体的に構成されているものとする。タッチパネルの構成及び操作の名称については、図3(a)同様である。 The external I / F 193 includes an I / F for connecting to the digital camera 100, and communicates with the digital camera 100 under the control of the system control unit 150. The communication I / F 192 includes a wireless chip, an antenna, and the like for wirelessly communicating with an external device. The communication I / F 192 shall perform communication by wireless LAN under the control of the system control unit 150. As one of the operation units 170, it has a touch panel capable of detecting contact with the display unit 128. Here, the touch panel is an example of a touch detection surface that detects touch. It is assumed that the touch panel and the display unit 128 are integrally configured. The configuration and operation names of the touch panel are the same as in FIG. 3A.

次に、デジタルカメラ100と操作リモコン200の動作の概略について説明する。本実施形態においては、デジタルカメラ100の表示部28にライブビュー(撮影画像)を表示する。さらに、ユーザがAF位置を指定するためのユーザインタフェース(UI)として、操作リモコン200のタッチパネルを利用することとする。そして、ユーザにより操作リモコン200のタッチパネルにおいてAF位置の指定が行われると、操作リモコン200は、ユーザ操作に応じた指示をデジタルカメラ100に送信する。デジタルカメラ100は、操作リモコン200から受信した指示に応じて、フォーカス位置を設定し、AF位置に応じたフォーカス制御を行う。以下、デジタルカメラ100及び操作リモコン200の動作について詳述する。 Next, the outline of the operation of the digital camera 100 and the operation remote controller 200 will be described. In the present embodiment, a live view (captured image) is displayed on the display unit 28 of the digital camera 100. Further, the touch panel of the operation remote controller 200 is used as a user interface (UI) for the user to specify the AF position. Then, when the user specifies the AF position on the touch panel of the operation remote controller 200, the operation remote controller 200 transmits an instruction according to the user operation to the digital camera 100. The digital camera 100 sets the focus position according to the instruction received from the operation remote controller 200, and performs focus control according to the AF position. Hereinafter, the operations of the digital camera 100 and the operation remote controller 200 will be described in detail.

図4は、ライブビュー撮影中にデジタルカメラ100により実行される制御処理を示すフローチャートである。本処理は、システム制御部50が不揮発性メモリ56に記憶されたプログラムに基づいて、デジタルカメラ100の各部を制御することによって実現される。また、図5及び図6は、図4に示す制御処理により表示部28に表示される表示画面例を示す図である。表示画面には、撮像部22で撮像された撮像画像(映像)上にいくつかのOSD要素がオーバーレイ表示されている。 FIG. 4 is a flowchart showing a control process executed by the digital camera 100 during the live view shooting. This process is realized by the system control unit 50 controlling each unit of the digital camera 100 based on the program stored in the non-volatile memory 56. 5 and 6 are diagrams showing an example of a display screen displayed on the display unit 28 by the control process shown in FIG. On the display screen, some OSD elements are overlaid on the captured image (video) captured by the imaging unit 22.

S401において、システム制御部50は、外部I/F93を介して操作リモコン200からAF方式の変更要求を受信したか否かを判定する。システム制御部50は、真であれば(S401でyes)、処理をS402へ進める。システム制御部50は、偽であれば(S401でno)、処理をS406へ進める。S402において、システム制御部50は、S401で受信したオートフォーカス(AF)方式の種別を判定する。システム制御部50は、AF方式がコントラストAFの場合には(S402でTVAF)、処理をS403へ進める。システム制御部50は、AF方式が位相差AFの場合には(S402で位相差AF)、処理をS404へ進める。なお、システム制御部50は、MF(マニュアルフォーカス)方式の場合には(S402でMF)、処理をS401へ進める。 In S401, the system control unit 50 determines whether or not the AF method change request is received from the operation remote controller 200 via the external I / F 93. If true (yes in S401), the system control unit 50 advances the process to S402. If it is false (no in S401), the system control unit 50 advances the process to S406. In S402, the system control unit 50 determines the type of the autofocus (AF) method received in S401. When the AF method is contrast AF (TVAF in S402), the system control unit 50 advances the processing to S403. When the AF method is phase-difference AF (phase-difference AF in S402), the system control unit 50 advances processing to S404. In the case of the MF (manual focus) method, the system control unit 50 advances the process to S401 (MF in S402).

S403において、システム制御部50は、AF駆動方式をコントラストAF方式に設定する。さらに、システム制御部50は、コントラストAF方式に対して予め定められている第1の範囲を、フォーカス対象範囲として設定する。一方、S404において、システム制御部50は、AF駆動方式を位相差AF方式に設定する。さらに、システム制御部50は、位相差AF方式に対して予め定められている第2の範囲を、フォーカス対象範囲として設定する。なお、S403及びA404の処理は、範囲設定処理の一例である。 In S403, the system control unit 50 sets the AF drive method to the contrast AF method. Further, the system control unit 50 sets a first range predetermined for the contrast AF method as a focus target range. On the other hand, in S404, the system control unit 50 sets the AF drive method to the phase difference AF method. Further, the system control unit 50 sets a second range predetermined for the phase difference AF method as a focus target range. The processing of S403 and A404 is an example of the range setting processing.

ここで、コントラストAF方式に対して定められている第1の範囲は、映像の縦横90%の領域であるものとする。また、位相差AF方式に対して定められている第2の範囲は、映像の80%の範囲であるものとする。このように、位相差AF方式に対して定められている範囲は、コントラストAF方式に対して定められている範囲に比べて狭い範囲となっている。後述の処理において操作リモコン200から受信するタッチイベントに示されるタッチ位置は、このフォーカス対象範囲内の位置に対応付けられる。システム制御部50は、S403の処理の後、処理をS405へ進める。なお、フォーカス対象範囲は、撮像範囲の全体よりも狭い一部の範囲であり、フォーカシング位置としてユーザが設定可能な位置を含む範囲であればよく実施形態に限定されるものではない。 Here, it is assumed that the first range defined for the contrast AF method is a region of 90% in the vertical and horizontal directions of the image. Further, the second range defined for the phase difference AF method is assumed to be a range of 80% of the image. As described above, the range defined for the phase difference AF method is narrower than the range defined for the contrast AF method. The touch position indicated by the touch event received from the operation remote controller 200 in the process described later is associated with the position within the focus target range. After the processing of S403, the system control unit 50 advances the processing to S405. The focus target range is a part of the range narrower than the entire imaging range, and is not limited to the embodiment as long as it includes a position that can be set by the user as the focusing position.

S405において、システム制御部50は、S403又はS404において設定したフォーカス対象範囲を示す枠画像を、表示部28に表示された映像上に重畳表示するよう制御する。本処理は、表示制御処理の一例である。図5は、フォーカス対象範囲を示す枠画像の表示例を示す図である。図5(a)、(b)の500は、表示部28に表示された映像である。501は、動画撮影中であることを示す状態表示である。502は、撮影中の動画のタイムコードを示す表示である。503は、撮像部22にて撮像された被写体である。図5(a)は、コントラストAF方式に設定された場合の表示例であり、映像500上には、フォーカス対象範囲として設定された第1の範囲を示す枠画像510が重畳表示されている。図5(b)は、位相差AF方式に設定された場合の表示例であり、映像500上には、フォーカス対象範囲として設定された第2の範囲を示す枠画像520が重畳表示されている。なお、フォーカス対象範囲を示す枠画像は、フォーカス対象範囲に対応する位置に重畳表示された範囲画像の一例である。 In S405, the system control unit 50 controls to superimpose and display the frame image showing the focus target range set in S403 or S404 on the image displayed on the display unit 28. This process is an example of display control process. FIG. 5 is a diagram showing a display example of a frame image showing a focus target range. Reference numerals 500 in FIGS. 5A and 5B are images displayed on the display unit 28. 501 is a state display indicating that moving image shooting is in progress. 502 is a display indicating the time code of the moving image being shot. Reference numeral 503 is a subject imaged by the imaging unit 22. FIG. 5A is a display example when the contrast AF method is set, and a frame image 510 showing a first range set as a focus target range is superimposed and displayed on the image 500. FIG. 5B is a display example when the phase difference AF method is set, and a frame image 520 showing a second range set as the focus target range is superimposed and displayed on the image 500. .. The frame image showing the focus target range is an example of a range image superimposed and displayed at a position corresponding to the focus target range.

操作リモコン200のタッチパネルでタップした位置は、デジタルカメラ100のフォーカス対象範囲に対応付けられる。したがって、このように映像上に枠画像を重畳表示することにより、ユーザは、映像とタップすべき位置の関係を容易に把握することができる。なお、操作リモコン200においては、フォーカス位置を特定するためにタップ可能なタッチ対象範囲がタッチパネルにおいて定められているものとする。ここで、タッチ対象範囲は、操作リモコン200がタッチ検知可能な範囲であるものとする。なお、タッチ対象範囲は、タッチパネルの任意の範囲であればよく、実施形態に限定されるものではない。タッチパネルの全面を有効利用する観点からは、タッチ対象範囲をタッチパネル全面としてもよい。また、他の例としては、ハードウェアの関係で、タッチパネル周辺部を利用するのが困難な場合や、タッチパネルを他の用途と共用する場合には、タッチパネルの一部の領域のみをタッチ対象範囲としてもよい。 The position tapped on the touch panel of the operation remote controller 200 is associated with the focus target range of the digital camera 100. Therefore, by superimposing the frame image on the image in this way, the user can easily grasp the relationship between the image and the position to be tapped. In the operation remote controller 200, it is assumed that the touch target range that can be tapped in order to specify the focus position is defined on the touch panel. Here, it is assumed that the touch target range is a range in which the operation remote controller 200 can detect touch. The touch target range may be any range of the touch panel, and is not limited to the embodiment. From the viewpoint of effectively using the entire surface of the touch panel, the touch target range may be the entire surface of the touch panel. As another example, when it is difficult to use the peripheral part of the touch panel due to hardware, or when the touch panel is shared with other uses, only a part of the touch panel area is touched. May be.

S406において、システム制御部50は、外部I/F93を介して操作リモコン200からタッチ位置を含むタッチイベントを受信したか否かを判定する。システム制御部50は、真であれば(S406でyes)、処理をS407へ進める。システム制御部50は、偽であれば(S406でno)、処理をS401へ進める。タッチイベントは、操作部170に含まれるタッチパネルに対するタッチイベント(表示部128に対応したタッチパネルへのタッチ操作によるタッチイベント)である。S406の処理は、タッチ操作を検知するタッチ検知処理の一例である。 In S406, the system control unit 50 determines whether or not a touch event including the touch position has been received from the operation remote controller 200 via the external I / F 93. If true (yes in S406), the system control unit 50 advances the process to S407. If it is false (no in S406), the system control unit 50 advances the process to S401. The touch event is a touch event for the touch panel included in the operation unit 170 (a touch event due to a touch operation on the touch panel corresponding to the display unit 128). The process of S406 is an example of a touch detection process for detecting a touch operation.

S407において、システム制御部50は、タッチイベントとして受信したタッチ位置を、フォーカス対象範囲内の位置、すなわち映像内の位置に変換する。ここで、フォーカス対象範囲内の位置は、フォーカス対象範囲における相対的な位置がタッチ対象範囲における相対的なタッチ位置と一致するような位置である。システム制御部50は、対応ルールを参照することにより、タッチ位置をフォーカス対象範囲の外側の領域と対応付けることなく、タッチ位置からフォーカス対象範囲内の位置への位置変換(座標変換)を行う。ここで、対応ルールは、フォーカス対象範囲内の各位置と、タッチ対象範囲内の各位置とを対応付けた情報である。また、S407の処理は、タッチ位置を、タッチ対象範囲とタッチ位置の位置関係に対応した、フォーカス対象範囲内の位置に変換する位置変換処理の一例である。 In S407, the system control unit 50 converts the touch position received as a touch event into a position within the focus target range, that is, a position within the image. Here, the position in the focus target range is a position such that the relative position in the focus target range coincides with the relative touch position in the touch target range. By referring to the corresponding rule, the system control unit 50 performs position conversion (coordinate conversion) from the touch position to a position within the focus target range without associating the touch position with the area outside the focus target range. Here, the corresponding rule is information in which each position in the focus target range is associated with each position in the touch target range. Further, the process of S407 is an example of the position conversion process of converting the touch position into a position within the focus target range corresponding to the positional relationship between the touch target range and the touch position.

なお、対応ルールは、フォーカス対象範囲内の位置からタッチ対象範囲における位置を特定可能なものであればよく、その具体的な内容は実施形態に限定されるものではない。他の例としては、対応ルールは、タッチ対象範囲内の位置からフォーカス対象範囲内の位置を特定する関数であってもよい。 It should be noted that the corresponding rule may be such that the position in the touch target range can be specified from the position in the focus target range, and the specific content thereof is not limited to the embodiment. As another example, the correspondence rule may be a function that specifies a position within the focus target range from a position within the touch target range.

次に、S408において、システム制御部50は、S407における位置変換により得られた、映像上の位置に、AF位置を示す指標となる枠画像を重畳表示するよう制御する。本処理は、表示制御処理の一例である。 Next, in S408, the system control unit 50 controls to superimpose and display a frame image as an index indicating the AF position on the position on the image obtained by the position conversion in S407. This process is an example of display control process.

図6は、AF位置を示す枠画像の表示例を示す図である。図6(a)は、コントラストAF方式でフォーカシングしている場合の表示例であり、図5(a)に対応している。図6(a)に示す映像500上には、フォーカス対象範囲として第1の範囲を示す枠画像510が重畳表示されている。さらに、図6(a)に示すように、映像500上のAF位置に、AF位置を示す枠画像610が重畳表示されている。 FIG. 6 is a diagram showing a display example of a frame image showing an AF position. FIG. 6A is a display example in the case of focusing by the contrast AF method, and corresponds to FIG. 5A. On the image 500 shown in FIG. 6A, a frame image 510 showing a first range as a focus target range is superimposed and displayed. Further, as shown in FIG. 6A, a frame image 610 showing the AF position is superimposed and displayed on the AF position on the image 500.

図6(b)は、位相差AF方式でフォーカシングしている場合の表示例であり、図5(b)に対応している。図6(b)に示す映像500上には、フォーカス対象範囲として第2の範囲を示す枠画像520が重畳表示されている。さらに、図6(b)に示すように、映像500上のAF位置に、AF位置を示す枠画像520が重畳表示されている。なお、図6(a)、(b)に示す枠画像610、620は、操作リモコン200のタッチパネルの同じ位置がタップされた場合に対応した表示結果を示している。位相差AF方式のフォーカス対象範囲の方が、コントラストAF方式のフォーカス対象範囲に比べて小さい。このため、タッチ位置は、位相差AF方式に設定されている場合には、コントラストAF方式に設定された場合に比べて、より映像の中心に近い位置に位置変換される。なお、AF位置を示す枠画像は、位置変換後の座標位置に重畳表示された指標画像の一例である。 FIG. 6B is a display example in the case of focusing by the phase difference AF method, and corresponds to FIG. 5B. On the image 500 shown in FIG. 6B, a frame image 520 showing a second range as a focus target range is superimposed and displayed. Further, as shown in FIG. 6B, a frame image 520 showing the AF position is superimposed and displayed on the AF position on the image 500. The frame images 610 and 620 shown in FIGS. 6A and 6B show display results corresponding to the case where the same position on the touch panel of the operation remote controller 200 is tapped. The focus target range of the phase difference AF method is smaller than the focus target range of the contrast AF method. Therefore, when the phase difference AF method is set, the touch position is repositioned to a position closer to the center of the image than when the contrast AF method is set. The frame image showing the AF position is an example of an index image superimposed and displayed on the coordinate position after the position conversion.

図4に戻り、S408の処理の後、S409において、システム制御部50は、S407で得られた映像上の位置(座標)をAF位置として設定し、AF位置の被写体を基準として、AF制御を行う。S409の処理は、フォーカス制御処理の一例である。次に、S410において、システム制御部50は、S409の処理の結果、AF位置の被写体への合焦に成功したか否かを判定する。被写体がデジタルカメラ100に接近し過ぎていたり、被写体が激しく動いていたり、被写体の輝度や色が低コントラストであったりした場合、被写体への合焦に失敗する場合がある。システム制御部50は、真であれば(S410でyes)、処理をS411へ進める。システム制御部50は、偽であれば(S410でno)、処理をS412へ進める。 Returning to FIG. 4, after the processing of S408, in S409, the system control unit 50 sets the position (coordinates) on the image obtained in S407 as the AF position, and performs AF control with reference to the subject at the AF position. Do. The process of S409 is an example of the focus control process. Next, in S410, the system control unit 50 determines whether or not the AF position has succeeded in focusing on the subject as a result of the processing of S409. If the subject is too close to the digital camera 100, the subject is moving violently, or the brightness or color of the subject is low contrast, focusing on the subject may fail. If true (yes in S410), the system control unit 50 advances the process to S411. If it is false (no in S410), the system control unit 50 advances the process to S412.

S411において、システム制御部50は、操作リモコン200と通信している場合に、外部I/F93を介して操作リモコン200へAFの成功を送信する。S412において、システム制御部50は、操作リモコン200と通信している場合に、外部I/F93を介して操作リモコン200へAFの失敗を送信する。S411及びS412の処理は、AFの成否を通知する通知処理の一例である。 In S411, the system control unit 50 transmits the success of AF to the operation remote controller 200 via the external I / F 93 when communicating with the operation remote controller 200. In S412, the system control unit 50 transmits an AF failure to the operation remote controller 200 via the external I / F 93 when communicating with the operation remote controller 200. The processes of S411 and S412 are examples of notification processes for notifying the success or failure of AF.

図7は、操作リモコン200による制御処理を示すフローチャートである。本処理は、デジタルカメラ100による制御処理(図4)と連動した処理である。本処理は、システム制御部150が不揮発性メモリ156に記憶されたプログラムに基づいて、操作リモコン200の各部を制御することによって実現される。また、図8は、図7に示す制御処理により表示部128に表示される表示画面例を示す図である。なお、表示画面には、撮像部22により撮像された映像は表示されないものとする。 FIG. 7 is a flowchart showing the control process by the operation remote controller 200. This process is linked to the control process (FIG. 4) by the digital camera 100. This processing is realized by the system control unit 150 controlling each unit of the operation remote controller 200 based on the program stored in the non-volatile memory 156. Further, FIG. 8 is a diagram showing an example of a display screen displayed on the display unit 128 by the control process shown in FIG. 7. It is assumed that the image captured by the imaging unit 22 is not displayed on the display screen.

S701において、システム制御部150は、表示部128にガイド画面を表示するよう制御する。図8(a)は、ガイド画面800の表示例を示す図である。801は、操作ボタン171の一つにAF方式の変更機能が割り当てられていること示すガイド表示である。また、802は、処理時点におけるAF方式を示す表示要素であり、コントラストAF、位相差AF、MFのいずれかが表示される。なお、操作リモコン200は、処理時点におけるAF方式については、デジタルカメラ100から受信するものとする。803は、操作部170に含まれるタッチパネルをタップすることで、タップした位置に相当する顔を選択できることを表すガイド表示である。この表示要素803によって、ユーザはタッチパネルでどのような操作を行えばよいかを理解することができる。 In S701, the system control unit 150 controls the display unit 128 to display the guide screen. FIG. 8A is a diagram showing a display example of the guide screen 800. Reference numeral 801 is a guide display indicating that the AF method change function is assigned to one of the operation buttons 171. Further, 802 is a display element indicating the AF method at the time of processing, and any one of contrast AF, phase difference AF, and MF is displayed. The operation remote controller 200 shall receive the AF method at the time of processing from the digital camera 100. Reference numeral 803 is a guide display indicating that the face corresponding to the tapped position can be selected by tapping the touch panel included in the operation unit 170. The display element 803 allows the user to understand what kind of operation should be performed on the touch panel.

図7に戻り、S701の処理の後、S702において、システム制御部150は、操作ボタン171の操作によってAF方式の変更が要求されたか否かを判定する。システム制御部150は、真であれば(S702でyes)、処理をS703へ進める。システム制御部150は、偽であれば(S702でno)、処理をS704へ進める。S703において、システム制御部150は、AF方式の変更要求を、外部I/F193を介してデジタルカメラ100へ送信し、その後処理をS701へ進める。 Returning to FIG. 7, after the processing of S701, in S702, the system control unit 150 determines whether or not the AF method change is requested by the operation of the operation button 171. If true (yes in S702), the system control unit 150 advances the process to S703. If it is false (no in S702), the system control unit 150 advances the process to S704. In S703, the system control unit 150 transmits the AF method change request to the digital camera 100 via the external I / F 193, and then proceeds to the process to S701.

S704において、システム制御部150は、操作部170に含まれるタッチパネルのタッチ対象範囲がタップされたか否かを判定する。システム制御部150は、真であれば(S704でyes)、処理をS705へ進める。システム制御部150は、偽であれば(S704でno)、処理をS701へ進める。S705において、システム制御部150は、タッチパネルにおける、S704においてタップされた位置に対応する表示部128の位置に、タッチ位置を示す指標となる枠画像を表示するよう制御する。本処理により、表示部128の画面表示は、図8(a)から図8(b)の状態に変化する。図8(b)に示すように、ガイド画面800上のタッチ位置に、タッチ位置を示す指標となる枠画像810が表示される。枠画像810の表示により、ユーザはタップ操作が受け付けられたことを確認することができる。 In S704, the system control unit 150 determines whether or not the touch target range of the touch panel included in the operation unit 170 has been tapped. If true (yes in S704), the system control unit 150 advances the process to S705. If it is false (no in S704), the system control unit 150 advances the process to S701. In S705, the system control unit 150 controls the touch panel to display a frame image as an index indicating the touch position at the position of the display unit 128 corresponding to the position tapped in S704. By this processing, the screen display of the display unit 128 changes from the state of FIG. 8A to the state of FIG. 8B. As shown in FIG. 8B, a frame image 810 as an index indicating the touch position is displayed at the touch position on the guide screen 800. By displaying the frame image 810, the user can confirm that the tap operation has been accepted.

次に、S705の処理の後、S706において、システム制御部150は、S704においてタップされた座標値を含むタッチイベントを、外部I/F193を介してデジタルカメラ100へ送信する。次に、S707において、システム制御部150は、S706で送信したタッチイベントに対するAF制御の結果を受信したか否かを判定する。システム制御部150は、真となるまで待機し、真であれば(S707でyes)、処理をS708へ進める。 Next, after the processing of S705, in S706, the system control unit 150 transmits a touch event including the coordinate value tapped in S704 to the digital camera 100 via the external I / F 193. Next, in S707, the system control unit 150 determines whether or not the result of AF control for the touch event transmitted in S706 has been received. The system control unit 150 waits until it becomes true, and if it is true (yes in S707), the process proceeds to S708.

S708において、システム制御部150は、S707において受信したAF制御の結果を表示部128に表示するよう制御する。本処理により、表示部128の画面表示は、図8(b)から図8(c)又は図8(d)の状態に変化する。図8(c)は、AF制御が成功した場合の表示例である。この場合には、枠画像810内に、枠画像810には、対応するAF位置におけるAF制御が成功したことを表す「OK」が表示されている。また、図8(d)は、AF制御が失敗した場合の表示例である。この場合には、枠画像810には、対応するAF位置におけるAF制御が失敗したことを示す「NG」が表示されている。これらの表示により、ユーザは、デジタルカメラ100の表示部28を確認することなく、操作リモコン200の表示部128を確認するだけで、AF制御の成否を把握することができる。なお、AF制御の成否の結果の表示方法は実施形態に限定されるものではない。他の例としては、システム制御部150は、AF制御の成否をアイコンで示したり、枠の色で表現したりしてもよい。 In S708, the system control unit 150 controls the display unit 128 to display the AF control result received in S707. By this processing, the screen display of the display unit 128 changes from FIG. 8 (b) to the state of FIG. 8 (c) or FIG. 8 (d). FIG. 8C is a display example when AF control is successful. In this case, in the frame image 810, "OK" indicating that the AF control at the corresponding AF position was successful is displayed in the frame image 810. Further, FIG. 8D is a display example when AF control fails. In this case, the frame image 810 displays "NG" indicating that the AF control at the corresponding AF position has failed. With these displays, the user can grasp the success or failure of the AF control only by checking the display unit 128 of the operation remote controller 200 without checking the display unit 28 of the digital camera 100. The method of displaying the result of success or failure of AF control is not limited to the embodiment. As another example, the system control unit 150 may indicate the success or failure of the AF control with an icon or express it with the color of the frame.

以上のように、第1の実施形態においては、タッチ対象範囲は、撮影範囲の全体よりも狭い、撮影範囲の一部の範囲であるフォーカス対象範囲に対応付けられている。さらに、タッチパネル上でタッチされた絶対位置に基づいて、AF位置が決定される。このため、操作リモコン200のタッチパネルが比較的面積の小さいものであっても、ユーザは、タッチ対象範囲において、希望のフォーカス位置を正確に指定することができる。そして、デジタルカメラ100は、操作リモコン200におけるユーザ操作に応じて、ユーザが希望するフォーカス位置を正確に特定することができ、動画撮影中も俊敏にかつ安定したフォーカス制御を行うことができる。 As described above, in the first embodiment, the touch target range is associated with the focus target range, which is a part of the shooting range, which is narrower than the entire shooting range. Further, the AF position is determined based on the absolute position touched on the touch panel. Therefore, even if the touch panel of the operation remote controller 200 has a relatively small area, the user can accurately specify the desired focus position in the touch target range. Then, the digital camera 100 can accurately specify the focus position desired by the user according to the user operation on the operation remote controller 200, and can perform agile and stable focus control even during moving image shooting.

また、AF方式がコントラストAFの場合も、位相差AFの場合も、それぞれの方式に対応して設定されたフォーカス対象範囲と、タッチ対象範囲とが対応付けられるため、正確なフォーカス位置の指定を行うことができる。また、操作リモコン200のタッチパネル上でタッチされた絶対位置に基づいてフォーカス位置が決定されるため、デジタルカメラ100は、動画の撮影中も俊敏にかつ安定したフォーカス制御を行うことができる。 Further, regardless of whether the AF method is contrast AF or phase difference AF, the focus target range set corresponding to each method is associated with the touch target range, so that the accurate focus position can be specified. It can be carried out. Further, since the focus position is determined based on the absolute position touched on the touch panel of the operation remote controller 200, the digital camera 100 can perform agile and stable focus control even during the shooting of a moving image.

さらに、本実施形態においては、撮影範囲の全体を示す撮像画像(映像)を表示するデジタルカメラ100の表示部28と、フォーカス位置の指定のためのユーザ操作を受け付ける、操作リモコン200のタッチパネルとが異なる位置に設けられている。このため、表示部28を用いた映像全体の視認と、操作リモコン200のタッチパネルにおける正確なフォーカス位置指定を両立することができる。 Further, in the present embodiment, the display unit 28 of the digital camera 100 that displays the captured image (video) showing the entire shooting range, and the touch panel of the operation remote controller 200 that accepts the user operation for designating the focus position. It is installed in different positions. Therefore, it is possible to both visually recognize the entire image using the display unit 28 and accurately specify the focus position on the touch panel of the operation remote controller 200.

なお、第1の実施形態の変更例としては、フォーカス位置の指定を受け付けるタッチ検知面と、撮像範囲の全体の撮像画像を表示する表示部は異なる位置に設けられたものであればよく、それぞれの具体的な構成は、実施形態に限定されるものではない。 As a modification of the first embodiment, the touch detection surface that receives the designation of the focus position and the display unit that displays the captured image of the entire imaging range may be provided at different positions. The specific configuration of is not limited to the embodiment.

例えば、デジタルカメラ100の接眼ファインダ16の表示部にライブビュー表示を行うものとし、デジタルカメラ100の表示部28と一体に設けられたタッチパネルをAF位置を指定するためのUIとして利用することとしてもよい。すなわち、撮影画像を表示する表示部とタッチ操作を受け付けるタッチ検知面は同一装置内の異なる位置に配置される。なお、接眼ファインダ16は電子ビューファインダであるものとする。この場合、接眼ファインダ16の表示部に撮像画像(ライブビュー)が表示される。さらに、図4を参照しつつ説明した制御処理において、表示部28に表示するよう制御するものとして説明されたフォーカス対象範囲の枠画像やAF位置を示す枠画像は、接眼ファインダ16内の表示部において、撮影画像上に重畳表示される。 For example, live view display is performed on the display unit of the eyepiece finder 16 of the digital camera 100, and the touch panel provided integrally with the display unit 28 of the digital camera 100 is used as a UI for designating the AF position. Good. That is, the display unit that displays the captured image and the touch detection surface that receives the touch operation are arranged at different positions in the same device. The eyepiece finder 16 is assumed to be an electronic viewfinder. In this case, the captured image (live view) is displayed on the display unit of the eyepiece finder 16. Further, in the control process described with reference to FIG. 4, the frame image of the focus target range and the frame image showing the AF position, which are described as being controlled to be displayed on the display unit 28, are displayed in the eyepiece finder 16. Is superimposed and displayed on the captured image.

この場合、デジタルカメラ100は、図4を参照しつつ説明した制御処理を行うが、本変更例においては、実施形態において表示部28に表示した表示内容を接眼ファインダ16の表示部に表示するよう制御する。さらに、デジタルカメラ100は、図7を参照しつつ説明した制御処理に相当する処理を行う。ただし、本変更例においては、デジタルカメラ100は、実施形態において操作リモコン200の表示部128に表示した表示内容(ガイド画面)をデジタルカメラ100の表示部28に表示するよう制御する。さらに、本変更例においては、操作リモコン200は不要となる。 In this case, the digital camera 100 performs the control process described with reference to FIG. 4, but in this modification, the display content displayed on the display unit 28 in the embodiment is displayed on the display unit of the eyepiece finder 16. Control. Further, the digital camera 100 performs a process corresponding to the control process described with reference to FIG. 7. However, in this modification, the digital camera 100 controls the display content (guide screen) displayed on the display unit 128 of the operation remote controller 200 in the embodiment so as to be displayed on the display unit 28 of the digital camera 100. Further, in this modification, the operation remote controller 200 is not required.

また、接眼ファインダ16は光学ファインダであってもよい。この場合には、ユーザは、接眼ファインダ16において光学像を視認可能であるため、接眼ファインダ16内の表示部に撮像画像は表示されない。ユーザは、光学像と、接眼ファインダ16内の表示部に表示された枠画像を視認することとなり、すなわち図5、図6に示したのと同様の表示を視認することができる。 Further, the eyepiece finder 16 may be an optical finder. In this case, since the user can visually recognize the optical image in the eyepiece finder 16, the captured image is not displayed on the display unit in the eyepiece finder 16. The user can visually recognize the optical image and the frame image displayed on the display unit in the eyepiece finder 16, that is, can visually recognize the same display as shown in FIGS. 5 and 6.

また、例えば、デジタルカメラ100の接眼ファインダ16の表示部にライブビュー表示を行うものとし、AF位置を指定するためのUIとしては、実施形態において説明したのと同様に、操作リモコン200のタッチパネルを利用することとしてもよい。この場合、操作リモコン200は、図7を参照しつつ説明した制御処理を行う。また、デジタルカメラ100は、図4を参照しつつ説明した制御処理を行うが、実施形態において表示部28に表示した表示内容を接眼ファインダ16の表示部に表示するよう制御する。 Further, for example, live view display is performed on the display unit of the eyepiece finder 16 of the digital camera 100, and as the UI for designating the AF position, the touch panel of the operation remote controller 200 is used as described in the embodiment. You may use it. In this case, the operation remote controller 200 performs the control process described with reference to FIG. 7. Further, the digital camera 100 performs the control process described with reference to FIG. 4, but controls the display contents displayed on the display unit 28 in the embodiment so as to be displayed on the display unit of the eyepiece finder 16.

<第2の実施形態>
次に、第2の実施形態に係るデジタルカメラ100及び操作リモコン200について、第1の実施形態に係るデジタルカメラ100及び操作リモコン200と異なる点について説明する。図9は、第2の実施形態に係るデジタルカメラ100による制御処理を示すフローチャートである。なお、図9に示す制御処理の各処理のうち、図4を参照しつつ説明した第1の実施形態に係るデジタルカメラ100の制御処理の各処理と同じ処理には、同じ番号を付している。
<Second embodiment>
Next, the differences between the digital camera 100 and the operation remote controller 200 according to the second embodiment and the digital camera 100 and the operation remote controller 200 according to the first embodiment will be described. FIG. 9 is a flowchart showing a control process by the digital camera 100 according to the second embodiment. Of the control processes shown in FIG. 9, the same processes as the control processes of the digital camera 100 according to the first embodiment described with reference to FIG. 4 are assigned the same numbers. There is.

S901において、システム制御部50は、外部I/F93を介して操作リモコン200からフォーカス対象範囲の変更要求を受信したか否かを判定する。システム制御部50は、真であれば(S901でyes)、処理をS902へ進める。システム制御部50は、偽であれば(S901でno)、処理をS406へ進める。S902において、システム制御部50は、S901において受信した変更要求に応じた範囲を新たなフォーカス対象範囲として決定し、決定した範囲を新たなフォーカス対象範囲として設定する。なお、詳細については後述するが、フォーカス対象範囲の変更要求は、ユーザ操作に応じた範囲にフォーカス対象範囲を変更することを指示する情報である。そして、S902の処理は、ユーザ操作に応じたフォーカス対象範囲を決定する決定処理の一例である。 In S901, the system control unit 50 determines whether or not a request for changing the focus target range has been received from the operation remote controller 200 via the external I / F 93. If true (yes in S901), the system control unit 50 advances the process to S902. If it is false (no in S901), the system control unit 50 advances the process to S406. In S902, the system control unit 50 determines a range corresponding to the change request received in S901 as a new focus target range, and sets the determined range as a new focus target range. Although the details will be described later, the request for changing the focus target range is information instructing to change the focus target range to a range according to the user operation. The process of S902 is an example of a determination process for determining a focus target range according to a user operation.

次に、S903において、システム制御部50は、S902において設定されたフォーカス対象範囲を示す枠画像を、表示部28において映像上に重畳表示するよう制御する。これにより、表示部28において、図5(a)、(b)に示すように、映像500上に枠画像510、520が重畳表示される。S901の処理において設定されるフォーカス対象範囲の位置はユーザ操作に応じて変更されるため、枠画像の表示位置は、表示部28の中央位置以外の位置になり得る。S903の処理の後、システム制御部50は、処理をS406へ進める。 Next, in S903, the system control unit 50 controls the display unit 28 to superimpose and display the frame image indicating the focus target range set in S902. As a result, as shown in FIGS. 5A and 5B, the frame images 510 and 520 are superimposed and displayed on the image 500 on the display unit 28. Since the position of the focus target range set in the process of S901 is changed according to the user operation, the display position of the frame image may be a position other than the center position of the display unit 28. After the processing of S903, the system control unit 50 advances the processing to S406.

図10は、第2の実施形態に係る操作リモコン200による制御処理を示すフローチャートである。なお、図10に示す制御処理の各処理のうち、図7を参照しつつ説明した第1の実施形態に係る操作リモコン200の制御処理の各処理と同じ処理には、同じ番号を付している。また、図11は、図10に示す制御処理により表示部128に表示される表示画面例を示す図である。第1の実施形態と同様、表示画面には、撮像部22により撮像された映像は表示されないものとする。 FIG. 10 is a flowchart showing a control process by the operation remote controller 200 according to the second embodiment. Of the control processes shown in FIG. 10, the same processes as the control processes of the operation remote controller 200 according to the first embodiment described with reference to FIG. 7 are assigned the same numbers. There is. Further, FIG. 11 is a diagram showing an example of a display screen displayed on the display unit 128 by the control process shown in FIG. As in the first embodiment, it is assumed that the image captured by the imaging unit 22 is not displayed on the display screen.

S1001において、システム制御部150は、表示部128にガイド画面を表示するよう制御する。図11(a)は、ガイド画面1100の表示例を示す図である。1101は、操作ボタン171のひとつに、フォーカス対象範囲をより狭い範囲に変更する操作が割り当てられていることを示すガイド表示である。1102は、操作ボタン171のひとつに、フォーカス対象範囲をより広い範囲に変更する操作が割り当てられていることを示すガイド表示である。1103は、現在のAF位置が画面中央になるようにフォーカス対象範囲を移動する操作が割り当てられていることを示すガイド表示である。1104は、操作部170に含まれるタッチパネルをタップすることで、タップした位置に相当する顔を選択できることを表すガイド表示である。1110は、映像全体に対するフォーカス対象範囲の位置を示すレーダ表示である。1111は、フォーカス対象範囲を示す枠画像である。これらの表示要素によって、ユーザはタッチパネルでどのような操作を行えばよいかを理解することができる。 In S1001, the system control unit 150 controls the display unit 128 to display the guide screen. FIG. 11A is a diagram showing a display example of the guide screen 1100. Reference numeral 1101 is a guide display indicating that one of the operation buttons 171 is assigned an operation for changing the focus target range to a narrower range. Reference numeral 1102 is a guide display indicating that one of the operation buttons 171 is assigned an operation for changing the focus target range to a wider range. Reference numeral 1103 is a guide display indicating that an operation of moving the focus target range is assigned so that the current AF position is at the center of the screen. Reference numeral 1104 is a guide display indicating that the face corresponding to the tapped position can be selected by tapping the touch panel included in the operation unit 170. Reference numeral 1110 is a radar display indicating the position of the focus target range with respect to the entire image. 1111 is a frame image showing a focus target range. With these display elements, the user can understand what kind of operation should be performed on the touch panel.

図9に戻り、S1001の後、S1002において、システム制御部150は、操作ボタン171によってフォーカス可能範囲の変更操作がされたか否かを判定する。システム制御部150は、真であれば(S1002でyes)、処理をS1004へ進める。システム制御部150は、偽であれば(S1002でno)、処理をS1003へ進める。S1003において、システム制御部150は、操作部170に含まれるタッチパネルがドラッグされたか否かを判定する。システム制御部150は、真であれば(S1003でyes)、処理をS1004へ進める。システム制御部150は、偽であれば(S1003でno)、処理をS704へ進める。 Returning to FIG. 9, after S1001, in S1002, the system control unit 150 determines whether or not the focusable range has been changed by the operation button 171. If true (yes in S1002), the system control unit 150 advances the process to S1004. If it is false (no in S1002), the system control unit 150 advances the process to S1003. In S1003, the system control unit 150 determines whether or not the touch panel included in the operation unit 170 has been dragged. If true (yes in S1003), the system control unit 150 advances the process to S1004. If it is false (no in S1003), the system control unit 150 advances the process to S704.

S1004において、システム制御部150は、フォーカス対象範囲の変更要求を、外部I/F193を介してデジタルカメラ100へ送信し、その後処理をS1001へ進める。システム制御部150は、S1002で操作ボタン171が操作された場合には、フォーカス対象範囲の拡大又は縮小の変更要求を送信する。また、システム制御部150は、S1003でドラッグ操作が行われた場合には、ドラッグ方向とドラッグ量に応じた変更要求を送信する。 In S1004, the system control unit 150 transmits a request for changing the focus target range to the digital camera 100 via the external I / F 193, and then proceeds to the process to S1001. When the operation button 171 is operated in S1002, the system control unit 150 transmits a request for changing the expansion or contraction of the focus target range. Further, when the drag operation is performed in S1003, the system control unit 150 transmits a change request according to the drag direction and the drag amount.

S704以降の処理は、第1の実施形態において説明したのと同様である。S705の処理により、表示部128の画面表示は、図11(a)から図11(b)の状態に変化する。図11(b)に示すように、ガイド画面1100のタッチ位置に、タッチ位置を示す指標となる枠画像1120が表示される。さらに、本実施形態においては、レーダ表示1110中に、タッチ位置を示す枠画像1112が表示される。枠画像1120の表示により、ユーザは、タップ操作が受け付けられたことを確認することができる。 The processing after S704 is the same as that described in the first embodiment. By the process of S705, the screen display of the display unit 128 changes from the state of FIG. 11A to the state of FIG. 11B. As shown in FIG. 11B, a frame image 1120 as an index indicating the touch position is displayed at the touch position of the guide screen 1100. Further, in the present embodiment, the frame image 1112 showing the touch position is displayed in the radar display 1110. By displaying the frame image 1120, the user can confirm that the tap operation has been accepted.

また、図11(b)の画面表示中に、ガイド1103に対応するボタン操作が行われると、システム制御部150は、ボタン操作に応じたフォーカス対象範囲の変更要求を送信する。そして、システム制御部150は、図11(c)に示すように、枠画像1120の表示位置を表示部128の中央に移動する。システム制御部150は、さらに、枠画像1120の移動に対応し、レーダ表示1110中のフォーカス対象範囲を示す枠画像1120とタッチ位置を示す枠画像1112の表示位置も移動する。すなわち、システム制御部150は、フォーカス対象範囲の枠画像1120を、タッチ位置を中心とする位置に変更する。なお、第2の実施形態に係るデジタルカメラ100及び操作リモコン200のこれ以外の構成及び処理は、第1の実施形態に係るデジタルカメラ100及び操作リモコン200の構成及び処理と同様である。 Further, when the button operation corresponding to the guide 1103 is performed during the screen display of FIG. 11B, the system control unit 150 transmits a request for changing the focus target range according to the button operation. Then, as shown in FIG. 11C, the system control unit 150 moves the display position of the frame image 1120 to the center of the display unit 128. The system control unit 150 further moves the display positions of the frame image 1120 indicating the focus target range and the frame image 1112 indicating the touch position in the radar display 1110 in response to the movement of the frame image 1120. That is, the system control unit 150 changes the frame image 1120 in the focus target range to a position centered on the touch position. The other configurations and processes of the digital camera 100 and the operation remote controller 200 according to the second embodiment are the same as the configurations and processes of the digital camera 100 and the operation remote controller 200 according to the first embodiment.

以上のように、第2の実施形態においては、第1の実施形態において説明したのと同様に、操作リモコン200のタッチパネルが比較的面積の小さいものであっても、ユーザは、タッチ対象範囲において、希望のフォーカス位置を正確に指定することができる。そして、デジタルカメラ100は、操作リモコン200におけるユーザ操作に応じて、ユーザが希望するフォーカス位置を正確に特定することができ、動画撮影中も俊敏にかつ安定したフォーカス制御を行うことができる。さらに、第2の実施形態においては、操作リモコン200の制御処理により、操作ボタン171に割り当てられた拡大、縮小、センタリングの3つの操作を組み合わせることにより、容易かつ正確に、AF枠の微調整を行うことができる。また、デジタルカメラ100は、操作リモコン200におけるユーザ操作に応じて、フォーカス対象範囲を決定することができる。 As described above, in the second embodiment, as described in the first embodiment, even if the touch panel of the operation remote controller 200 has a relatively small area, the user can use the touch target range. , The desired focus position can be specified accurately. Then, the digital camera 100 can accurately specify the focus position desired by the user according to the user operation on the operation remote controller 200, and can perform agile and stable focus control even during moving image shooting. Further, in the second embodiment, the AF frame can be finely adjusted easily and accurately by combining the three operations of enlargement, reduction, and centering assigned to the operation buttons 171 by the control process of the operation remote controller 200. It can be carried out. Further, the digital camera 100 can determine the focus target range according to the user operation on the operation remote controller 200.

第2の実施形態の第1の変更例としては、デジタルカメラ100は、特定の顔(被写体)の追尾を行い、顔AFを行うこととしてもよい。さらにこの場合において、実施形態において説明した、フォーカス対象範囲を、タッチ位置を中心とした範囲に変更する処理を、検出された顔の位置に応じて随時自動で行うこととしてもよい。すなわち、デジタルカメラ100は、特定の被写体を追尾し、追尾結果に基づいてフォーカス対象範囲を決定してもよい。これにより、顔の位置が映像内で変化する状況であっても、顔の周りの領域選択を容易かつ正確に行うことができる。 As a first modification of the second embodiment, the digital camera 100 may track a specific face (subject) and perform face AF. Further, in this case, the process of changing the focus target range to the range centered on the touch position described in the embodiment may be automatically performed at any time according to the detected face position. That is, the digital camera 100 may track a specific subject and determine the focus target range based on the tracking result. As a result, even in a situation where the position of the face changes in the image, the area around the face can be easily and accurately selected.

第2の変更例としては、第1の実施形態の変更例において説明したのと同様に、フォーカス位置の指定を受け付けるタッチ検知面と、撮像範囲の全体の撮像画像を表示する表示部は異なる位置に設けられたものであればよい。 As a second modification, as described in the modification of the first embodiment, the touch detection surface that accepts the designation of the focus position and the display unit that displays the captured image of the entire imaging range are at different positions. It may be the one provided in.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Some of the above-described embodiments may be combined as appropriate.

この発明はフォーカス制御以外の機能にも利用することができる。例えば、本実施例のフローによって決定した枠位置や選択した顔情報をAE処理やWB処理に利用してもよく、この場合も本発明の一実施形態に含まれる。 The present invention can be used for functions other than focus control. For example, the frame position determined by the flow of the present embodiment and the selected face information may be used for the AE processing and the WB processing, and this case is also included in one embodiment of the present invention.

また、デジタルカメラ100の制御処理の一部の処理を操作リモコン200が行ったり、操作リモコン200の制御処理の一部をデジタルカメラ100が行ったりしてもよい。例えば、S407の位置変換処理は操作リモコン200のシステム制御部150が行うこととしてもよい。この場合、システム制御部150は、S706において、タップされた位置の座標値に替えて、位置変換後の座標値を送信する。 Further, the operation remote controller 200 may perform a part of the control process of the digital camera 100, or the digital camera 100 may perform a part of the control process of the operation remote controller 200. For example, the position conversion process of S407 may be performed by the system control unit 150 of the operation remote controller 200. In this case, in S706, the system control unit 150 transmits the coordinate value after the position conversion instead of the coordinate value of the tapped position.

また、デジタルカメラ100と操作リモコン200は一つの筺体内に組み込まれた一体の装置であってもよい。この場合、外部I/F93及び外部I/F193は装置内部のバス接続に代替される。また、システム制御部50とシステム制御部150のように等価なモジュール同士は、一つのモジュールに統合可能である。このような構成であっても、やはり本実施例と等価な効果を得ることができる。 Further, the digital camera 100 and the operation remote controller 200 may be an integrated device incorporated in one housing. In this case, the external I / F 93 and the external I / F 193 are replaced by the bus connection inside the device. Further, equivalent modules such as the system control unit 50 and the system control unit 150 can be integrated into one module. Even with such a configuration, the same effect as that of this embodiment can be obtained.

また、他の例としては、デジタルカメラ100と操作リモコン200が一つの筺体内に組み込まれた一体の装置であって、さらに別体の操作リモコン200に相当するリモコンが接続可能であってもよい。このようにすれば、カメラマンとアシスタントがチームで撮影を行う場合に、デジタルカメラ100を扱うカメラマンと、別体の操作リモコン200を扱うアシスタントの両方が同じ手順でAF制御を行うことができる。 Further, as another example, the digital camera 100 and the operation remote controller 200 may be an integrated device incorporated in one housing, and a remote controller corresponding to another operation remote controller 200 may be connected. .. In this way, when the cameraman and the assistant take pictures as a team, both the cameraman who handles the digital camera 100 and the assistant who handles the separate operation remote controller 200 can perform AF control in the same procedure.

システム制御部50及びシステム制御部150が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 The various controls described above as those performed by the system control unit 50 and the system control unit 150 may be performed by one hardware, or the entire device may be controlled by sharing the processing among a plurality of hardware. You may.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明をデジタルカメラ100及び操作リモコン200に適用した場合を例にして説明した。ただし、これはこの例に限定されず、撮像画像を表示する表示手段と、ユーザ操作を受け付けるタッチパネルを介したユーザ操作を受け付ける手段とを有する機器であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置に適用可能である。さらに、本発明は、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置等に適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the digital camera 100 and the operation remote controller 200 has been described as an example. However, this is not limited to this example, and can be applied to any device having a display means for displaying a captured image and a means for receiving a user operation via a touch panel that accepts the user operation. That is, the present invention is applicable to a personal computer, a PDA, a mobile phone terminal, a portable image viewer, and a printer device including a display. Further, the present invention can be applied to a home appliance device including a digital photo frame, a music player, a game machine, an electronic book reader, a tablet terminal, a smartphone, a projection device, a display, an in-vehicle device, and the like.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

50 システム制御部
100 デジタルカメラ
150 システム制御部
200 操作リモコン
50 System control unit 100 Digital camera 150 System control unit 200 Operation remote control

Claims (16)

撮影手段による撮影範囲の全体よりも狭い一部の範囲であるフォーカス対象範囲に含まれる被写体を基準として、フォーカスに関する制御を行うフォーカス制御手段と、
タッチ検知面に対するタッチ操作を検知するタッチ検知手段と、
前記タッチ検知面の所定の範囲内における、前記タッチ操作が行われたタッチ位置を、前記所定の範囲とタッチ位置の位置関係に対応した、フォーカス対象範囲における位置に変換する位置変換手段と
コントラストAF方式に設定されている場合には、前記撮影範囲の全体よりも狭い一部の範囲である第1の範囲を前記フォーカス対象範囲として設定し、位相差AF方式に設定されている場合に、前記第1の範囲よりも狭い第2の範囲を前記フォーカス対象範囲として設定する範囲設定手段とを有し、
前記位置変換手段は、前記フォーカス対象範囲において、前記タッチ検知面の同じ位置にタッチ操作がされても、前記位相差AF方式に設定された場合の方が前記コントラストAF方式に設定された場合よりも前記撮影範囲のより中心に近い位置に変換し、
前記フォーカス制御手段は、前記位置変換手段により得られたフォーカス対象範囲内の位置に基づいて、フォーカスに関する制御を行うことを特徴とするフォーカス制御装置。
Focus control means that controls the focus based on the subject included in the focus target range, which is a part of the range narrower than the entire shooting range by the shooting means.
Touch detection means that detects touch operations on the touch detection surface,
A position changing means for converting the touch position where the touch operation is performed within a predetermined range of the touch detection surface into a position in the focus target range corresponding to the positional relationship between the predetermined range and the touch position .
When the contrast AF method is set, the first range, which is a part of the shooting range narrower than the entire shooting range, is set as the focus target range, and the phase difference AF method is set. It has a range setting means for setting a second range narrower than the first range as the focus target range.
Even if the position changing means is touch-operated at the same position on the touch detection surface in the focus target range, the case where the phase difference AF method is set is better than the case where the contrast AF method is set. Is also converted to a position closer to the center of the shooting range,
The focus control means is a focus control device that controls focus based on a position within a focus target range obtained by the position conversion means.
前記撮影範囲の全体を示す撮像画像を表示する表示手段をさらに有し、
前記タッチ検知面は、前記表示手段と異なる位置に設けられていることを特徴とする請求項1に記載のフォーカス制御装置。
Further, it has a display means for displaying an captured image showing the entire shooting range.
The focus control device according to claim 1, wherein the touch detection surface is provided at a position different from that of the display means.
前記表示手段に表示された前記撮像画像の、前記位置変換手段により得られた前記フォーカス対象範囲内の位置に、指標を重畳表示するよう制御する表示制御手段をさらに有することを特徴とする請求項2に記載のフォーカス制御装置。 The claim is characterized in that it further includes a display control means for controlling to superimpose and display an index on a position within the focus target range obtained by the position conversion means of the captured image displayed on the display means. 2. The focus control device according to 2. 前記表示手段において、前記撮像画像とともに、前記フォーカス対象範囲を示す表示を行うよう制御する表示制御手段をさらに有することを特徴とする請求項2又は3に記載のフォーカス制御装置。 The focus control device according to claim 2 or 3, wherein the display means further includes a display control means for controlling the display to indicate the focus target range together with the captured image. ユーザが前記撮影範囲の光学像を視認可能なファインダをさらに有し、
前記タッチ検知面は、前記ファインダと異なる位置に設けられていることを特徴とする請求項1に記載のフォーカス制御装置。
Further having a finder in which the user can visually recognize the optical image in the shooting range,
The focus control device according to claim 1, wherein the touch detection surface is provided at a position different from that of the finder.
前記ファインダに対応して設けられた表示手段において、前記位置変換手段により得られた前記フォーカス対象範囲内の位置に、指標を表示するよう制御する表示制御手段をさらに有することを特徴とする請求項5に記載のフォーカス制御装置。 The claim is characterized in that the display means provided corresponding to the finder further includes a display control means for controlling the display of an index at a position within the focus target range obtained by the position conversion means. 5. The focus control device according to 5. 前記表示制御手段は、前記表示手段において前記フォーカス対象範囲を示す表示をするよう制御することを特徴とする請求項6に記載のフォーカス制御装置。 The focus control device according to claim 6, wherein the display control means controls the display means to display a display indicating the focus target range. 前記位相差AFは、撮像面位相差AFであることを特徴とする請求項に記載のフォーカス制御装置。 The focus control device according to claim 1 , wherein the phase difference AF is an imaging surface phase difference AF. 前記フォーカス対象範囲をユーザ操作に応じて決定する決定手段をさらに有することを特徴とする請求項1乃至の何れか1項に記載のフォーカス制御装置。 The focus control device according to any one of claims 1 to 8 , further comprising a determination means for determining the focus target range according to a user operation. 前記撮影手段により撮影された撮影画像に基づいて、特定の被写体を追尾する追尾手段と、
前記追尾手段による追尾結果に基づいて、前記フォーカス対象範囲を決定する決定手段をさらに有することを特徴とする請求項1乃至の何れか1項に記載のフォーカス制御装置。
A tracking means that tracks a specific subject based on a captured image taken by the photographing means, and
The focus control device according to any one of claims 1 to 8 , further comprising a determining means for determining the focus target range based on the tracking result by the tracking means.
前記所定の範囲は、前記タッチ検知面においてタッチ検知が可能な範囲であることを特徴とする請求項1乃至10の何れか1項に記載のフォーカス制御装置。 The focus control device according to any one of claims 1 to 10 , wherein the predetermined range is a range in which touch detection is possible on the touch detection surface. 前記所定の範囲は、前記タッチ検知面において予め設定された、前記タッチ検知面の一部の範囲であることを特徴とする請求項1乃至10の何れか1項に記載のフォーカス制御装置。 The focus control device according to any one of claims 1 to 10 , wherein the predetermined range is a part of the touch detection surface preset in the touch detection surface. 前記フォーカス制御手段によるAFの成否を通知する通知手段をさらに有することを特徴とする請求項1乃至12の何れか1項に記載のフォーカス制御装置。 The focus control device according to any one of claims 1 to 12 , further comprising a notification means for notifying the success or failure of AF by the focus control means. フォーカス制御装置の制御方法であって、
撮影手段による撮影範囲の全体よりも狭い一部の範囲であるフォーカス対象範囲に含まれる被写体を基準として、フォーカスに関する制御を行うフォーカス制御ステップと、
タッチ検知面に対するタッチ操作を検知するタッチ検知ステップと、
前記タッチ検知面の所定の範囲内における、前記タッチ操作が行われたタッチ位置を、前記所定の範囲とタッチ位置の位置関係に対応した、フォーカス対象範囲における位置に変換する位置変換ステップと
コントラストAF方式に設定されている場合には、前記撮影範囲の全体よりも狭い一部の範囲である第1の範囲を前記フォーカス対象範囲として設定し、位相差AF方式に設定されている場合に、前記第1の範囲よりも狭い第2の範囲を前記フォーカス対象範囲として設定する範囲設定ステップとを含み、
前記位置変換ステップにおいては、前記フォーカス対象範囲において、前記タッチ検知面の同じ位置にタッチ操作がされても、前記位相差AF方式に設定された場合の方が前記コントラストAF方式に設定された場合よりも前記撮影範囲のより中心に近い位置に変換するようにし、
前記フォーカス制御ステップにおいて、前記位置変換ステップにおいて得られた前記フォーカス対象範囲内の位置に基づいて、フォーカスに関する制御を行うことを特徴とするフォーカス制御装置の制御方法。
It is a control method of the focus control device.
A focus control step that controls the focus based on the subject included in the focus target range, which is a part of the shooting range narrowed by the shooting means.
A touch detection step that detects a touch operation on the touch detection surface,
A position conversion step of converting the touch position where the touch operation is performed within a predetermined range of the touch detection surface into a position in the focus target range corresponding to the positional relationship between the predetermined range and the touch position .
When the contrast AF method is set, the first range, which is a part of the shooting range narrower than the entire shooting range, is set as the focus target range, and the phase difference AF method is set. , Including a range setting step of setting a second range narrower than the first range as the focus target range.
In the position conversion step, even if a touch operation is performed at the same position on the touch detection surface in the focus target range, the case where the phase difference AF method is set is the case where the contrast AF method is set. Convert to a position closer to the center of the shooting range than
A control method of a focus control device, characterized in that, in the focus control step, control related to focus is performed based on a position within the focus target range obtained in the position conversion step.
コンピュータを、請求項1乃至13の何れか1項に記載されたフォーカス制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the focus control device according to any one of claims 1 to 13. コンピュータを、請求項1乃至13の何れか1項に記載されたフォーカス制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the focus control device according to any one of claims 1 to 13.
JP2016220533A 2016-11-11 2016-11-11 Focus control device, control method and program of focus control device Expired - Fee Related JP6851788B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016220533A JP6851788B2 (en) 2016-11-11 2016-11-11 Focus control device, control method and program of focus control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016220533A JP6851788B2 (en) 2016-11-11 2016-11-11 Focus control device, control method and program of focus control device

Publications (2)

Publication Number Publication Date
JP2018077424A JP2018077424A (en) 2018-05-17
JP6851788B2 true JP6851788B2 (en) 2021-03-31

Family

ID=62149246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016220533A Expired - Fee Related JP6851788B2 (en) 2016-11-11 2016-11-11 Focus control device, control method and program of focus control device

Country Status (1)

Country Link
JP (1) JP6851788B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011199560A (en) * 2010-03-19 2011-10-06 Nec Corp Cellular phone and scale display method
JP2012147100A (en) * 2011-01-07 2012-08-02 Nikon Corp Imaging device
JP5889070B2 (en) * 2012-03-23 2016-03-22 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP2014228629A (en) * 2013-05-21 2014-12-08 キヤノン株式会社 Imaging apparatus, control method and program thereof, and storage medium
JP6415286B2 (en) * 2014-12-08 2018-10-31 キヤノン株式会社 Imaging device, control method thereof, and program

Also Published As

Publication number Publication date
JP2018077424A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6765956B2 (en) Imaging control device and its control method
CN108322641B (en) Image pickup control apparatus, control method, and storage medium
JP2018125612A (en) Imaging apparatus and control method thereof
WO2018021165A4 (en) Electronic device and method for controlling same
JP2017123515A (en) Electronic apparatus and control method therefor
US9992405B2 (en) Image capture control apparatus and control method of the same
JP2019114922A (en) Electronic equipment, control method and program thereof
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
US10904442B2 (en) Image sensing apparatus with improved user operability when performing an enlarged display of a live view image and control method of image sensing apparatus
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP6071616B2 (en) Imaging apparatus, control method therefor, program, and storage medium
CN112015266A (en) Electronic device, control method of electronic device, and computer-readable storage medium
JP6808480B2 (en) Imaging control device and its control method
JP6611575B2 (en) Imaging control apparatus and control method thereof
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP2021092958A (en) Electronic apparatus, control method thereof, program, and storage medium
JP2020182185A (en) Imaging apparatus and display control method
JP6701027B2 (en) Imaging device, control method thereof, and program
JP7225004B2 (en) Electronic device and its control method
JP6851788B2 (en) Focus control device, control method and program of focus control device
JP6708516B2 (en) Electronic device, control method thereof, and program
JP6562832B2 (en) Electronic device and control method thereof
US20240397191A1 (en) Image capture apparatus, control method for the same, and non-transitory computer-readable storage medium
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP6971709B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210310

R151 Written notification of patent or utility model registration

Ref document number: 6851788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees