[go: up one dir, main page]

JP2014107750A - Photographing apparatus - Google Patents

Photographing apparatus Download PDF

Info

Publication number
JP2014107750A
JP2014107750A JP2012260115A JP2012260115A JP2014107750A JP 2014107750 A JP2014107750 A JP 2014107750A JP 2012260115 A JP2012260115 A JP 2012260115A JP 2012260115 A JP2012260115 A JP 2012260115A JP 2014107750 A JP2014107750 A JP 2014107750A
Authority
JP
Japan
Prior art keywords
subject
unit
automatic
frame information
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012260115A
Other languages
Japanese (ja)
Inventor
Akifumi Kimura
亮史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2012260115A priority Critical patent/JP2014107750A/en
Publication of JP2014107750A publication Critical patent/JP2014107750A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To securely photograph a moving subject at a desired position and at a desired timing by a simple operation, as during a moving picture shooting.SOLUTION: A photographing apparatus comprises: an imaging part that images a subject; a frame information acquisition part that acquires frame information about an automatic photographing position when the subject is automatically photographed, based on a user's operation; an automatic photographing position determination part that determines that the subject has reached the automatic photographing position, by making a comparison between information about the position of the subject during the taking of a moving picture of the subject by the imaging part and the frame information; and a control part that takes a still picture of the subject by controlling the imaging part when the automatic photographing position determination part determines that the subject has reached the automatic photographing position.

Description

本発明は、静止画及び動画の撮影が可能なデジタルカメラ等の撮影機器に関する。   The present invention relates to a photographing device such as a digital camera capable of photographing a still image and a moving image.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)が普及している。この種の撮影機器においては表示部を有して、撮影画像を表示する機能を有するものもある。また、表示部にメニュー画面を表示して、撮影機器の操作を容易にしたものもある。更に、表示部にタッチパネルを配置して、タッチパネルに対するタッチ操作によって撮影機器の操作が可能なものもある。   In recent years, portable devices with a photographing function (photographing devices) such as digital cameras have become widespread. Some types of photographing apparatuses have a display unit and a function of displaying a photographed image. Some display screens display a menu screen to facilitate operation of the photographing device. In addition, there is a display device in which a touch panel is arranged so that the photographing apparatus can be operated by a touch operation on the touch panel.

従来、撮影機器により移動する被写体を撮影することがある。例えば、徒競走等において、希望する被写体を希望する位置において撮影しようとすることが考えられる。しかしながら、移動する被写体を所望のタイミングで撮影するためには、撮影ボタンの押下に要する時間や実際に撮像が行われるまでのタイムラグを考慮して撮影を行う必要があり、必ずしも希望する被写体を希望するタイミングで撮影することができない場合がある。特に、移動する被写体の動きに合わせて撮影範囲を変化させながら動画撮影を行っている間の所望のタイミングで静止画撮影を行おうとする場合には、フレーミングの困難さもあって、適切な撮影タイミングでの撮影は極めて困難である。   Conventionally, a moving subject may be photographed by a photographing device. For example, it is conceivable to take a picture of a desired subject at a desired position in a race run or the like. However, in order to shoot a moving subject at a desired timing, it is necessary to shoot in consideration of the time required to press the shoot button and the time lag until actual shooting is performed. You may not be able to shoot at the timing. In particular, if you want to shoot still images at a desired timing while shooting a movie while changing the shooting range according to the movement of the moving subject, there is a difficulty in framing, so the appropriate shooting timing Shooting with is extremely difficult.

これに対し、特許文献1においては、撮像視野内に構図線を設定し、設定した構図線と移動体の位置が一致すると撮影を行うことで、移動体を確実に撮影する技術が提案されている。   On the other hand, Patent Document 1 proposes a technique for reliably photographing a moving body by setting a composition line in the imaging field of view and photographing when the set composition line matches the position of the moving body. Yes.

特開2009−77143号公報     JP 2009-77143 A

しかしながら、特許文献1の発明は、メニューや操作ボタンを駆使して構図線を設定するものであり、構図線の変更操作等は容易ではなく、構図線の設定のためにシャッターチャンスを逃すことがあるか又は、構図線に束縛されて、必ずしも撮影者が希望する撮影位置やタイミングで撮影を行うことができるとは限らないという問題があった。また、被写体の動きに合わせて撮影範囲を変化させながら動画撮影を行う場合においては、被写体が撮像範囲内を比較的大きく移動することがあり、構図線を採用したとしても、被写体を希望する撮影位置及びタイミングで自動的に静止画撮影することは極めて困難である。   However, the invention of Patent Document 1 sets a composition line by making full use of menus and operation buttons, and it is not easy to change the composition line or the like, and it is possible to miss a photo opportunity for setting the composition line. There is a problem that there is a problem that it is not always possible to perform photographing at a photographing position and timing desired by a photographer because of being bound by a composition line. Also, when shooting video while changing the shooting range according to the movement of the subject, the subject may move relatively large within the shooting range, and even if a composition line is used, the desired shooting of the subject It is extremely difficult to automatically capture a still image at a position and timing.

本発明は、例えば動画撮影中等において、簡単な操作により、移動する被写体を所望の位置及びタイミングで確実に撮影することができる撮影機器を提供することを目的とする。   An object of the present invention is to provide a photographing device capable of reliably photographing a moving subject at a desired position and timing by a simple operation, for example, during moving image photographing.

本発明に係る撮影機器は、被写体を撮像する撮像部と、上記被写体を自動撮影する場合の自動撮影位置に関するフレーム情報をユーザ操作に基づいて取得するフレーム情報取得部と、上記撮像部による上記被写体の動画撮像中における上記被写体の位置に関する情報と上記フレーム情報との比較によって上記被写体が上記自動撮影位置に到達したことを判定する自動撮影位置判定部と、上記自動撮影位置判定部によって、上記被写体が上記自動撮影位置に到達したものと判定された場合には、上記撮像部を制御して上記被写体の静止画を撮影させる制御部とを具備する。   An imaging device according to the present invention includes an imaging unit that captures an image of a subject, a frame information acquisition unit that acquires frame information related to an automatic shooting position when the subject is automatically captured based on a user operation, and the subject that is captured by the imaging unit. An automatic shooting position determination unit that determines that the subject has reached the automatic shooting position by comparing the information regarding the position of the subject during the moving image shooting and the frame information, and the automatic shooting position determination unit Is determined to have reached the automatic shooting position, the control unit controls the imaging unit to capture a still image of the subject.

本発明は、例えば動画撮影中等において、簡単な操作により、移動する被写体を所望の位置及びタイミングで確実に撮影することができるという効果を有する。   The present invention has an effect that a moving subject can be reliably photographed at a desired position and timing by a simple operation, for example, during moving image photographing.

本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of a photographing apparatus according to a first embodiment of the present invention. カメラ制御を説明するためのフローチャート。The flowchart for demonstrating camera control. フレーム情報の設定の仕方の一例を説明するための説明図。Explanatory drawing for demonstrating an example of the setting method of frame information. フレーム情報の設定の仕方の一例を説明するための説明図。Explanatory drawing for demonstrating an example of the setting method of frame information. フレーム情報の設定の仕方の一例を説明するための説明図。Explanatory drawing for demonstrating an example of the setting method of frame information. フレーム情報の登録の仕方を示す説明図。Explanatory drawing which shows the registration method of frame information. 図2中のフレーム情報取得処理の具体的なフローの一例を示すフローチャート。The flowchart which shows an example of the specific flow of the frame information acquisition process in FIG. フレーム情報監視処理の一例を示すフローチャート。The flowchart which shows an example of a frame information monitoring process. 距離情報を顔サイズに変換して判定する場合の変換を説明するための説明図。Explanatory drawing for demonstrating conversion in the case of converting and determining distance information to face size. 図2中の静止画撮影処理の一例を示すフローチャート。The flowchart which shows an example of the still image imaging | photography process in FIG. 静止画撮影処理を説明するための説明図。Explanatory drawing for demonstrating a still image shooting process. 本発明の第2の実施の形態に採用されるフローチャートFlow chart adopted in the second embodiment of the present invention 第2の実施の形態における練習モードを説明するための説明図。Explanatory drawing for demonstrating practice mode in 2nd Embodiment. 第2の実施の形態における練習モードを説明するための説明図。Explanatory drawing for demonstrating practice mode in 2nd Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of the photographing apparatus according to the first embodiment of the present invention.

本実施の形態における撮影機器1は、本体部10及び交換レンズ20によって構成されている。本体部10は、撮影機器1の主要な回路部分が収納された筐体であり、前面に交換レンズ20が着脱自在に取り付けられている。   The photographing apparatus 1 in the present embodiment is configured by a main body 10 and an interchangeable lens 20. The main body 10 is a housing in which main circuit portions of the photographing apparatus 1 are housed, and an interchangeable lens 20 is detachably attached to the front surface.

交換レンズ20は、鏡筒22内に、本体部10の撮像部12に被写体像を導く光路部21を有している。光路部21は、ズームやフォーカシングのためのレンズ及び絞り等を備えており、これらのレンズ及び絞りを駆動するピント制御部21a、ズーム制御部21b及び絞り機構部21cを有する。ピント制御部21a、ズーム制御部21b及び絞り機構部21cは駆動部24及び絞り制御部25によって駆動制御されるようになっている。   The interchangeable lens 20 has an optical path portion 21 that guides a subject image to the imaging unit 12 of the main body unit 10 in the lens barrel 22. The optical path unit 21 includes a lens and a diaphragm for zooming and focusing, and includes a focus control unit 21a, a zoom control unit 21b, and a diaphragm mechanism unit 21c that drive these lenses and the diaphragm. The focus control unit 21a, zoom control unit 21b, and aperture mechanism unit 21c are driven and controlled by the drive unit 24 and the aperture control unit 25.

光路部21は、物体側から撮像部12の撮像面(像面)に至る光軸上に図示しない複数のレンズが配置されて構成される。光路部21中には、ピント合わせによりフォーカス(合焦)状態に設定するために可動されるフォーカスレンズ及びフォーカス状態で変倍するズームレンズを有する。   The optical path unit 21 is configured by arranging a plurality of lenses (not shown) on the optical axis from the object side to the imaging surface (image plane) of the imaging unit 12. The optical path unit 21 includes a focus lens that is movable to set a focus (in-focus) state by focusing and a zoom lens that changes magnification in the focus state.

フォーカス制御及びズーム制御を行うためには、光路部21中の各レンズの光軸方向の位置(以下、群位置という)を把握する必要がある。交換レンズ20の制御部23が群位置を把握するために、初期位置検出部26a及び群位置検出部26bが設けられている。初期位置検出部26aは各レンズの初期位置を検出し、群位置検出部26bは各レンズの群位置を検出する。絞り機構部21cは、絞り制御部25に制御されて、図示しない絞りを駆動する。絞りは、例えば、光路部21の所定のレンズ相互間に配置される。   In order to perform focus control and zoom control, it is necessary to grasp the position in the optical axis direction of each lens in the optical path section 21 (hereinafter referred to as a group position). In order for the control unit 23 of the interchangeable lens 20 to grasp the group position, an initial position detection unit 26a and a group position detection unit 26b are provided. The initial position detector 26a detects the initial position of each lens, and the group position detector 26b detects the group position of each lens. The aperture mechanism 21c is controlled by the aperture controller 25 to drive an aperture (not shown). For example, the stop is disposed between predetermined lenses of the optical path portion 21.

鏡筒22には、ユーザによる撮影に関するパラメータ、例えば、ズームや絞りに関するパラメータの設定操作のために、操作リング22aが設けられている。操作検出部27は、操作リング22aに対するユーザ操作を検出して検出結果を制御部23に出力する。制御部23は、マイコン等によって構成されており、操作検出部27の検出結果と後述する本体部10の信号処理及び制御部11からの信号とに基づいて、各部を制御する。制御部23の駆動制御部23aは、操作検出部27の検出結果と信号処理及び制御部11の制御とに従って各種制御信号を発生する。例えば、駆動制御部23aは、フォーカス信号及びズーム信号を発生して、駆動部24を制御する。また、駆動制御部23aは、絞り制御信号を発生して、絞り制御部25を制御する。   The lens barrel 22 is provided with an operation ring 22a for setting operation of parameters relating to photographing by the user, for example, parameters relating to zooming and aperture. The operation detection unit 27 detects a user operation on the operation ring 22 a and outputs a detection result to the control unit 23. The control unit 23 is configured by a microcomputer or the like, and controls each unit based on the detection result of the operation detection unit 27 and signal processing of the main body unit 10 described later and a signal from the control unit 11. The drive control unit 23 a of the control unit 23 generates various control signals according to the detection result of the operation detection unit 27 and the signal processing and control of the control unit 11. For example, the drive control unit 23 a generates a focus signal and a zoom signal to control the drive unit 24. Further, the drive control unit 23 a generates an aperture control signal and controls the aperture control unit 25.

駆動部24は、フォーカス信号に基づいてピント制御部21aを駆動制御し、ズーム信号に基づいてズーム制御部21bを駆動制御する。また、絞り制御部25は、絞り制御信号に基づいて絞り機構部21cを駆動制御する。   The drive unit 24 controls the focus control unit 21a based on the focus signal, and controls the zoom control unit 21b based on the zoom signal. The diaphragm control unit 25 controls the driving of the diaphragm mechanism unit 21c based on the diaphragm control signal.

制御部23は、初期位置検出部26a及び群位置検出部26bの検出結果が与えられ、例えば、信号処理及び制御部11の制御に対応したピント位置、ズーム位置、絞り状態となるように駆動部24及び絞り制御部25を制御する。リセット部23bは、電源投入時等におけるリセット動作を制御するものであり、各機構部を初期位置に設定する。   The control unit 23 is provided with the detection results of the initial position detection unit 26a and the group position detection unit 26b, and for example, a drive unit so that the focus position, zoom position, and aperture state corresponding to the signal processing and control of the control unit 11 are achieved. 24 and the aperture controller 25 are controlled. The reset unit 23b controls a reset operation when the power is turned on, and sets each mechanism unit to an initial position.

交換レンズ20には、通信部28が設けられている。また、本体部10には通信部13が設けられている。通信部28は、所定の伝送路を介して本体部10の通信部13との間で情報の送受を行う。制御部23は、本体部10の通信部13との間の通信が確立すると、図示しない記録部に格納したレンズ情報及びズーム操作に関するズーム情報等を通信部28,13によって本体部10に送信させることができる。   The interchangeable lens 20 is provided with a communication unit 28. The main body unit 10 is provided with a communication unit 13. The communication unit 28 transmits and receives information to and from the communication unit 13 of the main body unit 10 via a predetermined transmission path. When communication with the communication unit 13 of the main body unit 10 is established, the control unit 23 causes the communication units 28 and 13 to transmit the lens information stored in the recording unit (not shown), zoom information about the zoom operation, and the like to the main body unit 10. be able to.

レンズ情報により、本体部10は、交換レンズ20がどのようなズーム機能を有しているか、ズームレンズの焦点距離範囲(倍率)、焦点距離、明るさナンバー等を認識することができる。また、制御部23は、操作検出部27の検出結果の情報も本体部10に送信することができる。また、制御部23は、ピント位置、ズーム位置、絞り状態等の情報を本体部10に送信してもよい。制御部23は、通信部13,28を介して本体部10の信号処理及び制御部11から制御信号が供給されて、信号処理及び制御部11によって制御可能に構成されている。   Based on the lens information, the main body 10 can recognize what zoom function the interchangeable lens 20 has, the focal length range (magnification), the focal length, the brightness number, and the like of the zoom lens. In addition, the control unit 23 can also transmit information on the detection result of the operation detection unit 27 to the main body unit 10. Further, the control unit 23 may transmit information such as the focus position, the zoom position, and the aperture state to the main body unit 10. The control unit 23 is configured to be controlled by the signal processing and control unit 11 by being supplied with a control signal from the signal processing and control unit 11 of the main body unit 10 via the communication units 13 and 28.

撮影機器1を構成する本体部10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部12を有している。撮像部12は、本体部10の前面に設けられた交換レンズ20からの被写体像を光電変換して撮影画像を得る。撮像部12は、信号処理及び制御部11によって駆動制御されて、撮影画像を出力する。   The main body 10 constituting the photographing apparatus 1 has an imaging unit 12 configured by an imaging element such as a CCD or a CMOS sensor. The imaging unit 12 photoelectrically converts a subject image from the interchangeable lens 20 provided on the front surface of the main body unit 10 to obtain a captured image. The imaging unit 12 is driven and controlled by the signal processing and control unit 11 and outputs a captured image.

信号処理及び制御部11は、例えばCPU等によって構成されて撮影機器1の各部を制御する。信号処理及び制御部11は、撮像部12に撮像素子の駆動信号を出力すると共に、撮像部12からの撮影画像を読み出す。信号処理及び制御部11は、読み出した撮影画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   The signal processing and control unit 11 is configured by a CPU or the like, for example, and controls each unit of the photographing apparatus 1. The signal processing and control unit 11 outputs a driving signal for the imaging element to the imaging unit 12 and reads a captured image from the imaging unit 12. The signal processing and control unit 11 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.

本体部10には、時計部14及び操作判定部15も配設されている。時計部14は信号処理及び制御部11が用いる時間情報を発生する。操作判定部15は、本体部10に設けられた図示しないレリーズボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む操作部に対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。信号処理及び制御部11は、操作信号に基づいて、各部を制御する。   The main body unit 10 is also provided with a clock unit 14 and an operation determination unit 15. The clock unit 14 generates time information used by the signal processing and control unit 11. The operation determination unit 15 generates an operation signal based on a user operation with respect to an operation unit including a release button, a function button, and various switches such as a shooting mode setting (not shown) provided in the main body unit 10, and a signal processing and control unit 11 is output. The signal processing and control unit 11 controls each unit based on the operation signal.

信号処理及び制御部11は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録部16に与えて記録させることができる。記録部16としては、例えばカードインターフェースを採用することができ、記録部16はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   The signal processing and control unit 11 can compress the captured image after signal processing, and can apply the compressed image to the recording unit 16 for recording. As the recording unit 16, for example, a card interface can be adopted, and the recording unit 16 can record image information, audio information, and the like on a recording medium such as a memory card.

信号処理及び制御部11の表示制御部11aは表示に関する各種処理を実行する。表示制御部11aは、信号処理後の撮影画像を表示部35に与えることができる。表示部35は、LCD等の表示画面を有しており、表示制御部11aから与えられた画像を表示する。また、表示制御部11aは、各種メニュー表示等をこれらの表示画面に表示させることもできるようになっている。   The signal processing and display control unit 11a of the control unit 11 executes various processes related to display. The display control unit 11a can give the captured image after the signal processing to the display unit 35. The display unit 35 has a display screen such as an LCD, and displays an image given from the display control unit 11a. Moreover, the display control part 11a can also display various menu displays etc. on these display screens.

表示部35は、後述するように、撮像画像を表示する表示画面35aを有している。また、表示画面35a上には、タッチパネル36が設けられている。タッチパネル36は、ユーザが指で指し示した表示画面35a上の位置に応じた操作信号を発生することができる。この操作信号は、信号処理及び制御部11に供給される。これにより、信号処理及び制御部11は、ユーザが表示画面35a上をタッチしたりスライドさせたりした場合には、ユーザのタッチ位置、指を離間させる操作、スライド操作やスライド操作によって到達した位置、スライド方向、タッチしている期間等の各種操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。   As will be described later, the display unit 35 includes a display screen 35a that displays a captured image. A touch panel 36 is provided on the display screen 35a. The touch panel 36 can generate an operation signal corresponding to the position on the display screen 35a pointed by the user with a finger. This operation signal is supplied to the signal processing and control unit 11. As a result, when the user touches or slides on the display screen 35a, the signal processing and control unit 11 performs a user touch position, an operation of separating a finger, a position reached by a slide operation or a slide operation, Various operations such as a sliding direction and a touch period can be detected, and processing corresponding to a user operation can be executed.

なお、表示部35は、本体部10の例えば背面の略全域を占めるように配設されており(図3参照)、撮影者は、撮影時に表示部35の表示画面35a上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うことができる。   Note that the display unit 35 is disposed so as to occupy substantially the entire rear surface of the main body unit 10 (see FIG. 3), and the photographer can display the through screen displayed on the display screen 35a of the display unit 35 at the time of shooting. The image can be confirmed, and the shooting operation can be performed while confirming the through image.

また、本体部10には、電子コンパスや地磁気センサ等によって構成された方位センサ17及び本体部10の傾きを検出する加速度センサ18も設けられている。   The main body 10 is also provided with an azimuth sensor 17 constituted by an electronic compass, a geomagnetic sensor, and the like, and an acceleration sensor 18 that detects the inclination of the main body 10.

本実施の形態においては、信号処理及び制御部11は、動画撮影中において静止画を自動的に撮影する自動静止画撮影モードを設定可能である。自動静止画撮影モードにおいては、ユーザは被写体が撮影されるべき位置(以下、自動撮影位置という)を指定することができるようになっている。自動静止画撮影モードを可能にするために、信号処理及び制御部11は、距離判定部11b、パターン判定部11c、方位判定部11d及び顔判定部11e等を備える。   In the present embodiment, the signal processing and control unit 11 can set an automatic still image shooting mode for automatically shooting a still image during moving image shooting. In the automatic still image shooting mode, the user can designate a position where the subject is to be shot (hereinafter referred to as an automatic shooting position). In order to enable the automatic still image shooting mode, the signal processing and control unit 11 includes a distance determination unit 11b, a pattern determination unit 11c, an orientation determination unit 11d, a face determination unit 11e, and the like.

自動静止画撮影モードにおいては、ユーザは、撮影を行うタイミング(被写体位置)を決定するための設定操作を行う。例えば、ユーザ操作によって、予め撮影を行う地点を自動撮影位置として設定しておくことで、信号処理及び制御部11は、被写体がその地点に到達したことを検出することによって自動的に静止画撮影を行うように制御する。   In the automatic still image shooting mode, the user performs a setting operation for determining the timing (subject position) for shooting. For example, by setting a point for shooting in advance as an automatic shooting position by a user operation, the signal processing and control unit 11 automatically captures a still image by detecting that the subject has reached that point. Control to do.

例えば、信号処理及び制御部11の距離判定部11bは、各種測距方法を採用して、撮影機器1からユーザが指定した地点(自動撮影位置)までの距離を求めて、フレーム情報として記録部16の仮記録部16aに記録しておく。そして、距離判定部11bは、動画撮影中において、被写体までの距離を測距し、記録したフレーム情報と比較することで、被写体がその地点に到達したことを判定するようになっている。信号処理及び制御部11は、距離判定部11bの判定結果を用いることで、ユーザが設定した地点に被写体が到達したタイミングで、被写体を静止画撮影することが可能である。   For example, the distance determination unit 11b of the signal processing and control unit 11 employs various distance measurement methods to obtain the distance from the photographing device 1 to a point (automatic photographing position) designated by the user, and records it as frame information. It records in 16 temporary recording parts 16a. Then, the distance determination unit 11b measures the distance to the subject during moving image shooting and compares it with the recorded frame information to determine that the subject has reached that point. By using the determination result of the distance determination unit 11b, the signal processing and control unit 11 can take a still image of the subject at the timing when the subject reaches a point set by the user.

また、自動撮影位置の設定方法及び被写体が自動撮影位置に到達したことの検出を、画像パターン判定によって行う方法も考えられる。信号処理及び制御部11のパターン判定部11cは、画像パターンの認識処理によって、撮影機器1によってユーザが指定した地点(自動撮影位置)を撮影した場合の画像パターンを求めてフレーム情報として仮記録部16aに記録しておく。そして、パターン判定部11cは、動画撮影中において、撮像して得た画像パターンと記憶している画像パターンとの比較によって、被写体がその地点に到達したことを検出する。こうして、信号処理及び制御部11は、パターン判定部11cの判定結果を用いることで、ユーザが設定した地点に被写体が到達したタイミングで、被写体を静止画撮影することが可能となる。   In addition, a method for setting an automatic photographing position and a method for detecting that the subject has reached the automatic photographing position by image pattern determination are also conceivable. The pattern determination unit 11c of the signal processing and control unit 11 obtains an image pattern when a point designated by the user (automatic shooting position) is shot by the shooting device 1 through image pattern recognition processing, and temporarily stores the image pattern as frame information. Record in 16a. Then, the pattern determination unit 11c detects that the subject has reached the point by comparing the image pattern obtained by imaging and the stored image pattern during moving image shooting. In this way, the signal processing and control unit 11 can take a still image of the subject at the timing when the subject reaches the point set by the user by using the determination result of the pattern determination unit 11c.

また更に、自動撮影位置の設定方法及び被写体が自動撮影位置に到達したことの検出を、方位判定によって行う方法も考えられる。信号処理及び制御部11の方位判定部11dは、方位センサ17及び加速度センサ18の出力によって撮影方向(方位)を判定し、ユーザが指定した地点(自動撮影位置)を撮影する場合の方位をフレーム情報として記録しておく。そして、方位判定部11dは、動画撮影中において、被写体の撮影方向が記録している方位に一致したことを検出する。こうして、信号処理及び制御部11は、方位判定部11dの判定結果を用いることで、ユーザが設定した地点に被写体が到達したタイミングで、被写体を静止画撮影することが可能となる。   Furthermore, a method for setting the automatic shooting position and a method for detecting that the subject has reached the automatic shooting position by azimuth determination are also conceivable. An azimuth determining unit 11d of the signal processing and control unit 11 determines the shooting direction (azimuth) based on the outputs of the azimuth sensor 17 and the acceleration sensor 18, and frames the azimuth when shooting a point (automatic shooting position) designated by the user Record it as information. Then, the direction determining unit 11d detects that the shooting direction of the subject matches the recorded direction during moving image shooting. In this way, the signal processing and control unit 11 can take a still image of the subject at the timing when the subject reaches the point set by the user by using the determination result of the azimuth determining unit 11d.

また、信号処理及び制御部11には、顔判定部11eも設けられている。顔判定部11eは、撮像画像に含まれる注目被写体の顔画像を検出し、顔サイズをフレーム情報として仮記録部16aに記録しておく。顔判定部11eは、動画撮影中において注目被写体の顔サイズを検出してフレーム情報と比較することで、撮影タイミングを決定してもよい。   The signal processing and control unit 11 is also provided with a face determination unit 11e. The face determination unit 11e detects the face image of the subject of interest included in the captured image, and records the face size in the temporary recording unit 16a as frame information. The face determination unit 11e may determine the shooting timing by detecting the face size of the subject of interest during moving image shooting and comparing it with frame information.

なお、距離判定部11b、パターン判定部11c、方位判定部11d及び顔判定部11eの全てが必須の構成ではなく、これらのうちの少なくとも1つの判定部を備えていれば、自動静止画撮影が可能である。   Note that the distance determination unit 11b, the pattern determination unit 11c, the azimuth determination unit 11d, and the face determination unit 11e are not essential components, and automatic still image shooting is possible if at least one of these determination units is provided. Is possible.

更に、本実施の形態においては、信号処理及び制御部11には画角制御部11fが設けられている。画角制御部11fは、自動静止画撮影モードにおいて、目標被写体である例えば人物又はその顔等が撮影範囲内で所定のサイズに表示されるように、画角を調整するようになっている。   Furthermore, in the present embodiment, the signal processing and control unit 11 is provided with an angle of view control unit 11f. In the automatic still image shooting mode, the angle of view control unit 11f adjusts the angle of view so that a target subject, for example, a person or his face is displayed in a predetermined size within the shooting range.

次に、このように構成された実施の形態の動作について図2乃至図7を参照して説明する。図2はカメラ制御を説明するためのフローチャートであり、図3乃至図5はフレーム情報の設定の仕方の一例を説明するための説明図である。また、図6はフレーム情報の登録の仕方を示す説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 2 is a flowchart for explaining camera control, and FIGS. 3 to 5 are explanatory diagrams for explaining an example of how to set frame information. FIG. 6 is an explanatory diagram showing how to register frame information.

本実施の形態における撮影機器1は、例えば、本体部10の背面に表示部35が設けられている(図3参照)。ユーザは、例えば、本体部10を手で把持して、表示部35の表示画面35aを見ながら被写体を視野範囲に捉えた状態で、撮影を行うことができる。更に、本実施の形態においては、ユーザは表示画面35a上に設けたタッチパネル36をタッチ操作することで、自動静止画撮影モードにおいてフレーム情報を設定することができるようになっている。   In the photographing apparatus 1 according to the present embodiment, for example, a display unit 35 is provided on the back surface of the main body unit 10 (see FIG. 3). For example, the user can take a picture while grasping the subject within the field of view while grasping the main body 10 by hand and looking at the display screen 35 a of the display unit 35. Furthermore, in the present embodiment, the user can set frame information in the automatic still image shooting mode by touching the touch panel 36 provided on the display screen 35a.

図3はユーザが設定する自動撮影位置を特定するためのフレーム情報として距離の情報を用いる例を示している。撮影機器1の表示画面35a上には、スルー画が表示されている。スルー画中には、地面上に描かれたライン41に対応する撮像画像41’が表示されている。いま、ユーザが自動撮影位置として、ライン41近傍の地点42における地面上を指定するものとする。この場合には、ユーザは、指43で地点42に対応する撮像画像41’上の点42’の位置をタッチする。これにより、距離判定部11bは、撮影機器1から地点42までの距離を測定し、測定結果をフレーム情報として仮記録部16aに記録する。   FIG. 3 shows an example in which distance information is used as frame information for specifying an automatic shooting position set by the user. A through image is displayed on the display screen 35 a of the photographing apparatus 1. In the through image, a captured image 41 'corresponding to the line 41 drawn on the ground is displayed. Now, it is assumed that the user designates on the ground at a point 42 in the vicinity of the line 41 as an automatic photographing position. In this case, the user touches the position of the point 42 ′ on the captured image 41 ′ corresponding to the point 42 with the finger 43. Thereby, the distance determination part 11b measures the distance from the imaging device 1 to the point 42, and records a measurement result in the temporary recording part 16a as frame information.

図4はユーザが設定する自動撮影位置を特定するためのフレーム情報として画像パターンの情報を用いる例を示している。撮影機器1の表示画面35a上には、スルー画が表示されている。スルー画中には、被写体に対応する撮像画像41’が表示されている。ユーザは、自動撮影位置として設定したい地点に撮影機器を向け、例えば、その地点が撮像画像の中心に位置するように構図を設定する。この状態で、図示しない設定ボタンや画面のタッチ操作等を行う。これにより、パターン判定部11cは、撮像部12からの撮影画像を取り込んで、画像パターンの判定を行い判定結果をフレーム情報として仮記録部16aに記録する。   FIG. 4 shows an example in which image pattern information is used as frame information for specifying an automatic shooting position set by the user. A through image is displayed on the display screen 35 a of the photographing apparatus 1. A captured image 41 'corresponding to the subject is displayed in the through image. The user directs the photographing device to a point to be set as the automatic photographing position, and sets the composition so that the point is located at the center of the captured image, for example. In this state, a setting button (not shown) or a screen touch operation is performed. As a result, the pattern determination unit 11c captures the captured image from the imaging unit 12, determines the image pattern, and records the determination result in the temporary recording unit 16a as frame information.

図5はユーザが設定する自動撮影位置を特定するためのフレーム情報として方位の情報を用いる例を示している。撮影機器1の表示画面35a上には、スルー画が表示されている。スルー画中には、地面上に描かれたライン41に対応する撮像画像41’が表示されている。ユーザは、自動撮影位置として設定したい地点に光路部21の光軸45を向ける。例えば、その地点が撮像画像の中心に位置するように構図を設定する。この状態で、図示しない設定ボタンや画面のタッチ操作等を行う。これにより、方位判定部11dは、方位センサ17及び加速度センサ18の出力から、撮影機器1から当該地点への方位(傾きの情報を含んでいてもよい)を検出して検出結果をフレーム情報として仮記録部16aに記録する。   FIG. 5 shows an example in which direction information is used as frame information for specifying an automatic shooting position set by the user. A through image is displayed on the display screen 35 a of the photographing apparatus 1. In the through image, a captured image 41 'corresponding to the line 41 drawn on the ground is displayed. The user directs the optical axis 45 of the optical path unit 21 to a point to be set as the automatic photographing position. For example, the composition is set so that the point is located at the center of the captured image. In this state, a setting button (not shown) or a screen touch operation is performed. Thereby, the azimuth determining unit 11d detects the azimuth (which may include tilt information) from the photographing device 1 to the point from the outputs of the azimuth sensor 17 and the acceleration sensor 18, and uses the detection result as frame information. Records in the temporary recording unit 16a.

なお、フレーム情報は、上記図3乃至図5の全ての処理によって取得してもよく、上記図3乃至図5のいずれか1つの処理によって取得してもよい。   Note that the frame information may be acquired by all the processes in FIGS. 3 to 5 or may be acquired by any one of the processes in FIGS.

撮影機器1の電源が投入されると、信号処理及び制御部11は、図2のステップS1で撮影待機モードが指示されたか否かを判定する。撮影待機モードが指示されていない場合には、信号処理及び制御部11は、ステップS2において、再生モードに移行する。   When the photographing apparatus 1 is turned on, the signal processing and control unit 11 determines whether or not the photographing standby mode is instructed in step S1 of FIG. If the shooting standby mode is not instructed, the signal processing and control unit 11 shifts to the reproduction mode in step S2.

一方、撮影待機モードが指示されると、信号処理及び制御部11は、自動静止画撮影モードを設定すると共に、ステップS3において、スルー画を表示部35に表示させるライブビュー表示を開始する。また、信号処理及び制御部11の画角制御部11fは、ライブビュー表示において表示している撮像画像の画角情報を取得する。   On the other hand, when the shooting standby mode is instructed, the signal processing and control unit 11 sets the automatic still image shooting mode and starts live view display for displaying a through image on the display unit 35 in step S3. In addition, the angle-of-view control unit 11f of the signal processing and control unit 11 acquires the angle-of-view information of the captured image displayed in the live view display.

次に、信号処理及び制御部11は、例えば顔判定部11eによって、自動静止画撮影モードにおいて撮影したい被写体を設定する(ステップS4)。例えば、ユーザはスルー画表示中において、スルー画中に撮影されている人物の顔部分をタッチする。これにより、顔判定部11eは、タッチされた顔の特徴量を求めて、被写体情報として仮記録部16aに記録する。この特徴量の情報を用いることで、指定した人物の追尾が可能となる。   Next, the signal processing and control unit 11 sets a subject to be photographed in the automatic still image photographing mode by using, for example, the face determination unit 11e (step S4). For example, the user touches the face portion of the person photographed in the through image while the through image is displayed. Thereby, the face determination unit 11e obtains the feature amount of the touched face and records it as subject information in the temporary recording unit 16a. By using this feature amount information, it is possible to track a designated person.

次のステップS5では、フレーム情報の設定操作が行われたか否かを判定する。例えば、フレーム情報として距離情報を用いる場合には、ユーザのタッチ指定の操作が行われたか否かが判定される。タッチ指定等のフレーム情報設定操作が発生すると、ステップS6において、フレーム情報の取得処理が行われる。   In the next step S5, it is determined whether or not an operation for setting frame information has been performed. For example, when distance information is used as the frame information, it is determined whether or not a user's touch designation operation has been performed. When a frame information setting operation such as touch designation occurs, frame information acquisition processing is performed in step S6.

図7は図2中のフレーム情報取得処理の具体的なフローの一例を示すフローチャートである。   FIG. 7 is a flowchart showing an example of a specific flow of the frame information acquisition process in FIG.

図7のステップS31において、距離判定部11bは、測距が可能であるか否かを判定する。測距が可能である場合には、距離判定部11bは、測距の結果をフレーム情報として仮記録部16aに記録する(ステップS32)。次に、パターン判定部11cは画像パターンの判定が可能であるか否かを判定する(ステップS33)。画像パターンの判定が可能である場合には、パターン判定部11cは、画像パターンの判定結果をフレーム情報として仮記録部16aに記録する(ステップS34)。次に、方位判定部11dは撮影機器1の撮影方向を検出して、検出結果をフレーム情報として仮記録部16aに記録する。   In step S31 of FIG. 7, the distance determination unit 11b determines whether or not distance measurement is possible. If distance measurement is possible, the distance determination unit 11b records the distance measurement result in the temporary recording unit 16a as frame information (step S32). Next, the pattern determination unit 11c determines whether or not an image pattern can be determined (step S33). If the image pattern can be determined, the pattern determination unit 11c records the determination result of the image pattern as frame information in the temporary recording unit 16a (step S34). Next, the direction determination unit 11d detects the shooting direction of the shooting device 1, and records the detection result in the temporary recording unit 16a as frame information.

なお、図7の例は、距離判定、画像パターン判定及び方位判定の全ての判定結果をフレーム情報として記録する例について説明したが、いずれか1又は2つの判定結果のみをフレーム情報として記録するようしてもよい。或いは、優先順位を付け優先順位の高い判定結果を優先的にフレーム情報として記録するようにしてもよい。例えば、距離、画像パターン、方位の順に優先順位を設定し、距離の判定結果が得られない場合にのみ、画像パターンをフレーム情報として記録し、距離及び画像パターンの判定結果が得られない場合にのみ、方位の判定結果をフレーム情報として記録するようにしてもよい。更に、ユーザがいずれの判定結果をフレーム情報として設定するかを指定するようにしてもよい。   In the example of FIG. 7, the example in which all the determination results of the distance determination, the image pattern determination, and the azimuth determination are recorded as frame information has been described. However, only one or two determination results are recorded as frame information. May be. Alternatively, a priority order may be given and a determination result having a high priority order may be preferentially recorded as frame information. For example, when the priority order is set in the order of distance, image pattern, and orientation, only when the determination result of the distance cannot be obtained, the image pattern is recorded as frame information, and the determination result of the distance and the image pattern cannot be obtained. Only the orientation determination result may be recorded as frame information. Furthermore, the user may specify which determination result is set as frame information.

例えば、ユーザが距離の判定結果をフレーム情報として記録する例について説明する。この場合には、ユーザは、設定したい自動撮影位置を含む撮影範囲をスルー画に表示されるように撮影機器1を構えて、スルー画中において自動撮影位置をタッチ等により指定する。   For example, an example in which the user records the distance determination result as frame information will be described. In this case, the user holds the photographing apparatus 1 so that the photographing range including the automatic photographing position to be set is displayed on the through image, and designates the automatic photographing position in the through image by touch or the like.

図6はフレーム情報の登録の仕方を示している。図6は、例えば徒競走のコースを規定するために地面上に引かれた徒競走ライン51上に設定する自動撮影位置を示している。図6の四角で囲った3つの枠は、ユーザのフレーミングによって得られる3つの撮影範囲F1〜F3を示している。ユーザのフレーミングによって撮影範囲F1がスルー画として表示される状態において、ユーザが地点P1に対応する画面上の位置を指43によってタッチすることによって、自動撮影位置として地点P1(例えば徒競走のスタートライン)を登録することができることを示している。   FIG. 6 shows how to register frame information. FIG. 6 shows an automatic photographing position set on the student race line 51 drawn on the ground in order to define the course of the student race, for example. Three frames surrounded by a square in FIG. 6 indicate three photographing ranges F1 to F3 obtained by user framing. In a state where the shooting range F1 is displayed as a through image by the user's framing, when the user touches the position on the screen corresponding to the point P1 with the finger 43, the point P1 (for example, the start line of the athlete race) is set as the automatic shooting position It can be registered.

同様に、ユーザのフレーミングによって撮影範囲F2がスルー画として表示される状態において、ユーザが地点P2に対応する画面上の位置を指43によってタッチすることによって、自動撮影位置として地点P2を登録することができる。更に、ユーザのフレーミングによって撮影範囲F3がスルー画として表示される状態において、ユーザが地点P3に対応する画面上の位置を指43によってタッチすることによって、自動撮影位置として地点P3を登録することができる。   Similarly, in a state where the shooting range F2 is displayed as a through image by the user's framing, the user touches the position on the screen corresponding to the point P2 with the finger 43, thereby registering the point P2 as the automatic shooting position. Can do. Further, in a state where the shooting range F3 is displayed as a through image by the user's framing, the user can register the point P3 as the automatic shooting position by touching the position on the screen corresponding to the point P3 with the finger 43. it can.

ユーザのタッチ指定毎に、ステップS3〜S7が繰り返され、距離判定部11bは、撮影機器1から各地点までの距離を夫々求めて、フレーム情報として仮記録部16aに記録する(ステップS7)。こうして、図6の例では、ユーザは、3箇所の地点P1〜P3を自動撮影位置として登録している。   Steps S3 to S7 are repeated for each touch designation by the user, and the distance determination unit 11b obtains the distances from the photographing device 1 to the respective points and records them in the temporary recording unit 16a as frame information (step S7). Thus, in the example of FIG. 6, the user registers three points P1 to P3 as automatic photographing positions.

次に、ユーザが動画撮影の開始操作を行うものとする。ステップS11において、動画撮影の開始操作が判定されると、ステップS12において、信号処理及び制御部11は、動画撮影を開始する。撮像部12からの撮像画像は、信号処理及び制御部11に供給され、所定の映像信号処理が施された後、記録部16に与えられて撮像画像が順次記録される。また、信号処理及び制御部11は、撮像画像を表示部35に与えてスルー画表示させる。   Next, it is assumed that the user performs a moving image shooting start operation. If it is determined in step S11 that a moving image shooting start operation is performed, in step S12, the signal processing and control unit 11 starts moving image shooting. The captured image from the imaging unit 12 is supplied to the signal processing and control unit 11, subjected to predetermined video signal processing, and then supplied to the recording unit 16 to sequentially record the captured images. In addition, the signal processing and control unit 11 gives the captured image to the display unit 35 to display a through image.

ステップS13において、信号処理及び制御部11は、ユーザの動画撮影の終了操作を判定する。撮影終了操作が行われるまでは、ステップS14においてフレーム情報監視処理が行われる。   In step S <b> 13, the signal processing and control unit 11 determines the user's end operation for moving image shooting. Until the photographing end operation is performed, the frame information monitoring process is performed in step S14.

図8はこのフレーム情報監視処理の一例を示すフローチャートである。また、図9は距離情報を顔サイズに変換して判定する場合の変換を説明するための説明図である。   FIG. 8 is a flowchart showing an example of the frame information monitoring process. FIG. 9 is an explanatory diagram for explaining the conversion when the distance information is converted into the face size for determination.

フレーム情報監視処理においては、先ず、仮記録部16aに記録されている被写体情報が読み出され、読み出された被写体情報に一致する被写体がスルー画中から検出されて追尾される。そして、ステップS41において、仮記録部16aにフレーム情報として距離情報が記録されているか否かが判定される。距離情報が記録されている場合には、距離判定部11bによって撮影機器1から被写体情報に一致する被写体までの距離が判定され、被写体までの距離がフレーム情報として記録された距離に到達する時点が検出される。追尾中の被写体が距離情報によって指定された自動撮影位置に到達すると、ステップS15において条件が成立したものと判定されて、静画撮影が行われる(ステップS16)。   In the frame information monitoring process, first, subject information recorded in the temporary recording unit 16a is read, and a subject that matches the read subject information is detected from the through image and tracked. In step S41, it is determined whether distance information is recorded as frame information in the temporary recording unit 16a. When the distance information is recorded, the distance determination unit 11b determines the distance from the photographing device 1 to the subject that matches the subject information, and the time when the distance to the subject reaches the distance recorded as the frame information. Detected. When the tracking subject reaches the automatic shooting position specified by the distance information, it is determined in step S15 that the condition is satisfied, and still image shooting is performed (step S16).

なお、図8の例では、追尾中の被写体が自動撮影位置に到達したことを、顔サイズを算出することで求めるようになっている。図9は、スタートライン上の被写体52aが徒競走ライン51に沿って被写体52bの位置まで移動するものとする。ステップS4の被写体設定において、被写体までの距離L1とその位置における被写体52aの顔サイズK1を求めて仮記録部16aに記録しておく。この被写体52aを被写体52bによって示す位置、即ち、撮影機器1からの距離がL2の位置において自動静止画撮影するものとする。即ち、自動静止画撮影位置における被写体52bの顔サイズK2は、下記(1)式にて表される。   In the example of FIG. 8, it is determined by calculating the face size that the subject being tracked has reached the automatic shooting position. In FIG. 9, it is assumed that the subject 52a on the start line moves to the position of the subject 52b along the competition line 51. In the subject setting in step S4, the distance L1 to the subject and the face size K1 of the subject 52a at that position are obtained and recorded in the temporary recording unit 16a. It is assumed that automatic still image shooting is performed at the position indicated by the subject 52b, that is, the position where the distance from the imaging device 1 is L2. That is, the face size K2 of the subject 52b at the automatic still image shooting position is expressed by the following equation (1).

K2=K1×L1/L2 …(1)
撮影すべき被写体の顔検出が行われている場合には、距離判定部11bは、ステップS42からステップS43に処理を移行して、上記(1)式を用いて距離情報L2を顔サイズK2に変換する。距離判定部11bの変換結果は顔判定部11eに与えられ、顔判定部11eは、撮像画像中の追尾被写体の顔サイズが、顔サイズK2に類似した顔サイズに到達したか否かを判定する(ステップS44)。撮像画像中の追尾被写体の顔サイズが、顔サイズK2に類似した顔サイズになると、撮影条件が成立したものと判定して、静画撮影が行われる(ステップS16)。
K2 = K1 × L1 / L2 (1)
When the face detection of the subject to be photographed is performed, the distance determination unit 11b shifts the processing from step S42 to step S43, and converts the distance information L2 to the face size K2 using the above equation (1). Convert. The conversion result of the distance determination unit 11b is given to the face determination unit 11e, and the face determination unit 11e determines whether the face size of the tracking subject in the captured image has reached a face size similar to the face size K2. (Step S44). When the face size of the tracking subject in the captured image becomes a face size similar to the face size K2, it is determined that the shooting condition is satisfied, and still image shooting is performed (step S16).

図8の例では、距離情報が記録されていない場合又は顔検出がない場合には、ステップS45に処理を移行して、パターン判定部11cによって画像パターンの情報が記録されているか否かが判定される。撮像画像の画像パターンが仮記録部16aに記録されている画像パターンに類似したパターンになると(ステップS46)、撮影条件が成立したものと判定して、静画撮影が行われる(ステップS16)。   In the example of FIG. 8, when distance information is not recorded or when face detection is not performed, the process proceeds to step S45 to determine whether or not image pattern information is recorded by the pattern determination unit 11c. Is done. When the image pattern of the captured image becomes a pattern similar to the image pattern recorded in the temporary recording unit 16a (step S46), it is determined that the shooting condition is satisfied, and still image shooting is performed (step S16).

また、画像パターンの情報が記録されていない場合又は画像パターンが類似しない場合には、ステップS47に処理を移行して、方位判定部11dによって方位の情報が記録されているか否かが判定される。撮影機器1の方位が仮記録部16aに記録されている方位の情報に類似した方位になると(ステップS48)、撮影条件が成立したものと判定して、静画撮影が行われる(ステップS16)。なお、ここで、ズーム変化時には画像パターンが拡大、縮小するので、そうした変化を考慮して類似パターンの判定を行ってもよい。   If the image pattern information is not recorded or if the image patterns are not similar, the process proceeds to step S47, and it is determined whether or not the direction information is recorded by the direction determination unit 11d. . When the orientation of the photographing device 1 is similar to the orientation information recorded in the temporary recording unit 16a (step S48), it is determined that the photographing condition is satisfied, and still image photographing is performed (step S16). . Here, since the image pattern is enlarged or reduced when the zoom is changed, the similar pattern may be determined in consideration of such change.

なお、図8では顔サイズの類似によって追尾被写体が自動撮影位置に到達したことを検出する例について説明したが、距離を顔サイズに変換することなく、距離情報によって追尾被写体が自動撮影位置に到達したことを検出してもよい。また、上記説明では、ステップS4において追尾する被写体を設定し、追尾被写体が自動撮影位置に到達したことを検出する例について説明したが、被写体を追尾することなく、画面の略中心に撮像された人物について距離や顔サイズによって自動撮影位置に到達したことを検出するようにしてもよい。なお、この場合には、撮像画像中の中心近傍で撮像されている複数の人物が目標撮影位置に到達する毎に、複数回の静画撮影が行われる可能性がある。また、追尾被写体が画面の略中心に撮像されていることを条件に、自動撮影位置に到達したか否かを判定するようにしてもよい。   Although FIG. 8 illustrates an example in which it is detected that the tracking subject has reached the automatic shooting position due to the similarity of the face size, the tracking subject reaches the automatic shooting position based on the distance information without converting the distance to the face size. You may detect that you did. In the above description, an example in which a subject to be tracked is set in step S4 and it is detected that the tracking subject has reached the automatic shooting position has been described. However, the subject was captured at the approximate center of the screen without tracking the subject. It may be detected that the person has reached the automatic shooting position based on the distance and the face size. In this case, each time a plurality of persons imaged in the vicinity of the center in the captured image reach the target shooting position, a plurality of still image shootings may be performed. Further, it may be determined whether or not the automatic shooting position has been reached on the condition that the tracking subject is imaged at substantially the center of the screen.

図10は図2中の静止画撮影処理の一例を示すフローチャートである。また、図11は静止画撮影処理を説明するための説明図である。図11は図6の説明図に対応した撮影処理を示しており、撮影すべき被写体(追尾被写体)55(55a〜55c)を各自動撮影位置における人物(被写体55a〜55c)として示している。   FIG. 10 is a flowchart showing an example of the still image shooting process in FIG. FIG. 11 is an explanatory diagram for explaining still image shooting processing. FIG. 11 shows a photographing process corresponding to the explanatory diagram of FIG. 6, and shows subjects (tracking subjects) 55 (55a to 55c) to be photographed as persons (subjects 55a to 55c) at respective automatic photographing positions.

図11の例では、徒競走ライン51のスタートライン上には、5人の人物が並んでおり、顔を塗り潰した左から2番目の人物55aが撮影すべき被写体として設定されている。図6においては、スタート地点P1が自動撮影位置として登録されている。   In the example of FIG. 11, five persons are lined up on the start line of the student race line 51, and the second person 55a from the left with the face painted out is set as a subject to be photographed. In FIG. 6, the start point P1 is registered as the automatic photographing position.

信号処理及び制御部11は、撮影すべき被写体が自動撮影位置に到達したものと判定すると、撮像部12からの撮像画像の1コマを静止画像として信号処理した後、仮記録部16aに記録する(ステップS51)。次に、画角制御部11fは、ステップS52において顔検出があったか否かを判定し、顔検出がない場合には処理を終了する。画角制御部11fは、顔検出があった場合には、ステップS53において、記録した撮像画像中の追尾被写体の顔の位置及び顔サイズを算出する。   When the signal processing and control unit 11 determines that the subject to be shot has reached the automatic shooting position, the signal processing and control unit 11 performs signal processing of one frame of the captured image from the imaging unit 12 as a still image, and then records it in the temporary recording unit 16a. (Step S51). Next, the angle-of-view control unit 11f determines whether or not face detection has been performed in step S52, and ends the process if there is no face detection. If there is face detection, the view angle control unit 11f calculates the face position and face size of the tracking subject in the recorded captured image in step S53.

画角制御部11fは、追尾被写体の顔サイズが、撮影画像中において比較的中央の所定の位置及び所定の割合を占めるように、切出し位置及びサイズを決定する(ステップS54)。なお、画角制御部11fは、顔サイズに限らず追尾被写体の全体のサイズに応じて、切出し位置及びサイズを決定してもよい。画角制御部11fは、決定した切り出し位置及びサイズの撮影範囲G1で画像を切出す。即ち、画角制御部11fは、仮記録部16aから撮影範囲G1の画像を読み出してリサイズ処理した後、記録部16に記録する。   The angle-of-view control unit 11f determines the cutout position and size so that the face size of the tracking subject occupies a predetermined position and a predetermined ratio in the center of the captured image (step S54). Note that the angle-of-view control unit 11f may determine the clipping position and size according to the overall size of the tracking subject, not limited to the face size. The angle-of-view control unit 11f cuts out an image with the shooting range G1 having the determined cut-out position and size. That is, the view angle control unit 11f reads the image in the shooting range G1 from the temporary recording unit 16a, performs resizing processing, and then records the image in the recording unit 16.

次に、追尾被写体55aが移動して撮影範囲F2において追尾被写体55bとして撮像されるものとする。なお、撮影範囲F2には、追尾被写体55bの他に3人の人物が撮像されている。信号処理及び制御部11は、撮影すべき被写体が自動撮影位置に到達したものと判定すると、撮影範囲F2の撮像画像を静止画像として信号処理して仮記録部16aに記録する(ステップS51)。次に、画角制御部11fは、ステップS53において、記録した撮像画像中の追尾被写体の顔の位置及び顔サイズを算出し、追尾被写体の顔が、撮影画像中において比較的中央の所定の位置及び所定の割合を占めるように、切出し位置及びサイズを決定する(ステップS54)。画角制御部11fは、決定した切り出し位置及びサイズの撮影範囲G2で画像を読み出し、リサイズ処理した後、記録部16に記録する。   Next, it is assumed that the tracking subject 55a moves and is imaged as the tracking subject 55b in the shooting range F2. In addition, in the shooting range F2, three people are imaged in addition to the tracking subject 55b. When the signal processing and control unit 11 determines that the subject to be photographed has reached the automatic photographing position, the captured image in the photographing range F2 is signal-processed as a still image and recorded in the temporary recording unit 16a (step S51). Next, in step S53, the angle-of-view control unit 11f calculates the position and face size of the tracking subject in the recorded captured image, and the tracking subject's face is a relatively central predetermined position in the captured image. Then, the cutting position and size are determined so as to occupy a predetermined ratio (step S54). The angle-of-view control unit 11f reads out an image with the shooting range G2 having the determined clipping position and size, performs resizing processing, and then records the image in the recording unit 16.

次に、追尾被写体55bが移動して撮影範囲F3において追尾被写体55cとして撮像されるものとする。なお、撮影範囲F3には、追尾被写体55cの他に2人の人物が撮像されている。信号処理及び制御部11は、撮影すべき被写体が自動撮影位置に到達したものと判定すると、撮影範囲F3の撮像画像を静止画像として信号処理して仮記録部16aに記録する(ステップS51)。次に、画角制御部11fは、ステップS53において、記録した撮像画像中の追尾被写体の顔の位置及び顔サイズを算出し、追尾被写体の顔が、撮影画像中において比較的中央の所定の位置及び所定の割合を占めるように、切出し位置及びサイズを決定する(ステップS54)。画角制御部11fは、決定した切り出し位置及びサイズの撮影範囲G3で画像を読み出し、リサイズ処理した後、記録部16に記録する。   Next, it is assumed that the tracking subject 55b moves and is imaged as the tracking subject 55c in the shooting range F3. In addition, two persons are imaged in the shooting range F3 in addition to the tracking subject 55c. When the signal processing and control unit 11 determines that the subject to be photographed has reached the automatic photographing position, the captured image in the photographing range F3 is signal-processed as a still image and recorded in the temporary recording unit 16a (step S51). Next, in step S53, the angle-of-view control unit 11f calculates the position and face size of the tracking subject in the recorded captured image, and the tracking subject's face is a relatively central predetermined position in the captured image. Then, the cutting position and size are determined so as to occupy a predetermined ratio (step S54). The angle-of-view control unit 11f reads an image with the determined cutout position and shooting range G3 of the size, performs resizing processing, and records the image in the recording unit 16.

また、図2においては、動画撮影時だけでなく、静止画撮影待機時においても、フレーム情報を用いた静止画撮影が可能である。信号処理及び制御部11は、ステップS11において、動画撮影が開始されていないと判定した場合には、ステップS21においてフレーム情報が記録されているか否かを判定する。フレーム情報が記録されている場合には、ステップS22においてフレーム情報を監視し、ステップS23において条件を満たすか否かを判定して、静画撮影を行う。なお、ステップS22〜S24の処理は、ステップS14〜S16と同様である。   In FIG. 2, still image shooting using frame information is possible not only during moving image shooting but also during standby for still image shooting. If the signal processing and control unit 11 determines in step S11 that moving image shooting has not been started, it determines whether or not frame information is recorded in step S21. When the frame information is recorded, the frame information is monitored in step S22, and it is determined whether or not the condition is satisfied in step S23, and still image shooting is performed. In addition, the process of step S22-S24 is the same as that of step S14-S16.

フレーム情報が存在しない場合又はステップS23において条件が成立しない場合には、信号処理及び制御部11は、ステップS25において、手動の静画撮影操作が行われたか否かを判定する。手動の静画撮影操作が行われた場合には、処理をステップS24に移行して静画撮影を行う。   If frame information does not exist or if the condition is not satisfied in step S23, the signal processing and control unit 11 determines in step S25 whether or not a manual still image shooting operation has been performed. If a manual still image shooting operation has been performed, the process proceeds to step S24 to perform still image shooting.

このように本実施の形態においては、自動撮影位置を予め設定することにより、動画撮影中において動く被写体を所望のタイミングで確実に撮影することができる。このように、直感的で且つ簡単な操作により、撮像視野内を移動する被写体を所望の位置及びタイミングで確実に撮影することができる。しかも、撮影地点の示すタッチ指定等によって、自動撮影位置を指定することができ、極めて簡単な操作で、自動静止画撮影が可能である。また、自動撮影時に画角を自動的に調整することができ、希望する被写体を十分なサイズで自動撮影することができる。   As described above, in the present embodiment, by setting the automatic shooting position in advance, it is possible to reliably shoot a moving subject during moving image shooting at a desired timing. In this way, an object that moves within the imaging field of view can be reliably photographed at a desired position and timing by an intuitive and simple operation. In addition, the automatic shooting position can be specified by touch specification indicated by the shooting point, and automatic still image shooting can be performed with an extremely simple operation. In addition, the angle of view can be automatically adjusted during automatic shooting, and a desired subject can be automatically shot with a sufficient size.

(第2の実施の形態)
図12は本発明の第2の実施の形態に採用されるフローチャートである。また、図13及び図14は第2の実施の形態における練習モードを説明するための説明図である。本実施の形態におけるハードウェア構成は第1の実施形態と同様である。第1の実施の形態においては、フレーム情報として、距離情報、画像パターン情報及び方位情報を用いて、自動撮影位置を設定した。本実施の形態は、フレーム情報として初期位置に対する方位差を用いて自動撮影位置を設定するものである。また、本実施の形態においては、自動撮影位置の設定を行うための練習モードでは、初期位置及び各自動撮影位置においてレリーズ操作を行うことで、自動撮影位置を設定するようになっている。
(Second Embodiment)
FIG. 12 is a flowchart employed in the second embodiment of the present invention. FIGS. 13 and 14 are explanatory diagrams for explaining the practice mode in the second embodiment. The hardware configuration in this embodiment is the same as that in the first embodiment. In the first embodiment, the automatic shooting position is set using distance information, image pattern information, and orientation information as frame information. In the present embodiment, an automatic shooting position is set by using an orientation difference with respect to an initial position as frame information. In this embodiment, in the practice mode for setting the automatic shooting position, the automatic shooting position is set by performing a release operation at the initial position and each automatic shooting position.

図12は図2のステップS4〜S6に代えて採用されるフローを示している。図12のステップS61において、信号処理及び制御部11は、自動撮影位置設定のための練習モードが指定されているか否かを判定する。練習モードが指定されると、表示制御部11aは、ステップS62において、練習モードであることを示すガイド表示57を表示画面35a上に表示させる。練習モードでは、先ず初期位置の指定が行われる(ステップS63)。ユーザは初期位置に光路部21の光軸56aを向けて、レリーズボタンを押下操作する。このプリセットレリーズ操作によって初期位置が指定され、方位判定部11dは、プリセットレリーズタイミングの方位を初期位置の方位として仮記録部16aに記録する(ステップS64)。   FIG. 12 shows a flow employed instead of steps S4 to S6 in FIG. In step S61 of FIG. 12, the signal processing and control unit 11 determines whether or not a practice mode for automatic shooting position setting is designated. When the practice mode is designated, the display control unit 11a displays a guide display 57 indicating the practice mode on the display screen 35a in step S62. In the practice mode, first, an initial position is designated (step S63). The user directs the optical axis 56a of the optical path portion 21 to the initial position and presses the release button. The initial position is designated by the preset release operation, and the direction determination unit 11d records the direction of the preset release timing as the initial position direction in the temporary recording unit 16a (step S64).

初期位置の設定が終了すると、表示制御部11aは、表示画面35a上に、ガイド表示58として次の操作の指示表示、例えば、「カメラを次の自動撮影位置に向けてレリーズ操作を行って下さい』等の表示を表示する(図14参照)。   When the setting of the initial position is completed, the display control unit 11a displays an instruction for the next operation as a guide display 58 on the display screen 35a, for example, “Please release the camera toward the next automatic shooting position. ] Is displayed (see FIG. 14).

ユーザは、初期位置の次に撮影したい自動撮影位置の方向に光路部21の光軸56bを向けて、プリセットレリーズ操作を行う。方位判定部11dは、ステップS65においてプリセット位置(自動撮影位置)を指定するプリセットレリーズ操作が行われものと判定すると、ステップS66において、初期位置の方位とプリセット位置の方位との方位差(向きの変化量)を求めて仮記録部16aに記録する。   The user performs a preset release operation by directing the optical axis 56b of the optical path unit 21 in the direction of the automatic photographing position to be photographed next to the initial position. If it is determined in step S65 that a preset release operation for designating a preset position (automatic shooting position) has been performed, the orientation determination unit 11d determines in step S66 that the orientation difference between the initial position and the preset position (direction Change amount) is obtained and recorded in the temporary recording unit 16a.

以後同様に、ユーザは、自動撮影位置として指定したい方向に光軸を向けて、プリセットレリーズ操作を行う。これにより、初期位置の方位と各プリセット位置の方位との方位差がフレーム情報として順次求められて仮記録部16aに記録される。ユーザは、撮影したい全ての自動撮影位置におけるプリセットレリーズ操作が終了すると、所定の終了操作を行い処理を終了する(ステップS67)。   Thereafter, similarly, the user performs a preset release operation with the optical axis directed in the direction desired to be designated as the automatic photographing position. Thereby, the azimuth | direction difference of the azimuth | direction of an initial position and the azimuth | direction of each preset position is calculated | required sequentially as frame information, and is recorded on the temporary recording part 16a. When the user completes the preset release operation at all automatic photographing positions to be photographed, the user performs a predetermined end operation and finishes the process (step S67).

自動静止画撮影モードにおける実際の撮影時には、ユーザは、初期位置として設定した方向に撮影機器1を向けて、レリーズボタン操作によって静止画撮影を行う。次に、ユーザは、注目被写体の動きに合わせて撮影機器1の向きを変化させる。方位判定部11dは、方位センサ17の出力によって、初期位置からの方位差を求めており、方位判定部11dは、初期位置からの方位差が仮記録部16aに記録されている方位差に到達することを検出する。この検出によって、信号処理及び制御部11は、自動的に静止画撮影を行う。以後、方位判定部11dが検出する方位差が仮記録部16aに記録した方位差に到達する毎に、自動的に静止画撮影が行われる。   At the time of actual shooting in the automatic still image shooting mode, the user directs the shooting device 1 in the direction set as the initial position and performs still image shooting by operating the release button. Next, the user changes the orientation of the photographing device 1 in accordance with the movement of the subject of interest. The azimuth determining unit 11d obtains the azimuth difference from the initial position based on the output of the azimuth sensor 17, and the azimuth determining unit 11d reaches the azimuth difference recorded in the temporary recording unit 16a from the initial position. Detect what to do. By this detection, the signal processing and control unit 11 automatically performs still image shooting. Thereafter, every time the azimuth difference detected by the azimuth determination unit 11d reaches the azimuth difference recorded in the temporary recording unit 16a, still image shooting is automatically performed.

このように、本実施の形態は、初期位置からの方位差によって自動撮影位置を設定し、撮影機器の向きの変化が設定された方位差に到達する毎に、自動的に静止画撮影を行っている。初期位置との方位差を自動撮影の条件としていることから、撮影したい被写体を追尾する必要も無い。従って、自動撮影の条件が成立しない可能性は比較的低く、自動的な静止画撮影を確実に行うことができる。例えば、ユーザが比較的大まかなフレーミング操作を行ったとしても、ユーザが希望するタイミングでの自動静止画撮影が可能となる。   As described above, the present embodiment sets the automatic shooting position based on the azimuth difference from the initial position, and automatically performs still image shooting every time the orientation change of the photographic device reaches the set azimuth difference. ing. Since the azimuth difference from the initial position is a condition for automatic shooting, there is no need to track the subject to be shot. Therefore, the possibility that the conditions for automatic shooting are not satisfied is relatively low, and automatic still image shooting can be reliably performed. For example, even when the user performs a relatively rough framing operation, automatic still image shooting at a timing desired by the user can be performed.

なお、上記各実施の形態においては、自動撮影時に連写を行うようにすることで、注目被写体を確実に捉えた自動撮影の可能性を向上させることができる。   In each of the above embodiments, continuous shooting is performed during automatic shooting, so that the possibility of automatic shooting that reliably captures the subject of interest can be improved.

さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。   Furthermore, in each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. A camera for moving images may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

1…撮影機器、10…本体部、11…信号処理及び制御部、11a…表示制御部、11b…距離判定部、11c…パターン判定部、11d…方位判定部、11e…顔判定部、11f…画角制御部、12…撮像部、14…時計部、15…操作判定部、16…記録部、16a…仮記録部、20…交換レンズ、35…表示部、36…タッチパネル。     DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Main-body part, 11 ... Signal processing and control part, 11a ... Display control part, 11b ... Distance determination part, 11c ... Pattern determination part, 11d ... Direction determination part, 11e ... Face determination part, 11f ... Angle-of-view control unit, 12 ... imaging unit, 14 ... clock unit, 15 ... operation determination unit, 16 ... recording unit, 16a ... temporary recording unit, 20 ... interchangeable lens, 35 ... display unit, 36 ... touch panel.

Claims (8)

被写体を撮像する撮像部と、
上記被写体を自動撮影する場合の自動撮影位置に関するフレーム情報をユーザ操作に基づいて取得するフレーム情報取得部と、
上記撮像部による上記被写体の動画撮像中における上記被写体の位置に関する情報と上記フレーム情報との比較によって上記被写体が上記自動撮影位置に到達したことを判定する自動撮影位置判定部と、
上記自動撮影位置判定部によって、上記被写体が上記自動撮影位置に到達したものと判定された場合には、上記撮像部を制御して上記被写体の静止画を撮影させる制御部と
を具備したことを特徴する撮影機器。
An imaging unit for imaging a subject;
A frame information acquisition unit that acquires frame information related to an automatic shooting position when the subject is automatically shot based on a user operation;
An automatic shooting position determination unit that determines that the subject has reached the automatic shooting position by comparing the frame information with information on the position of the subject during the moving image shooting of the subject by the imaging unit;
A control unit that controls the imaging unit to capture a still image of the subject when the automatic shooting position determination unit determines that the subject has reached the automatic shooting position. Characteristic photography equipment.
方位センサによって上記撮像部による撮影の方位を判定する方位判定部を具備し、
上記フレーム情報取得部は、ユーザ操作に基づいて上記自動撮影位置に関する方位の情報を上記フレーム情報として取得し、
上記自動撮影位置判定部は、上記撮像部の撮影方位によって上記被写体が上記自動撮影位置に到達したことを判定する
ことを特徴とする請求項1に記載の撮影機器。
An azimuth determining unit for determining the azimuth of shooting by the imaging unit by the azimuth sensor
The frame information acquisition unit acquires direction information regarding the automatic shooting position based on a user operation as the frame information,
The photographing apparatus according to claim 1, wherein the automatic photographing position determination unit determines that the subject has reached the automatic photographing position based on a photographing direction of the imaging unit.
上記撮像部により撮像される上記被写体までの距離を判定する距離判定部を具備し、
上記フレーム情報取得部は、ユーザ操作に基づいて上記自動撮影位置に関する距離の情報を上記フレーム情報として取得し、
上記自動撮影位置判定部は、上記撮像部により撮像されている上記被写体までの距離によって上記被写体が上記自動撮影位置に到達したことを判定する
ことを特徴とする請求項1又は2に記載の撮影機器。
A distance determination unit that determines a distance to the subject imaged by the imaging unit;
The frame information acquisition unit acquires distance information regarding the automatic shooting position based on a user operation as the frame information,
The photographing according to claim 1, wherein the automatic photographing position determination unit determines that the subject has reached the automatic photographing position based on a distance to the subject captured by the imaging unit. machine.
上記撮像部により撮像される画像パターンを判定する画像パターン判定部を具備し、
上記フレーム情報取得部は、ユーザ操作に基づいて上記自動撮影位置に関する画像パターンの情報を上記フレーム情報として取得し、
上記自動撮影位置判定部は、上記撮像部により撮像されている画像パターンによって上記被写体が上記自動撮影位置に到達したことを判定する
ことを特徴とする請求項1乃至3のいずれか1つに記載の撮影機器。
An image pattern determination unit for determining an image pattern captured by the imaging unit;
The frame information acquisition unit acquires information on an image pattern related to the automatic photographing position as the frame information based on a user operation,
The said automatic imaging position determination part determines that the said object reached | attained the said automatic imaging position with the image pattern imaged by the said imaging part. The Claim 1 characterized by the above-mentioned. Photography equipment.
上記撮像部で撮像して得た撮像画像に基づく表示を行う表示制御部と、
上記表示制御部によって表示された撮像画像に対応するスライド操作を受け付けるタッチパネルとを具備し、
上記フレーム情報取得部は、上記タッチパネルに対するユーザ操作に基づいて、上記フレーム情報を取得する
ことを特徴とする請求項1乃至4のいずれか1つに記載の撮影機器。
A display control unit for performing display based on a captured image obtained by imaging with the imaging unit;
A touch panel that accepts a slide operation corresponding to the captured image displayed by the display control unit,
The imaging apparatus according to any one of claims 1 to 4, wherein the frame information acquisition unit acquires the frame information based on a user operation on the touch panel.
上記撮像部により得られる撮像画像から顔を検出する顔検出部を具備し、
上記自動撮影位置判定部は、上記撮像部により得られる撮像画像中の顔のサイズに基づいて、上記被写体が上記自動撮影位置に到達したことを判定する
ことを特徴とする請求項3に記載の撮影機器。
A face detection unit for detecting a face from a captured image obtained by the imaging unit;
The automatic photographing position determination unit determines that the subject has reached the automatic photographing position based on a face size in a captured image obtained by the imaging unit. Shooting equipment.
上記撮像部により得られる撮像画像から顔を検出する顔検出部と、
上記自動撮影位置において撮影された上記被写体の顔のサイズに基づく画像範囲を切出す画角制御部と
を具備したことを特徴とする請求項1乃至6のいずれか1つに記載の撮影機器。
A face detection unit for detecting a face from a captured image obtained by the imaging unit;
The photographing apparatus according to claim 1, further comprising: an angle-of-view control unit that extracts an image range based on a size of the face of the subject photographed at the automatic photographing position.
上記フレーム情報取得部は、ユーザ操作に基づいて初期位置を基準として上記自動撮影位置に関する方位差の情報を上記フレーム情報として取得し、
上記自動撮影位置判定部は、上記撮像部の撮影方位から得られる上記初期位置を基準とした方位差によって上記被写体が上記自動撮影位置に到達したことを判定する
ことを特徴とする請求項2に記載の撮影機器。
The frame information acquisition unit acquires, as the frame information, information on an azimuth difference related to the automatic shooting position based on an initial position based on a user operation,
The automatic photographing position determination unit determines that the subject has reached the automatic photographing position based on a difference in orientation based on the initial position obtained from the photographing direction of the imaging unit. The imaging equipment described.
JP2012260115A 2012-11-28 2012-11-28 Photographing apparatus Pending JP2014107750A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012260115A JP2014107750A (en) 2012-11-28 2012-11-28 Photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012260115A JP2014107750A (en) 2012-11-28 2012-11-28 Photographing apparatus

Publications (1)

Publication Number Publication Date
JP2014107750A true JP2014107750A (en) 2014-06-09

Family

ID=51028871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012260115A Pending JP2014107750A (en) 2012-11-28 2012-11-28 Photographing apparatus

Country Status (1)

Country Link
JP (1) JP2014107750A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155173A (en) * 2013-02-13 2014-08-25 Canon Inc Imaging apparatus, control method and program for the same
JP2015005860A (en) * 2013-06-20 2015-01-08 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP2016111451A (en) * 2014-12-03 2016-06-20 キヤノン株式会社 Imaging control device, imaging device and imaging control program
CN108574801A (en) * 2017-03-10 2018-09-25 杭州萤石网络有限公司 A kind of image-pickup method and terminal
JP2018164272A (en) * 2018-05-28 2018-10-18 ソリッドビジョン株式会社 Imaging processing apparatus
WO2022137927A1 (en) * 2020-12-22 2022-06-30 ソニーグループ株式会社 Image processing device, image processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014155173A (en) * 2013-02-13 2014-08-25 Canon Inc Imaging apparatus, control method and program for the same
JP2015005860A (en) * 2013-06-20 2015-01-08 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP2016111451A (en) * 2014-12-03 2016-06-20 キヤノン株式会社 Imaging control device, imaging device and imaging control program
CN108574801A (en) * 2017-03-10 2018-09-25 杭州萤石网络有限公司 A kind of image-pickup method and terminal
JP2018164272A (en) * 2018-05-28 2018-10-18 ソリッドビジョン株式会社 Imaging processing apparatus
WO2022137927A1 (en) * 2020-12-22 2022-06-30 ソニーグループ株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
US9888182B2 (en) Display apparatus
US8976270B2 (en) Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation
JP4884417B2 (en) Portable electronic device and control method thereof
JP6192940B2 (en) Photography equipment and cooperative photography method
JP4019200B2 (en) Camera with image display
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
US10122930B2 (en) Display control apparatus and control method thereof
JP2013068671A (en) Imaging apparatus, control method thereof, program, and storage medium
JP2014107750A (en) Photographing apparatus
JP2011114487A (en) Imaging apparatus
JP2013009189A (en) Imaging device and imaging method
TWI693828B (en) Image-capturing device and method for operating the same
JP2008136024A (en) Imaging apparatus, imaging system, and imaging method
KR101817659B1 (en) Digital photographing apparatus and method of controlling the same
JP2013117650A (en) Digital camera
JP2014053863A (en) Photographing apparatus
JP2012090216A (en) Imaging device and control method for imaging device
WO2014080682A1 (en) Image-capturing device, and focusing method and focusing control program for said device
JP2010085530A (en) Autofocus system
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5328528B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4867136B2 (en) Imaging apparatus and program thereof
JP5846928B2 (en) Imaging device
JP6412222B2 (en) Shooting device, linked shooting method, and linked shooting program
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423