[go: up one dir, main page]

JP2017121042A - Subject tracking apparatus, control method of the same, control program, and imaging apparatus - Google Patents

Subject tracking apparatus, control method of the same, control program, and imaging apparatus Download PDF

Info

Publication number
JP2017121042A
JP2017121042A JP2016234392A JP2016234392A JP2017121042A JP 2017121042 A JP2017121042 A JP 2017121042A JP 2016234392 A JP2016234392 A JP 2016234392A JP 2016234392 A JP2016234392 A JP 2016234392A JP 2017121042 A JP2017121042 A JP 2017121042A
Authority
JP
Japan
Prior art keywords
subject
tracking
captured image
reliability
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016234392A
Other languages
Japanese (ja)
Other versions
JP6833483B2 (en
Inventor
良介 辻
Ryosuke Tsuji
良介 辻
伸茂 若松
Nobushige Wakamatsu
伸茂 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/369,165 priority Critical patent/US10659676B2/en
Publication of JP2017121042A publication Critical patent/JP2017121042A/en
Application granted granted Critical
Publication of JP6833483B2 publication Critical patent/JP6833483B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent malfunction of tracking caused by erroneous tracking of a subject.SOLUTION: A camera 101 is configured to track a subject in continuously obtained photographic images while shifting the subject. In the photographic image, a CPU 105 obtains a position of the subject in the photographic image and reliability that represents subject probability. Then, the CPU 105 controls a correction lens 114 to move the position of the subject to a target position in the photographic image and changes a tracking state of the subject on the basis of the reliability.SELECTED DRAWING: Figure 2

Description

本発明は、被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置に関する。   The present invention relates to a subject tracking device, a control method thereof, a control program, and an imaging device.

一般に、デジタルカメラなどの撮像装置においては、露出決定およびピント合わせなどの撮影上の重要な処理が自動化されている。さらに、手振れなどに起因する像ぶれを防止するための防振制御装置が搭載された撮像装置を用いれば、撮影の際にユーザの撮影ミスを誘発する要因をほぼなくすことができる。   In general, in an imaging apparatus such as a digital camera, important photographing processes such as exposure determination and focusing are automated. Furthermore, if an image pickup apparatus equipped with an image stabilization control device for preventing image blur due to camera shake or the like is used, it is possible to substantially eliminate a factor that causes a user's shooting mistake at the time of shooting.

一方、移動する被写体を撮影する場合又は焦点距離が大きくなる望遠における撮影では、次のような問題がある。   On the other hand, when shooting a moving subject or shooting at telephoto where the focal length is large, there are the following problems.

移動する被写体を撮影する際、被写体が撮影画面から外れてしまうと、当該被写体をユーザ操作によって精度よく追尾するためには、ユーザの特別な技術が必要となる。また、望遠レンズを有する撮像装置で撮影を行う際には、手振れに起因する像ぶれの影響が大きくなる。このため、ユーザは被写体を撮影画面の中心に維持することが困難となる。そして、ユーザが撮影画面に被写体を戻そうと撮像装置を操作したとしても、当該操作による手ぶれ量が撮像装置によってぶれ補正されてしまう。この結果、防振制御の影響によって被写体を撮影画面又は撮影画面の中心に微調整する操作が困難となる。   When shooting a moving subject, if the subject moves off the shooting screen, a special technique of the user is required to accurately track the subject by a user operation. In addition, when shooting with an imaging apparatus having a telephoto lens, the influence of image blur due to camera shake becomes large. This makes it difficult for the user to maintain the subject at the center of the shooting screen. Even if the user operates the imaging device to return the subject to the shooting screen, the amount of camera shake caused by the operation is corrected by the imaging device. As a result, it becomes difficult to finely adjust the subject to the shooting screen or the center of the shooting screen due to the influence of the vibration control.

このような問題に対処するため、例えば、光軸と交差する方向に光学系の一部を移動して、自動的に被写体を追尾する追尾制御装置を備える撮像装置がある(特許文献1参照)。さらに、撮影の結果得られた画像から目的とする被写体を抽出して、当該被写体の重心位置が撮影画面の中心付近となるように、回転雲台などによって被写体を追尾するようにした撮像装置がある(特許文献2参照)。   In order to cope with such a problem, for example, there is an imaging device including a tracking control device that automatically tracks a subject by moving a part of the optical system in a direction intersecting the optical axis (see Patent Document 1). . Further, an imaging apparatus that extracts a target subject from an image obtained as a result of shooting and tracks the subject with a rotary head so that the center of gravity of the subject is located near the center of the shooting screen. Yes (see Patent Document 2).

特開2010−93362号公報JP 2010-93362 A 特開平7−226873号公報JP-A-7-226873

ところが、特許文献2に記載の撮像装置においては、撮影画像から抽出される重心位置の推定精度が回転雲台の追尾制御に影響を与える。なお、以下の説明では、逐次供給される撮影画像から特定の被写体領域を抽出することを追跡と呼び、追跡結果による被写体位置に基づいて光学系の一部又は回転雲台などの可動部を制御することを追尾と呼ぶ。   However, in the imaging apparatus described in Patent Document 2, the estimation accuracy of the centroid position extracted from the captured image affects the tracking control of the rotary head. In the following description, extraction of a specific subject area from sequentially supplied captured images is called tracking, and a part of the optical system or a movable part such as a rotary head is controlled based on the subject position based on the tracking result. This is called tracking.

被写体の追跡において、撮影画像に追跡対象と類似する領域が存在すると、誤った領域を追跡してしまうことがある。そして、誤った追跡結果に基づいて追尾が行われると、ユーザによる撮影を大きく妨げることになる。   In tracking an object, if an area similar to the tracking target exists in the captured image, an incorrect area may be tracked. If tracking is performed based on an incorrect tracking result, shooting by the user is greatly hindered.

従って、本発明の目的は被写体の追跡の誤りに起因する追尾の誤動作を防止することのできる被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   Accordingly, an object of the present invention is to provide a subject tracking device, a control method thereof, a control program, and an imaging device that can prevent a tracking malfunction caused by a tracking error of the subject.

上記の目的を達成するため、本発明による被写体追尾装置は、撮影画像において被写体をシフトさせるシフト手段と、前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡手段と、前記シフト手段を制御して前記撮影画像における前記被写体の位置を前記撮影画像における目標位置に移動させるとともに、前記信頼度に基づいて前記被写体の追尾状態を変更する制御手段と、を有することを特徴とする。   In order to achieve the above object, a subject tracking device according to the present invention includes a shift unit that shifts a subject in a photographed image, and a subject that obtains reliability indicating the position of the subject and the likelihood of the subject in the photographed image. Tracking means; and control means for controlling the shift means to move the position of the subject in the captured image to a target position in the captured image and changing the tracking state of the subject based on the reliability. It is characterized by having.

本発明による撮像装置は、撮像光学系を介して結像した光学像に応じて撮影画像を得る撮像手段と、上記の被写体追尾装置と、を有することを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that obtains a captured image according to an optical image formed through an imaging optical system, and the subject tracking apparatus.

本発明による制御方法は、連続的に得られる撮影画像における被写体をシフトさせるシフト手段を備え、前記被写体を追尾する被写体追尾装置の制御方法であって、前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、前記シフト手段を制御して前記撮影画像における前記被写体の位置を前記撮影画像における目標位置に移動させるとともに、前記信頼度に基づいて前記被写体の追尾状態を変更する制御ステップと、を有することを特徴とする。   A control method according to the present invention is a control method of a subject tracking device that includes a shift unit that shifts a subject in continuously obtained captured images, and that tracks the subject, in the captured image, the subject in the captured image A subject tracking step for obtaining a reliability indicating the position and the likelihood of the subject, and controlling the shift means to move the position of the subject in the captured image to a target position in the captured image, and based on the reliability And a control step for changing the tracking state of the subject.

本発明による制御プログラムは、連続的に得られる撮影画像における被写体をシフトさせるシフト手段を備え、前記被写体を追尾する被写体追尾装置で用いられる制御プログラムであって、前記被写体追尾装置に備えられたコンピュータに、前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、前記シフト手段を制御して前記撮影画像における前記被写体の位置を前記撮影画像における目標位置に移動させるとともに、前記信頼度に基づいて前記被写体の追尾状態を変更する制御ステップと、を実行させることを特徴とする。   A control program according to the present invention is a control program used in a subject tracking device that includes a shift unit that shifts a subject in continuously obtained captured images and that tracks the subject, and is a computer provided in the subject tracking device. In addition, in the captured image, a subject tracking step for obtaining a reliability indicating the position of the subject and the likelihood of the subject in the captured image, and the position of the subject in the captured image by controlling the shift means. And a control step of changing the tracking state of the subject based on the reliability.

本発明によれば、被写体の追跡の誤りに起因する追尾の誤動作を防止することができる。   According to the present invention, it is possible to prevent a tracking malfunction caused by an object tracking error.

本発明の第1の実施形態による被写体追尾装置を備える撮像装置の一例についてその外観を模式的に示す図である。It is a figure which shows typically the external appearance about an example of an imaging device provided with the subject tracking apparatus by the 1st Embodiment of this invention. 図1に示すカメラの構成についてその一例を示す図である。It is a figure which shows the example about the structure of the camera shown in FIG. 図2に示すカメラで検出された被写体の追尾を説明するための図であり、(A)は被写体の追尾開始前の撮影画像を示す図、(B)は被写体の追尾開始後の撮影画像を示す図である。FIGS. 3A and 3B are diagrams for explaining tracking of a subject detected by the camera shown in FIG. 2, in which FIG. 3A is a diagram illustrating a captured image before the tracking of the subject is started, and FIG. FIG. 図2に示す被写体追跡部で行われる被写体追跡処理の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of a subject tracking process performed by a subject tracking unit shown in FIG. 2. 図2に示す被写体追跡部で行われるテンプレートマッチング処理を説明するための図である。It is a figure for demonstrating the template matching process performed in the subject tracking part shown in FIG. 図2に示す追尾量算出部の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of the tracking amount calculation part shown in FIG. 図2に示すカメラで行われる被写体追尾の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of subject tracking performed by the camera shown in FIG. 2. 本発明の第2の実施形態に係るカメラの構成についてその一例を示す図である。It is a figure which shows the example about the structure of the camera which concerns on the 2nd Embodiment of this invention. 図8に示すカメラにおける通知方法を説明するための図である。It is a figure for demonstrating the notification method in the camera shown in FIG.

以下に、本発明の実施形態による被写体の追跡の誤りに起因する追尾の誤動作を軽減することのできる被写体追尾装置、その制御方法、および制御プログラム、並びに被写体追尾装置を備える撮像装置の一例について図面を参照して説明する。なお、下記の第1の実施形態、第2の実施形態ともに、撮像装置としてデジタルカメラに本発明を適用した例について説明をするが、本発明は、デジタルカメラに限らず、デジタルビデオカメラ、監視カメラ、Webカメラ、携帯電話等の撮像装置にも適用可能である。また、本発明は、レンズ交換式、レンズ一体型のいずれのカメラにも適用可能である。   BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram illustrating an example of a subject tracking device, a control method thereof, a control program, and an imaging device including the subject tracking device that can reduce a tracking malfunction caused by a subject tracking error according to an embodiment of the present invention. Will be described with reference to FIG. In both of the following first and second embodiments, an example in which the present invention is applied to a digital camera as an imaging device will be described. However, the present invention is not limited to a digital camera, and a digital video camera, surveillance The present invention can also be applied to an imaging apparatus such as a camera, a web camera, or a mobile phone. In addition, the present invention can be applied to either a lens interchangeable type camera or a lens integrated type camera.

[第1の実施形態]
図1は、本発明の第1の実施形態による被写体追尾装置を備える撮像装置の一例についてその外観を模式的に示す図である。
[First Embodiment]
FIG. 1 is a diagram schematically illustrating an appearance of an example of an imaging apparatus including a subject tracking device according to the first embodiment of the present invention.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)101であり、カメラ筐体の上面にはレリーズボタン104が配置されている。ここでは、カメラ101の側面の方向に延びる軸をX軸とし、上面の方向に延びる軸をY軸とする。また、カメラ101の正面の方向に延びる軸をZ軸とする。そして、X軸回りの回転103Ppをピッチ(PITCH)とし、Y軸回りの回転103yをヨー(YAW)とする。   The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera) 101, and a release button 104 is disposed on the upper surface of the camera housing. Here, an axis extending in the direction of the side surface of the camera 101 is defined as an X axis, and an axis extending in the direction of the upper surface is defined as a Y axis. An axis extending in the front direction of the camera 101 is taken as a Z axis. Then, the rotation 103Pp around the X axis is set as a pitch (PITCH), and the rotation 103y around the Y axis is set as a yaw (YAW).

図2は、図1に示すカメラの構成についてその一例を示す図である。   FIG. 2 is a diagram showing an example of the configuration of the camera shown in FIG.

図1および図2を参照して、撮像光学系の光軸102上には、補正レンズ114および撮像素子106が位置づけられている。撮像素子106は撮像光学系を介して結像した光学像に応じた電気信号(アナログ信号)を生成し、当該アナログ信号をA/D変換して撮影画像として出力する。なお、図示はしないが、撮像光学系にはズームレンズおよびフォーカスレンズが備えられている。角速度計103は、ピッチ103pおよびヨー103yにおける角度振れ(つまり、カメラ101のぶれ)を検出して角度振れ信号をCPU105に送る。CPU105は、本実施形態の被写体追尾装置を構成する。   1 and 2, a correction lens 114 and an image sensor 106 are positioned on the optical axis 102 of the image pickup optical system. The image sensor 106 generates an electrical signal (analog signal) corresponding to the optical image formed through the imaging optical system, A / D converts the analog signal, and outputs it as a captured image. Although not shown, the imaging optical system includes a zoom lens and a focus lens. The angular velocity meter 103 detects an angular shake (that is, camera shake) at the pitch 103p and the yaw 103y and sends an angular shake signal to the CPU 105. The CPU 105 constitutes the subject tracking device of the present embodiment.

CPU105において、振れ補正角度算出部108は、角度振れ信号に基づいて振れ補正角度を求める。例えば、振れ補正角度算出部108は、角度振れ信号において検出ノイズとして付加されるDC成分をカットした後、積分処理を行ってカメラ101の角度を示す角度信号を出力する。なお、DC成分のカットには、例えば、HPF(ハイパスフィルタ)が用いられる。そして、角度信号は敏感度調整部109に送られる。   In the CPU 105, a shake correction angle calculation unit 108 obtains a shake correction angle based on the angle shake signal. For example, the shake correction angle calculation unit 108 cuts a DC component added as detection noise in the angle shake signal, performs integration processing, and outputs an angle signal indicating the angle of the camera 101. For example, an HPF (High Pass Filter) is used for cutting the DC component. Then, the angle signal is sent to the sensitivity adjustment unit 109.

敏感度調整部109には、ズームおよびフォーカス位置検出部107からズームレンズおよびフォーカスレンズの位置を示すズーム位置およびフォーカス位置が送られる。敏感度調整部109は、ズーム位置およびフォーカス位置に基づいて焦点距離および撮影倍率を求める。そして、敏感度調整部109は焦点距離および撮影倍率に応じて角度信号を増幅して振れ補正目標値とする。敏感度調整部109は振れ補正目標値を振れ補正量として駆動制御部113に送る。   A zoom position and a focus position indicating the positions of the zoom lens and the focus lens are sent from the zoom and focus position detection unit 107 to the sensitivity adjustment unit 109. The sensitivity adjustment unit 109 obtains the focal length and the shooting magnification based on the zoom position and the focus position. Then, the sensitivity adjustment unit 109 amplifies the angle signal according to the focal length and the shooting magnification to obtain a shake correction target value. The sensitivity adjustment unit 109 sends the shake correction target value to the drive control unit 113 as a shake correction amount.

なお、フォーカスレンズおよびズームレンズの位置の変化によって補正レンズ114の振れ補正ストロークに対するカメラ像面における振れ補正敏感度が変化するので、ここでは、ズーム位置およびフォーカス位置に基づいて振れ補正目標値を求める。   Note that the shake correction sensitivity on the camera image plane with respect to the shake correction stroke of the correction lens 114 changes due to the change in the position of the focus lens and the zoom lens. Therefore, here, the shake correction target value is obtained based on the zoom position and the focus position. .

前述の補正レンズ114は、撮影の結果得られた画像における、追尾対象の被写体(追尾対象被写体)をシフト移動させるために用いられる。駆動制御部113は、後述するように、補正レンズ114を駆動制御して被写体の追尾を行う。さらに、駆動制御部113は補正レンズ114を光軸と異なる方向(例えば、交差する方向)に駆動して像ぶれを補正する(光学防振)。   The correction lens 114 described above is used to shift and move a tracking target subject (tracking target subject) in an image obtained as a result of shooting. As will be described later, the drive control unit 113 drives the correction lens 114 to track the subject. Further, the drive control unit 113 corrects image blur by driving the correction lens 114 in a direction different from the optical axis (for example, a crossing direction) (optical image stabilization).

図2に示す例では、補正レンズ114を用いて光学防振を行うようにしたが、像ぶれ補正手法として、撮像素子106を光軸に直交する面内で移動させて像ぶれ補正を行う手法を用いるようにしてもよい。さらには、撮像素子106の出力である撮影フレーム毎に画像の切り出し位置を変更して、振れの影響を軽減する電子防振を用いるようにしてもよい。そして、上述の複数の像ブレ補正手法を組み合わせて用いるようにしてもよい。   In the example shown in FIG. 2, optical image stabilization is performed using the correction lens 114. However, as an image blur correction method, the image blur correction method is performed by moving the image sensor 106 in a plane orthogonal to the optical axis. May be used. Furthermore, electronic image stabilization that reduces the influence of shake by changing the cutout position of the image for each shooting frame that is the output of the image sensor 106 may be used. A plurality of image blur correction methods described above may be used in combination.

被写体追跡部110は、撮像素子106の出力である撮影画像を受けて、撮影画像において被写体領域の位置を抽出する。本実施形態では、被写体領域の重心位置が被写体の位置として用いられる。さらに、被写体追跡部110は被写体らしさを示す信頼度(尤度)を求めて、重心位置および尤度を追尾量算出部111に送る。追尾量算出部111は被写体領域の重心位置に基づいて、補正レンズ114によって被写体を追尾するために用いる制御量である追尾補正量を算出する。また、追尾量算出部111は尤度に基づいて追尾補正量を変更する。   The subject tracking unit 110 receives the captured image that is the output of the image sensor 106 and extracts the position of the subject region in the captured image. In the present embodiment, the position of the center of gravity of the subject area is used as the subject position. Furthermore, the subject tracking unit 110 obtains a reliability (likelihood) indicating the likelihood of the subject, and sends the center of gravity position and the likelihood to the tracking amount calculation unit 111. The tracking amount calculation unit 111 calculates a tracking correction amount that is a control amount used for tracking the subject by the correction lens 114 based on the position of the center of gravity of the subject region. Further, the tracking amount calculation unit 111 changes the tracking correction amount based on the likelihood.

加算器112は、敏感度調整部109の出力である振れ補正量と追尾量算出部111の出力である追尾補正量とを加算して、加算結果を駆動制御部113に送る。駆動制御部113は、加算器112の出力である加算結果に基づいて、補正レンズ114の駆動量を求めて、当該駆動量に基づいて補正レンズ114を駆動し、被写体の追尾および像ぶれ補正を行う。   The adder 112 adds the shake correction amount that is the output of the sensitivity adjustment unit 109 and the tracking correction amount that is the output of the tracking amount calculation unit 111, and sends the addition result to the drive control unit 113. The drive control unit 113 calculates the drive amount of the correction lens 114 based on the addition result that is the output of the adder 112, drives the correction lens 114 based on the drive amount, and performs subject tracking and image blur correction. Do.

図3は、図2に示すカメラで検出された被写体の追尾を説明するための図である。そして、図3(A)は被写体の追尾開始前の撮影画像を示す図であり、図3(B)は被写体の追尾開始後の撮影画像を示す図である。   FIG. 3 is a diagram for explaining tracking of a subject detected by the camera shown in FIG. FIG. 3A is a diagram illustrating a captured image before the subject tracking is started, and FIG. 3B is a diagram illustrating a captured image after the subject tracking is started.

図3(A)に示す撮影画像301aにおいて、被写体302aは、画像中心304から離れた位置に存在する。ここでは、被写体302aの重心位置(被写体重心位置)が参照番号303aで示されている。CPU105は、追尾(追尾制御ともいう)によって被写体重心位置303aを画像中心304に徐々に近づけて、最終的に画像中心304と被写体重心位置303aとをほぼ一致させる。これによって、図3(B)に示すように、追尾が成功した被写体302aの被写体重心位置303aは画像中心304と一致する。   In the captured image 301 a shown in FIG. 3A, the subject 302 a exists at a position away from the image center 304. Here, the gravity center position (subject gravity center position) of the subject 302a is indicated by reference numeral 303a. The CPU 105 gradually brings the subject gravity center position 303a closer to the image center 304 by tracking (also referred to as tracking control), and finally makes the image center 304 and the subject gravity center position 303a substantially coincide with each other. As a result, as shown in FIG. 3B, the subject gravity center position 303a of the subject 302a that has been successfully tracked coincides with the image center 304.

ここで、被写体追跡部110における被写体追跡手法について説明する。図示の例では、被写体追跡の際には、目的とする被写体を示す部分画像をテンプレートとして、当該テンプレートをシフトさせつつ撮影画像と照合して、相違度が低い領域を推定する手法(テンプレートマッチング)が用いられる。また、目的とする被写体について時間方向のスケール変換に対応するため、被写体の特徴色を抽出して、撮影画像の特徴色の分布状況に基づいて被写体領域を推定する手法も用いられる。そして、推定された被写体領域に基づいてテンプレートを更新する。   Here, a subject tracking method in the subject tracking unit 110 will be described. In the illustrated example, when tracking an object, a method of estimating a region with a low degree of difference by using a partial image indicating a target object as a template and matching the captured image while shifting the template (template matching). Is used. Further, in order to cope with the scale conversion in the time direction for the target subject, a method of extracting the subject feature color and estimating the subject region based on the distribution state of the feature color of the photographed image is also used. Then, the template is updated based on the estimated subject area.

図4は、図2に示す被写体追跡部110で行われる被写体追跡処理の一例を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining an example of subject tracking processing performed by the subject tracking unit 110 shown in FIG.

被写体追跡処理を開始すると、被写体追跡部110は撮像素子106から撮影画像を読み込む(ステップS401)。そして、被写体追跡部110は、撮影画像に予め指定された追跡対象である被写体が存在するか否かを判定する(ステップS402)。追跡対象の被写体が存在しないと(ステップS402において、NO)、被写体追跡部110は追跡対象の被写体を決定するため、撮影画像において被写体を検出する(ステップS403)。   When the subject tracking process is started, the subject tracking unit 110 reads a captured image from the image sensor 106 (step S401). Then, the subject tracking unit 110 determines whether there is a subject that is a tracking target designated in advance in the captured image (step S402). If the tracking target subject does not exist (NO in step S402), the subject tracking unit 110 detects the subject in the captured image in order to determine the tracking target subject (step S403).

ステップS403の処理においては、被写体追跡部110はユーザの指示に基づいて被写体を検出するか又は自動で被写体を検出する。ユーザの指示に基づいて被写体を検出する際には、タッチパネルおよびボタンなどを有する入力インターフェイスによって、ユーザが撮影画像において被写体の位置を指示する。そして、被写体追跡部110はユーザが指示した位置に基づいて被写体を検出して当該被写体領域を抽出する。   In the process of step S403, the subject tracking unit 110 detects a subject based on a user instruction or automatically detects a subject. When a subject is detected based on a user's instruction, the user instructs the position of the subject in the captured image using an input interface having a touch panel and buttons. The subject tracking unit 110 detects the subject based on the position designated by the user and extracts the subject region.

一方、自動で被写体を検出する際には、被写体追跡部110は顔検出を用いる。顔検出の際には、例えば、顔に関する知識(肌色情報、目・鼻・口などのパーツ)を用いる手法とニューラルネットに代表される学習アルゴリズムによって顔検出のための識別器を構成する手法などがある。また、顔検出においては、検出率向上のため、一般に、上記の手法を組み合わせて顔検出が行われる。顔検出については、例えば、特開2002−251380号公報に記載のウェーブレット変換と画像特徴量とを用いて顔検出を行う手法が知られている。   On the other hand, when automatically detecting a subject, the subject tracking unit 110 uses face detection. When detecting a face, for example, a technique that uses knowledge about the face (skin color information, parts such as eyes, nose, mouth, etc.) and a technique that constitutes a classifier for face detection by a learning algorithm represented by a neural network, etc. There is. In face detection, face detection is generally performed by combining the above methods in order to improve the detection rate. As for face detection, for example, a method of performing face detection using a wavelet transform and an image feature amount described in JP-A-2002-251380 is known.

続いて、被写体追跡部110は被写体領域から追跡対象である被写体の特徴量を抽出する(ステップS404)。ここでは、テンプレートマッチングを用いて追跡処理を行うので、被写体領域の画像パターンが特徴量として抽出される。さらに、特徴色の分布に基づいて被写体領域の推定を行うため、被写体領域の色ヒストグラムHinが保持される。その後、被写体追跡部110は被写体追跡処理を終了して、次の撮影のサンプリング周期まで待ち状態となる。   Subsequently, the subject tracking unit 110 extracts the feature amount of the subject that is the tracking target from the subject region (step S404). Here, since the tracking process is performed using template matching, the image pattern of the subject area is extracted as the feature amount. Furthermore, since the subject area is estimated based on the distribution of characteristic colors, the color histogram Hin of the subject area is held. Thereafter, the subject tracking unit 110 ends the subject tracking process and waits until the next imaging sampling period.

一方、追跡対象の被写体が存在すると(ステップS402において、YES)、被写体追跡部110は、テンプレートを用いてテンプレートマッチング処理を行う(ステップS405)。   On the other hand, if there is a subject to be tracked (YES in step S402), subject tracking unit 110 performs a template matching process using a template (step S405).

図5は、図2に示す被写体追跡部110で行われるテンプレートマッチング処理を説明するための図である。そして、図5(A)はテンプレートマッチング処理における被写体モデル(テンプレート)の一例を示す図であり、図5(B)は追跡対象の被写体を探索する画像の一例を示す図である。   FIG. 5 is a diagram for explaining template matching processing performed by the subject tracking unit 110 shown in FIG. FIG. 5A is a diagram showing an example of a subject model (template) in the template matching process, and FIG. 5B is a diagram showing an example of an image for searching for a subject to be tracked.

ここでは、追跡対象の被写体を示す部分画像(テンプレート)501の画素パターンが特徴量として用いられる。そして、テンプレート501の特徴量502として画素データの輝度が用いられる。特徴量T(i,j)は、テンプレート内の座標を(i,j)、水平画素数をW、および垂直画素数をHとすると、次の式(1)で表される。   Here, the pixel pattern of the partial image (template) 501 showing the subject to be tracked is used as the feature amount. The luminance of the pixel data is used as the feature quantity 502 of the template 501. The feature amount T (i, j) is expressed by the following equation (1), where the coordinates in the template are (i, j), the number of horizontal pixels is W, and the number of vertical pixels is H.

Figure 2017121042
Figure 2017121042

図5(B)において、マッチング処理を行う範囲である探索画像503における座標を(x,y)とする。探索画像503においてテンプレートマッチングの評価値を得るための部分領域504を設定する。そして、部分領域504の特徴量505にはテンプレート501と同様に撮影画像の輝度が用いられる。特徴量S(i,j)は、部分領域504内の座標を(i,j)、水平画素数をW、および垂直画素数をHとすると、次の式(2)で表される。   In FIG. 5B, the coordinates in the search image 503, which is the range in which matching processing is performed, are assumed to be (x, y). A partial area 504 for obtaining an evaluation value of template matching in the search image 503 is set. The brightness of the captured image is used as the feature quantity 505 of the partial area 504 in the same manner as the template 501. The feature quantity S (i, j) is expressed by the following equation (2), where the coordinates in the partial region 504 are (i, j), the number of horizontal pixels is W, and the number of vertical pixels is H.

Figure 2017121042
Figure 2017121042

テンプレート501と部分領域504との類似性を評価する際には、差分絶対和、所謂SAD(Sum of Absolute Difference)値が用いられる。そして、SAD値は、次の式(3)によって求められる。   When evaluating the similarity between the template 501 and the partial region 504, an absolute difference sum, a so-called SAD (Sum of Absolute Difference) value, is used. And a SAD value is calculated | required by following Formula (3).

Figure 2017121042
Figure 2017121042

部分領域504を探索画像503の左上から順に1画素ずつずらしながら、SAD値V(x,y)を求める。SAD値V(x,y)が最小値を示す座標(x,y)がテンプレート501と最も類似した位置を示す。つまり、最小値を示す位置が探索画像503において目的とする追跡対象の被写体が存在する可能性の高い位置となる。   The SAD value V (x, y) is obtained while shifting the partial area 504 one pixel at a time from the upper left of the search image 503. A coordinate (x, y) at which the SAD value V (x, y) indicates a minimum value indicates a position most similar to the template 501. That is, the position indicating the minimum value is a position where there is a high possibility that the target subject to be tracked exists in the search image 503.

ここでは、特徴量として輝度(輝度信号)などの1次元情報を用いる例について説明したが、明度、色相、および彩度などの3次元情報を特徴量として用いてもよい。また、テンプレートマッチングの評価値を求める際にはSAD値を用いたが、正規化相互相関、所謂NCC(Normalized Correlation Coeffiecient)などの手法を用いてもよい。   Here, an example in which one-dimensional information such as luminance (luminance signal) is used as the feature amount has been described, but three-dimensional information such as lightness, hue, and saturation may be used as the feature amount. Further, although the SAD value is used when obtaining the template matching evaluation value, a method such as normalized cross-correlation, so-called NCC (Normalized Correlation Coefficient) may be used.

再び図4を参照して、被写体追跡部110は、テンプレートマッチング処理によって推定した位置に基づいて被写体領域の推定を行う(ステップS406)。ここでは、被写体追跡部110は、ステップS404で得られた被写体領域の色ヒストグラムHinと現在時刻の撮影画像の全体又は一部の色ヒストグラムHoutとに基づいて、次の式(4)で示す情報量I(a)を求める。   Referring to FIG. 4 again, the subject tracking unit 110 estimates the subject region based on the position estimated by the template matching process (step S406). Here, the subject tracking unit 110 uses the color histogram Hin of the subject area obtained in step S404 and the color histogram Hout of the entire or part of the captured image at the current time to obtain information represented by the following equation (4). The quantity I (a) is determined.

Figure 2017121042
Figure 2017121042

情報量I(a)は、色ヒストグラムの各ビンにおいて、撮影画像全体又は一部に対する被写体領域の生起確率を示す。被写体追跡部110は情報量I(a)を現在時刻の撮影画像の各画素に適応して探索画像503に被写体が存在する可能性を示すマップを生成する。そして、被写体追跡部110は当該マップに基づいて被写体領域を推定し、推定した被写体領域の重心位置を出力する。   The information amount I (a) indicates the occurrence probability of the subject area with respect to the entire captured image or a part thereof in each bin of the color histogram. The subject tracking unit 110 adapts the information amount I (a) to each pixel of the captured image at the current time to generate a map indicating the possibility that the subject exists in the search image 503. Then, the subject tracking unit 110 estimates the subject area based on the map, and outputs the estimated gravity center position of the subject area.

続いて、被写体追跡部110は被写体追跡の尤度を算出する(ステップS407)。被写体追跡の確からしさを妨げる要因として、例えば、被写体の変化、類似被写体の存在、追跡誤差の蓄積が挙げられる。被写体追跡部110はこれら要因をテンプレートマッチング処理および被写体領域の推定から得られた評価値に乗算して尤度を算出する。   Subsequently, the subject tracking unit 110 calculates the likelihood of subject tracking (step S407). Factors that hinder the likelihood of subject tracking include, for example, subject changes, the presence of similar subjects, and accumulation of tracking errors. The subject tracking unit 110 calculates the likelihood by multiplying these factors by the evaluation value obtained from the template matching process and the estimation of the subject region.

上述の式(3)で求めたSAD値V(x,y)の最小値が大きい程、被写体の変化が大きい。よって、被写体追跡部110は当該最小値が大きい程尤度を小さくする。式(3)で得られたSAD値V(x,y)の最小値と類似するSAD値が、被写体の推定位置と所定の閾値以上離れた位置に存在する場合には、類似被写体が存在する可能性が高い。このため、被写体追跡部110は、被写体の推定位置から所定の閾値以上離れた位置に存在するSAD値と式(3)で得られたSAD値V(x,y)の最小値との類似度が高い程尤度を低くする。   The larger the minimum value of the SAD value V (x, y) obtained by the above equation (3), the greater the change in the subject. Therefore, the subject tracking unit 110 decreases the likelihood as the minimum value increases. If the SAD value similar to the minimum value of the SAD value V (x, y) obtained by Expression (3) is present at a position that is separated from the estimated position of the subject by a predetermined threshold or more, a similar subject exists. Probability is high. For this reason, the subject tracking unit 110 determines the similarity between the SAD value present at a position away from the estimated position of the subject by a predetermined threshold or more and the minimum value of the SAD value V (x, y) obtained by Expression (3). The higher the value, the lower the likelihood.

なお、式(4)で得られた被写体の色特徴色を示す情報量I(a)について、被写体領域内の平均値(期待値)であるエントロピーEinが小さい程、被写体の変化が大きい。エントロピーEinは次の式(5)で表される。   Regarding the information amount I (a) indicating the color characteristic color of the subject obtained by Expression (4), the change in the subject increases as the entropy Ein, which is an average value (expected value) in the subject region, decreases. Entropy Ein is expressed by the following equation (5).

Figure 2017121042
Figure 2017121042

被写体追跡部110は、エントロピーEinが小さい程尤度を小さくする。さらに、式(4)で示す被写体の特徴色である情報量I(a)について、被写体領域外の平均値(期待値)であるエントロピーEoutが大きい程類似対象が存在する可能性が高い。エントロピーEoutは次の式(6)で表される。   The subject tracking unit 110 decreases the likelihood as the entropy Ein decreases. Furthermore, with respect to the information amount I (a) that is the characteristic color of the subject represented by Expression (4), the possibility that a similar target exists increases as the entropy Eout, which is an average value (expected value) outside the subject area, increases. Entropy Eout is expressed by the following equation (6).

Figure 2017121042
Figure 2017121042

被写体追跡部110は、エントロピーEoutが大きい程尤度を小さくする。さらに、被写体追跡の確からしさが一度低くなると、その後の追跡の信頼性も低くなる。このため、被写体追跡部110は尤度算出の際に履歴の尤度を加味する。例えば、所定の期間の尤度の平均値を現在フレームの尤度として用いる。このようにして、被写体追跡部110は被写体追跡の尤度を算出する。   The subject tracking unit 110 decreases the likelihood as the entropy Eout increases. Furthermore, once the subject tracking accuracy is lowered, the reliability of the subsequent tracking is also lowered. For this reason, the subject tracking unit 110 considers the likelihood of the history when calculating the likelihood. For example, an average value of likelihoods for a predetermined period is used as the likelihood of the current frame. In this way, the subject tracking unit 110 calculates the likelihood of subject tracking.

続いて、被写体追跡部110は被写体特徴量を更新する(ステップS408)。ここでは、被写体追跡部110はステップS406の処理で推定した被写体領域に基づいてテンプレートを更新して、被写体のスケール変化に対応する。その後、被写体追跡部110は被写体追跡処理を終了して、次の撮影のサンプリング周期まで待ち状態となる。   Subsequently, the subject tracking unit 110 updates the subject feature amount (step S408). Here, the subject tracking unit 110 updates the template based on the subject area estimated in the process of step S406, and responds to the scale change of the subject. Thereafter, the subject tracking unit 110 ends the subject tracking process and waits until the next imaging sampling period.

図6は、図2に示す追尾量算出部111の一例を説明するためのブロック図である。   FIG. 6 is a block diagram for explaining an example of the tracking amount calculation unit 111 shown in FIG.

追尾量算出部111は、画像の縦方向および横方向の各々において追尾補正量を求めるが、ここでは、一方の方向の追尾補正量の算出について説明する。追尾量算出部111は、被写体の位置(つまり、重心位置)と画像中心位置(被写体の目標位置)との差分に基づいて、被写体を追尾するためのカウント値を算出する。追尾量算出部111は、カウント値をサンプリング時間毎に加算して、被写体の位置が目標位置に移動するように制御する。そして、追尾量算出部111は、被写体追跡部110の出力である尤度(被写体尤度)に基づいて、カウント値の大きさを変更して追尾の度合いを変更する。   The tracking amount calculation unit 111 calculates the tracking correction amount in each of the vertical direction and the horizontal direction of the image. Here, calculation of the tracking correction amount in one direction will be described. The tracking amount calculation unit 111 calculates a count value for tracking the subject based on the difference between the position of the subject (that is, the gravity center position) and the image center position (target position of the subject). The tracking amount calculation unit 111 controls the position of the subject to move to the target position by adding the count value every sampling time. Then, the tracking amount calculation unit 111 changes the degree of tracking by changing the size of the count value based on the likelihood (subject likelihood) output from the subject tracking unit 110.

減算器604は、被写体位置取得部601が取得した被写体位置の座標から画像中心位置取得部602が取得した画像中心位置の座標を減算する。これによって、画像中心位置と被写体の重心位置との画像上における距離(中心ずれ量)が算出される。この中心ずれ量は、画像中心をゼロとした際の符号付きのデータになる。減算器604の出力は、カウント値テーブル605に入力され、カウント値テーブル605から被写体重心位置と画像中心との差分の距離の大きさに応じたカウント値が出力される。なお、被写体位置取得部601が、画像中心位置を中心(x座標、y座標共にゼロ)とする座標上における被写体位置を取得してもよい。   The subtracter 604 subtracts the coordinates of the image center position acquired by the image center position acquisition unit 602 from the coordinates of the subject position acquired by the subject position acquisition unit 601. Thereby, a distance (center deviation amount) on the image between the image center position and the gravity center position of the subject is calculated. This center shift amount is signed data when the image center is zero. The output of the subtractor 604 is input to the count value table 605, and a count value corresponding to the difference distance between the subject gravity center position and the image center is output from the count value table 605. Note that the subject position acquisition unit 601 may acquire a subject position on a coordinate centered on the image center position (both x and y coordinates are zero).

なお、追尾量算出部111では、中心ずれ量が、閾値Z以下の場合又は閾値−Z以上の場合に、カウント値をゼロに設定する。これによって、画像中心から±Zの範囲内において追尾を行わない不感帯領域が設定される。なお、カウント値テーブル605は、中心ずれ量が大きくなるにつれてカウント値が大きくなるテーブルであり、カウント値の符号は中心ずれ量の符号に合わせられる。   The tracking amount calculation unit 111 sets the count value to zero when the center deviation amount is equal to or smaller than the threshold value Z or equal to or larger than the threshold value −Z. As a result, a dead zone area in which tracking is not performed within the range of ± Z from the image center is set. The count value table 605 is a table in which the count value increases as the center deviation amount increases, and the sign of the count value is matched with the sign of the center deviation amount.

カウント値テーブル605の出力は、可変ゲイン器606に入力される。ゲイン量算出部607は、被写体尤度取得部603が取得した被写体尤度に基づいてカウント値に係るゲイン(制御ゲイン)を算出する。ここでは、ゲイン量算出部607は被写体尤度が高い場合には、正しい被写体を追跡できている可能性が高いとして追尾の応答性を高めるためゲインを大きくする。一方で、被写体尤度が低い場合には、誤った被写体を追跡してしまっている可能性がある。そして、誤った追跡対象である被写体について追尾を行うとユーザの撮影を大きく妨げることとなる。このため、ゲイン量算出部607は、被写体尤度が低い場合には、ゲインを小さくする。このとき、被写体尤度が閾値以下の場合は、ゲインを0として追尾制御を停止してもよい。また、ゲインをゼロとする代わりに追尾スイッチ608をオフにすることで追尾制御を停止してもよい。そして、ゲイン量算出部607は算出したゲイン(ゲイン量)を可変ゲインCgとして可変ゲイン器606に設定する。   The output of the count value table 605 is input to the variable gain device 606. The gain amount calculation unit 607 calculates a gain (control gain) related to the count value based on the subject likelihood acquired by the subject likelihood acquisition unit 603. Here, when the subject likelihood is high, the gain amount calculation unit 607 increases the gain in order to increase the tracking responsiveness on the assumption that the correct subject is likely to be tracked. On the other hand, when the subject likelihood is low, there is a possibility that an erroneous subject has been tracked. If tracking is performed on the subject that is the wrong tracking target, the user's shooting is greatly hindered. For this reason, the gain amount calculation unit 607 reduces the gain when the subject likelihood is low. At this time, when the subject likelihood is equal to or less than the threshold, the tracking control may be stopped by setting the gain to 0. Further, the tracking control may be stopped by turning off the tracking switch 608 instead of setting the gain to zero. Then, the gain amount calculation unit 607 sets the calculated gain (gain amount) in the variable gain unit 606 as the variable gain Cg.

可変ゲイン器606の出力は信号選択部609に入力される。信号選択部609にはダウンカウント値設定部611のダウンカウント値および追尾スイッチ608の設定が入力される。信号選択部609は、追尾スイッチ608がオンであると、可変ゲイン器606の出力を選択する。一方、追尾スイッチ608がオフであると、信号選択部609はダウンカウント値設定部611の出力を選択する。そして、信号選択部609の出力は加算器610に入力される。   The output of the variable gain unit 606 is input to the signal selection unit 609. The signal selection unit 609 receives the down count value of the down count value setting unit 611 and the setting of the tracking switch 608. The signal selection unit 609 selects the output of the variable gain unit 606 when the tracking switch 608 is on. On the other hand, when the tracking switch 608 is off, the signal selection unit 609 selects the output of the downcount value setting unit 611. The output of the signal selection unit 609 is input to the adder 610.

ダウンカウント値設定部611はダウンカウント値を設定する。ダウンカウント値設定部611には、サンプリング部613から追尾量前回サンプリング値が入力される。ダウンカウント値設定部611は、追尾量前回サンプリング値がプラスの符号である場合は、ダウンカウント値をマイナスに設定する。一方、追尾量前回サンプリング値がマイナスの符号である場合は、ダウンカウント値設定部611はダウンカウント値をプラスに設定する。これによって、ダウンカウント値設定部611は、追尾補正量の絶対値を小さくする。なお、ダウンカウント値設定部611は、追尾量前回サンプリング値が0±所定範囲以内である場合には、ダウンカウント値をゼロに設定する。また、追尾量前回サンプリング値は、前回サンプリングまでの追尾補正量を示す。   The down count value setting unit 611 sets a down count value. The tracking amount previous sampling value is input from the sampling unit 613 to the downcount value setting unit 611. The down count value setting unit 611 sets the down count value to minus when the tracking amount previous sampling value is a plus sign. On the other hand, when the tracking amount previous sampling value is a minus sign, the downcount value setting unit 611 sets the downcount value to a plus. Thereby, the downcount value setting unit 611 decreases the absolute value of the tracking correction amount. The downcount value setting unit 611 sets the downcount value to zero when the tracking amount previous sampling value is within 0 ± predetermined range. The tracking amount previous sampling value indicates a tracking correction amount up to the previous sampling.

加算器610は、信号選択部609の出力と追尾量前回サンプリング値とを加算する。マイナスのダウンカウント値が追尾量前回サンプリング値に加算されると、追尾補正量の絶対値が小さくなる。加算器610の出力は上下限値設定部612に入力される。上下限値設定部612は追尾補正量を所定の上限値未満でかつ所定の下限値を超える量に設定する。上下限値設定部612の出力はサンプリング部613およびLPF614に入力される。LPF614は高周波ノイズをカットした追尾補正量を補正レンズ量変換部615に送る。補正レンズ量変換部615は追尾補正量を補正レンズ114で追尾するための信号形態に変換して最終的な追尾補正量を出力する。   The adder 610 adds the output of the signal selection unit 609 and the tracking amount previous sampling value. When a negative down count value is added to the tracking amount previous sampling value, the absolute value of the tracking correction amount becomes small. The output of the adder 610 is input to the upper / lower limit value setting unit 612. The upper / lower limit value setting unit 612 sets the tracking correction amount to an amount that is less than the predetermined upper limit value and exceeds the predetermined lower limit value. The output of the upper / lower limit setting unit 612 is input to the sampling unit 613 and the LPF 614. The LPF 614 sends the tracking correction amount from which the high frequency noise has been cut to the correction lens amount conversion unit 615. The correction lens amount conversion unit 615 converts the tracking correction amount into a signal form for tracking by the correction lens 114, and outputs the final tracking correction amount.

このようにして、追尾量算出部111は、画像中心位置と被写体位置との差分に応じて、サンプリング毎にカウント値を求めて追尾補正量に加算し、徐々に被写体位置を画像中心付近に近づける追尾を行う。   In this way, the tracking amount calculation unit 111 obtains a count value for each sampling according to the difference between the image center position and the subject position, adds it to the tracking correction amount, and gradually brings the subject position closer to the vicinity of the image center. Perform tracking.

なお、上述の説明では、被写体尤度に基づいて、ゲイン量算出部607がゲインを設定するようにしたが、被写体尤度に加えて撮影画像の重心位置に基づいて、ゲイン量算出部607はゲインを設定するようにしてもよい。   In the above description, the gain amount calculation unit 607 sets the gain based on the subject likelihood, but the gain amount calculation unit 607 is based on the center of gravity position of the captured image in addition to the subject likelihood. A gain may be set.

前述のように、被写体追跡部110においては、撮影画像から目的とする被写体領域を推定する。このため、撮影画像に目的とする被写体が収まるように追尾が行われる必要がある。目的とする被写体が撮影画像の端に存在する場合には、次のフレーム以降において被写体が撮影画像から外れる可能性が高い。よって、追尾によって被写体を画像中心(目標位置)に移動させることが重要となる。   As described above, the subject tracking unit 110 estimates a target subject area from the captured image. For this reason, it is necessary to perform tracking so that the target subject is contained in the captured image. When the target subject exists at the end of the captured image, there is a high possibility that the subject will deviate from the captured image after the next frame. Therefore, it is important to move the subject to the center of the image (target position) by tracking.

一方、目的とする被写体が画像中心(目標位置)付近に存在する場合には、次のフレーム以降において、被写体が撮影画像から外れる可能性は低い。よって、追尾の重要度は低下する。従って、被写体尤度が低い程、追尾度合い(つまり、追尾状態)が小さくなるように制御するとともに、被写体重心位置が画像中心(目標位置)に近い程追尾度合いが小さくなるように制御する。   On the other hand, when the target subject exists in the vicinity of the center of the image (target position), it is unlikely that the subject will deviate from the captured image after the next frame. Therefore, the importance of tracking decreases. Therefore, the lower the subject likelihood, the smaller the tracking degree (that is, the tracking state) is controlled, and the closer the subject gravity center position is to the image center (target position), the smaller the tracking degree is controlled.

図7は、図2に示すカメラで行われる被写体追尾の一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、カメラ101の主電源がオンされると開始し、所定のサンプリング周期で行われる。   FIG. 7 is a flowchart for explaining an example of subject tracking performed by the camera shown in FIG. The process according to the flowchart shown in the figure starts when the main power source of the camera 101 is turned on and is performed at a predetermined sampling period.

まず、CPU105は、防振SW(図示せず)がONであるか否かを判定する(ステップS701)。防振SWがONであると(ステップS701において、YES)、CPU105は角速度計103の出力を取り込む(ステップS702)。そして、CPU105はカメラ101が振れ補正が可能な状態であるか否かを判定する(ステップS703)。ここでは、CPU105はカメラ101が電源を供給されて角速度計103の出力が安定するまでの状態である場合に振れ補正が可能な状態でないと判定する。一方、カメラ101が角速度計103の出力が安定した後の状態である場合には、CPU105は振れ補正が可能な状態であると判定する。これによって、電源の供給直後における角速度計103の出力が不安定な状態においては振れ補正が行われない。   First, the CPU 105 determines whether or not an anti-shake SW (not shown) is ON (step S701). If the image stabilization SW is ON (YES in step S701), the CPU 105 captures the output of the angular velocity meter 103 (step S702). Then, the CPU 105 determines whether or not the camera 101 is in a state where shake correction is possible (step S703). Here, the CPU 105 determines that the shake correction cannot be performed when the camera 101 is supplied with power and the output of the angular velocity meter 103 is stabilized. On the other hand, when the camera 101 is in a state after the output of the angular velocity meter 103 is stabilized, the CPU 105 determines that the shake correction is possible. As a result, shake correction is not performed when the output of the angular velocity meter 103 is unstable immediately after the power is supplied.

カメラ101が振れ補正が可能な状態である場合には(ステップS703において、YES)、CPU105は、前述のようにして、振れ補正角度算出部108および敏感度調整部109によって、角速度計103の出力に基づいて振れ補正量を求める(ステップS704)。一方、カメラ101が振れ補正が可能な状態でない場合には(ステップS703において、NO)、CPU105は振れ補正量をゼロとする(ステップS705)。なお、防振SWがOFFであると(ステップS701において、NO)、CPU105はステップS705の処理に進む。   When the camera 101 is in a state in which shake correction is possible (YES in step S703), the CPU 105 outputs the angular velocity meter 103 using the shake correction angle calculation unit 108 and the sensitivity adjustment unit 109 as described above. Based on the above, a shake correction amount is obtained (step S704). On the other hand, when the camera 101 is not in a state where shake correction is not possible (NO in step S703), the CPU 105 sets the shake correction amount to zero (step S705). If the image stabilization SW is OFF (NO in step S701), the CPU 105 proceeds to the process in step S705.

ステップS704又はS705の処理の後、CPU105は追尾SW(図示せず)がONであるか否かを判定する(ステップS706)。追尾SWがONであると(ステップS706において、YES)、CPU105は撮像素子106から連続的に得た撮影画像において追尾対象である被写体が存在するか否かを判定する(ステップS707)。追尾対象である被写体が存在すると(ステップS707において、YES)、CPU105は撮影画像において被写体領域の重心位置を推定する(ステップS708)。   After the process of step S704 or S705, the CPU 105 determines whether or not the tracking SW (not shown) is ON (step S706). If the tracking SW is ON (YES in step S706), the CPU 105 determines whether there is a subject to be tracked in the captured images continuously obtained from the image sensor 106 (step S707). If there is a subject to be tracked (YES in step S707), CPU 105 estimates the position of the center of gravity of the subject region in the captured image (step S708).

続いて、CPU105は、前述のようにして当該重心位置に係る被写体尤度を求める(ステップS709)。なお、前述のように、ステップS708およびS709の処理は被写体追跡部110で行われる。そして、CPU105は、追尾量算出部111によって被写体重心位置および被写体尤度に基づいて追尾補正量を求める(ステップS710)。   Subsequently, the CPU 105 obtains the subject likelihood related to the center of gravity position as described above (step S709). As described above, the processing of steps S708 and S709 is performed by the subject tracking unit 110. Then, the CPU 105 obtains a tracking correction amount based on the subject gravity center position and the subject likelihood by the tracking amount calculation unit 111 (step S710).

追尾対象である被写体が存在しないと(ステップS707において、NO)、CPU105は追尾補正量をゼロに設定する(ステップS711)。なお、追尾SWがOFFであると(ステップS706において、NO)、CPU105はステップS711の処理に進む。   If there is no subject to be tracked (NO in step S707), the CPU 105 sets the tracking correction amount to zero (step S711). If tracking SW is OFF (NO in step S706), CPU 105 proceeds to the process of step S711.

ステップS710又はS711の処理の後、CPU105は振れ補正量と追尾補正量とを加算してレンズ駆動量を算出する(ステップS712)。そして、CPU105は駆動制御部113によって、レンズ駆動量に基づいて補正レンズ114を駆動制御する(ステップsS713)。その後、CPU105は被写体追尾処理を終了して次のサンプリング周期まで待ち状態となる。   After the process of step S710 or S711, the CPU 105 adds the shake correction amount and the tracking correction amount to calculate the lens driving amount (step S712). Then, the CPU 105 causes the drive control unit 113 to drive and control the correction lens 114 based on the lens driving amount (step sS713). Thereafter, the CPU 105 ends the subject tracking process and waits until the next sampling cycle.

このようにして、第1の実施形態では、被写体の追跡によって得られた被写体の重心位置とその尤度に基づいて、補正レンズ114を駆動制御する。これによって、追尾の誤動作を防止して、しかも応答性の高い追尾を行うことができる。   Thus, in the first embodiment, the correction lens 114 is driven and controlled based on the position of the center of gravity of the subject obtained by tracking the subject and its likelihood. As a result, tracking malfunction can be prevented and tracking with high responsiveness can be performed.

[第2の実施形態]
前述の第1の実施形態では、被写体尤度に基づいて追尾度合いを変更する被写体追尾装置を備える撮像装置について説明をした。これに対して、第2の実施形態では、被写体尤度に基づいて追尾度合いを変更するとともに、追尾制御が難しい状態にある場合は、追尾制御が難しいことを撮影者に通知(警告)するように指示する被写体追尾装置を備える撮像装置について説明をする。追尾制御が難しい状態にあるか否かは、被写体尤度に基づいて判断をする。なお、被写体尤度に基づいて追尾度合いを変える点については、第1の実施形態と同様のため、説明は省略する。また、第1の実施形態と同様に、カメラに被写体追尾装置を適用した形態について説明をする。
[Second Embodiment]
In the first embodiment described above, the imaging apparatus including the subject tracking device that changes the tracking degree based on the subject likelihood has been described. In contrast, in the second embodiment, the tracking degree is changed based on the subject likelihood, and when the tracking control is difficult, the photographer is notified (warned) that the tracking control is difficult. An imaging device including a subject tracking device that instructs the above will be described. Whether tracking control is difficult is determined based on the subject likelihood. Note that the point of changing the tracking degree based on the subject likelihood is the same as in the first embodiment, and a description thereof will be omitted. Further, as in the first embodiment, a mode in which the subject tracking device is applied to the camera will be described.

図8は本発明の第2の実施形態に係るカメラの構成についてその一例を示す図である。第2の実施形態では、被写体追尾装置としてのCPU105が、被写体尤度に基づいて追尾制御が難しい状態にあるか否かを判定する追尾状態判定部801と、追尾状態判定部801による判定結果に基づいて撮影者への通知を指示する通知指示部802とを備える点で第1の実施形態と異なる。また、第2の実施形態のカメラ101は、画像を表示する表示部(図9(A)乃至図9(D))と、表示部に表示される画像を制御する表示制御部803を備え、表示制御部803は、通知指示部802からの通知指示を受けて、追尾制御が難しい状態にあることを撮影者へ通知する。   FIG. 8 is a diagram showing an example of the configuration of a camera according to the second embodiment of the present invention. In the second embodiment, the CPU 105 as the subject tracking device determines whether the tracking state determination unit 801 and the tracking state determination unit 801 determine whether tracking control is difficult based on the subject likelihood. The second embodiment is different from the first embodiment in that it includes a notification instruction unit 802 for instructing a photographer to be notified. The camera 101 of the second embodiment includes a display unit (FIGS. 9A to 9D) that displays an image and a display control unit 803 that controls the image displayed on the display unit. Upon receiving the notification instruction from the notification instruction unit 802, the display control unit 803 notifies the photographer that tracking control is difficult.

被写体追跡部110は、第1の実施形態と同様に、設定された追尾対象の被写体について被写体尤度を取得する。そして、取得された被写体尤度は追尾状態判定部801に送られる。追尾状態判定部801は、被写体追跡部110から受け取った被写体尤度に基づいて該被写体尤度が閾値以下であるか否かを判定する。そして、受け取った被写体尤度が閾値以下のとき、追尾状態判定部801は、被写体尤度が低いため追尾制御が難しい状態にあると判定する。一方、受け取った被写体尤度が閾値より大きいとき、追尾状態判定部801は、追尾制御可能な程度以上に被写体尤度が高いと判定する。追尾状態判定部801による判定結果は通知指示部802に送られる。追尾状態判定部801によって被写体尤度が閾値以下であると判定されたとき、通知指示部802は、追尾制御が難しい状態にあることを撮影者に通知するように、表示制御部803へ指示を送る。表示制御部803は、撮影者への通知指示を通知指示部802から受けると、表示部に表示される画像の内容を変更し、追尾制御が難しい状態にあることを撮影者に通知する。   Similar to the first embodiment, the subject tracking unit 110 acquires subject likelihood for the set subject to be tracked. The acquired subject likelihood is sent to the tracking state determination unit 801. The tracking state determination unit 801 determines whether the subject likelihood is equal to or less than a threshold based on the subject likelihood received from the subject tracking unit 110. When the received subject likelihood is equal to or smaller than the threshold, the tracking state determination unit 801 determines that tracking control is difficult because the subject likelihood is low. On the other hand, when the received subject likelihood is larger than the threshold value, the tracking state determination unit 801 determines that the subject likelihood is higher than the level at which tracking control is possible. The determination result by the tracking state determination unit 801 is sent to the notification instruction unit 802. When the tracking state determination unit 801 determines that the subject likelihood is equal to or less than the threshold value, the notification instruction unit 802 instructs the display control unit 803 to notify the photographer that tracking control is difficult. send. Upon receiving a notification instruction to the photographer from the notification instruction unit 802, the display control unit 803 changes the content of the image displayed on the display unit and notifies the photographer that tracking control is difficult.

次に、図9を用いて、追尾制御が難しい状態にあることを撮影者に通知する方法について説明をする。図9(A)乃至図9(D)に示すように、カメラ101は、背面に表示部として機能する液晶ディスプレイ901を備え、ライブビュー表示により、撮影前からカメラ101が捉えている画像を表示することができる。また、カメラ101には液晶ディスプレイ901の下にタッチパネル902が配置されており、タッチ操作によって指定された被写体903の座標位置を取得し、追尾対象の被写体を設定することができる。タッチ操作によって指定された被写体903は、被写体枠904によって示される。表示制御部803は、通知指示を通知指示部802から受けると、液晶ディスプレイ901に表示されている追尾アイコン905の表示を変化させて、追尾制御が難しい状態にあることを撮影者に通知する。追尾制御状態の変化に伴う追尾アイコン905の変化の例を説明する。   Next, a method for notifying the photographer that tracking control is difficult will be described with reference to FIG. As shown in FIGS. 9A to 9D, the camera 101 includes a liquid crystal display 901 that functions as a display unit on the back surface, and displays an image captured by the camera 101 before shooting by live view display. can do. In addition, a touch panel 902 is disposed below the liquid crystal display 901 in the camera 101, and the coordinate position of the subject 903 designated by the touch operation can be acquired and the subject to be tracked can be set. A subject 903 designated by the touch operation is indicated by a subject frame 904. Upon receiving a notification instruction from the notification instruction unit 802, the display control unit 803 changes the display of the tracking icon 905 displayed on the liquid crystal display 901 to notify the photographer that tracking control is difficult. An example of a change in the tracking icon 905 according to the change in the tracking control state will be described.

図9(A)において、タッチ操作により追尾対象の被写体903が指定されると、追尾制御が行われ、追尾制御を行っている状態であることが分かるように、液晶ディスプレイ901の画面(以下単に画面と呼ぶ)に追尾アイコン905が表示される。被写体追尾が行われていない間(被写体が指定されていない状態)は、追尾アイコン905は画面に表示されない。   In FIG. 9A, when the subject 903 to be tracked is specified by the touch operation, the tracking control is performed and the screen of the liquid crystal display 901 (hereinafter simply referred to as “tracking control”) is understood. A tracking icon 905 is displayed on the screen. The tracking icon 905 is not displayed on the screen while the subject tracking is not being performed (the subject is not specified).

図9(B)は、被写体指定後の状態を示す図である。時間の経過につれて、カメラの状態が図9(A)、図9(B)、図9(C)、図9(D)の順で変化した場合の振れ補正量と追尾補正量とを加算した加算器112の出力を図9(E)に示す。また、被写体位置の変化を図9(F)、被写体尤度の変化を図9(G)、追尾アイコン905の表示の状態を図9(H)に示す。図9(A)に示すようなタッチ操作により被写体が指定されるタイミングT11までは、追尾アイコン905は画面に表示されていない状態であり、図9(B)に示すように追尾対象の被写体が指定されると、追尾アイコン905が画面に表示される。その後、指定した被写体903が画像中心から離れていても、追尾量算出部111で算出された追尾補正量に基づいて追尾制御が行われることにより、図9(B)に示すように、被写体903は画像中心に戻される。なお、図中、被写体を指定して位置を検出したタイミングをT11、追尾制御により被写体が画像中心に戻されたタイミングをT12として示す。   FIG. 9B is a diagram showing a state after the subject is designated. As the time elapses, the shake correction amount and the tracking correction amount when the camera state changes in the order of FIGS. 9A, 9B, 9C, and 9D are added. The output of the adder 112 is shown in FIG. FIG. 9F shows the change in the subject position, FIG. 9G shows the change in the subject likelihood, and FIG. 9H shows the display state of the tracking icon 905. The tracking icon 905 is not displayed on the screen until the timing T11 when the subject is specified by the touch operation as shown in FIG. 9A, and the subject to be tracked is shown in FIG. 9B. When designated, a tracking icon 905 is displayed on the screen. After that, even if the designated subject 903 is away from the center of the image, the tracking control is performed based on the tracking correction amount calculated by the tracking amount calculation unit 111, so that the subject 903 is shown in FIG. 9B. Is returned to the center of the image. In the drawing, the timing when the subject is specified and the position is detected is indicated as T11, and the timing when the subject is returned to the center of the image by the tracking control is indicated as T12.

その後、図9(C)に示すように更に被写体903が移動すると、更に追尾補正量を大きくして追尾制御が行われる。図9(D)に示すように類似の被写体が画面内に複数表れた場合、被写体尤度は低く設定される。本実施形態では、被写体尤度が閾値Th1以下のとき、追尾ゲインはゼロに設定され、追尾制御を行わないように設定される。このとき、これ以上追尾を行わないことを撮影者に知らせるため、追尾アイコン905をグレー表示して、追尾不可能状態が撮影者に通知される(図9(H)参照)。   Thereafter, when the subject 903 further moves as shown in FIG. 9C, the tracking correction amount is further increased and tracking control is performed. When a plurality of similar subjects appear on the screen as shown in FIG. 9D, the subject likelihood is set low. In the present embodiment, when the subject likelihood is equal to or less than the threshold value Th1, the tracking gain is set to zero and the tracking control is not performed. At this time, in order to notify the photographer that no further tracking is performed, the tracking icon 905 is displayed in gray, and the photographer is notified of the tracking impossible state (see FIG. 9H).

以上のようにして、第2の実施形態に係る被写体追尾装置は、被写体尤度が低く、追尾制御を行うことはできないと判定すると、追尾アイコン905の表示を変化させる指示を送る。これにより、撮影者が自らカメラをフレーミングして被写体を画像中心に移動させることを促すことができる。なお、追尾制御を行うか否かを判定する閾値と、撮影者に追尾制御が難しい状態にあることを通知する閾値とは、一致していてもよいし、異なっていてもよい。閾値が一致している場合、追尾制御を行わないことを撮影者に通知できる。追尾制御を行うか否かを判定する閾値のほうが小さい場合、追尾制御を行いながら撮影者に被写体尤度が低いことを通知でき、追尾制御が停止する前に撮影者にフレーミングを促すことができるため、一度追尾制御が停止してから再開するよりも、スムーズに追尾制御を行うことができる。   As described above, when the subject tracking device according to the second embodiment determines that the subject likelihood is low and tracking control cannot be performed, the subject tracking device transmits an instruction to change the display of the tracking icon 905. Accordingly, it is possible to prompt the photographer to frame the camera himself and move the subject to the center of the image. Note that the threshold for determining whether or not to perform tracking control and the threshold for notifying the photographer that tracking control is difficult may be the same or different. When the threshold values match, it is possible to notify the photographer that tracking control is not performed. When the threshold for determining whether or not to perform tracking control is smaller, it is possible to notify the photographer that the subject likelihood is low while performing tracking control, and to prompt the photographer to perform framing before tracking control stops Therefore, tracking control can be performed more smoothly than when tracking control is once stopped and then restarted.

なお、第2の実施形態では、追尾アイコンの色を変化させることで撮影者に追尾制御が難しい状況にあることを通知したが、通知方法はこれに限定されない。追尾アイコンとは別に、被写体尤度が低いことを示すアイコンを液晶ディスプレイ901に表示してもよいし、カメラ101にLEDランプを設け、LEDランプの点灯状態(点灯、消灯、点滅等)を被写体尤度が高い時(追尾制御ができているとき)と変化させてもよい。   In the second embodiment, the photographer is notified that the tracking control is difficult by changing the color of the tracking icon, but the notification method is not limited to this. In addition to the tracking icon, an icon indicating that the subject likelihood is low may be displayed on the liquid crystal display 901, or an LED lamp is provided in the camera 101, and the lighting state (lighted, turned off, blinking, etc.) of the LED lamp is set as the subject. It may be changed when the likelihood is high (when tracking control is performed).

上述の実施の形態では、振れ補正部材として補正レンズを用いて、当該補正レンズを光軸に交差する(例えば、直交する)面内で移動させる光学防振に適用した場合について説明した。一方、本発明は、光学防振に限らず、撮像素子を光軸に直交する面内で移動させる被写体追尾、撮像素子が出力する撮影フレームの各々における切り出し位置を変更する被写体追尾、撮像素子と撮影レンズ群を含む鏡筒とを回転駆動する被写体追尾、別のカメラをパンおよびチルトさせる回転雲台を組み合わせた被写体追尾、又は上記の複数の被写体追尾の組み合わせに適用することもできる。   In the above-described embodiment, the case where the correction lens is used as the shake correction member and the correction lens is applied to the optical image stabilization in which the correction lens is moved in a plane intersecting (for example, orthogonal to) the optical axis has been described. On the other hand, the present invention is not limited to optical image stabilization, subject tracking for moving the image sensor in a plane orthogonal to the optical axis, subject tracking for changing the cutout position in each of the shooting frames output by the image sensor, and the image sensor. The present invention can also be applied to subject tracking that rotationally drives a lens barrel including a photographic lens group, subject tracking that combines a pan head that pans and tilts another camera, or a combination of the plurality of subject tracking described above.

上述の説明から明らかなように、図2に示す例では、補正レンズ114およびCPU105がシフト手段として機能し、CPU105、角速度計103、およびズームおよびフォーカス位置検出部107が被写体追跡手段として機能する。また、CPU105は制御手段として機能する。なお、少なくとも補正レンズ114、CPU105、角速度計103、およびズームおよびフォーカス位置検出部107によって被写体追尾装置が構成される。   As is clear from the above description, in the example shown in FIG. 2, the correction lens 114 and the CPU 105 function as a shift unit, and the CPU 105, the angular velocity meter 103, and the zoom and focus position detection unit 107 function as a subject tracking unit. The CPU 105 functions as a control unit. At least the correction lens 114, the CPU 105, the angular velocity meter 103, and the zoom and focus position detection unit 107 constitute a subject tracking device.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を被写体追尾装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを被写体追尾装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above-described embodiment may be used as a control method, and this control method may be executed by the subject tracking device. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the subject tracking device. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

103 角速度計
107 ズームおよびフォーカス位置検出部
108 振れ補正角度算出部
109 敏感度調整部
110 被写体追跡部
111 追尾量算出部
113 駆動制御部
114 補正レンズ
DESCRIPTION OF SYMBOLS 103 Angular velocity meter 107 Zoom and focus position detection part 108 Shake correction angle calculation part 109 Sensitivity adjustment part 110 Subject tracking part 111 Tracking amount calculation part 113 Drive control part 114 Correction lens

Claims (11)

被写体追尾装置であって、
撮影画像において被写体をシフトさせるシフト手段と、
前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡手段と、
前記シフト手段を制御して前記撮影画像における前記被写体の位置を前記撮影画像における目標位置に移動させるとともに、前記信頼度に基づいて前記被写体の追尾状態を変更する制御手段と、
を有することを特徴とする被写体追尾装置。
A subject tracking device,
Shift means for shifting the subject in the captured image;
In the captured image, subject tracking means for obtaining a reliability indicating the position of the subject and the likelihood of the subject in the captured image;
Control means for controlling the shift means to move the position of the subject in the captured image to a target position in the captured image, and for changing the tracking state of the subject based on the reliability;
A subject tracking device characterized by comprising:
前記被写体追跡手段は、前記撮影画像において前記被写体を示す部分領域をテンプレートとして、前記テンプレートと当該テンプレートとして用いた部分画像を得た撮影画像よりも後に得られた撮影画像の部分領域とを照合して評価値を求め、前記評価値の分布に応じて前記信頼度を求めることを特徴とする請求項1に記載の被写体追尾装置。   The subject tracking means uses the partial area indicating the subject in the captured image as a template, and collates the template with a partial area of the captured image obtained after the captured image obtained from the partial image used as the template. The subject tracking device according to claim 1, wherein an evaluation value is obtained and the reliability is obtained according to a distribution of the evaluation value. 前記被写体追跡手段は、前記被写体の特徴色の前記撮影画像における分布に基づいて被写体領域を推定して、当該被写体領域内と被写体領域外との特徴色の分布に基づいて前記信頼度を求めることを特徴とする請求項1に記載の被写体追尾装置。   The subject tracking means estimates a subject area based on a distribution of the characteristic color of the subject in the captured image, and obtains the reliability based on a distribution of characteristic colors inside and outside the subject area. The subject tracking device according to claim 1. 前記被写体追跡手段は、前記信頼度を求める際、前記信頼度の履歴を参照して、現在の撮影画像における前記被写体の前記信頼度を求めることを特徴とする請求項1乃至3のいずれか1項に記載の被写体追尾装置。   4. The object tracking unit according to claim 1, wherein when the reliability is obtained, the reliability of the subject in the current photographed image is obtained with reference to the reliability history. The subject tracking device according to the item. 前記制御手段は、前記撮影画像における前記被写体の前記位置と前記目標位置との差分を小さくするように前記シフト手段を制御し、前記信頼度に基づいて前記シフト手段の制御における制御ゲインを変更して前記被写体の追尾状態を変更することを特徴とする請求項1乃至4のいずれか1項に記載の被写体追尾装置。   The control unit controls the shift unit so as to reduce a difference between the position of the subject and the target position in the captured image, and changes a control gain in the control of the shift unit based on the reliability. The subject tracking device according to claim 1, wherein the tracking state of the subject is changed. 前記制御手段は、前記信頼度が低い程、前記被写体の追尾状態を低下させることを特徴とする請求項5に記載の被写体追尾装置。   The subject tracking device according to claim 5, wherein the control unit decreases the tracking state of the subject as the reliability is lower. 前記制御手段は、前記撮影画像における前記被写体の前記位置が前記目標位置に近い程、前記被写体の追尾状態を低下させることを特徴とする請求項6に記載の被写体追尾装置。   The subject tracking device according to claim 6, wherein the control unit reduces the tracking state of the subject as the position of the subject in the captured image is closer to the target position. 撮像光学系を介して結像した光学像に応じて撮影画像を得る撮像手段と、
請求項1乃至7のいずれか1項に記載の被写体追尾装置と、
を有することを特徴とする撮像装置。
Imaging means for obtaining a captured image according to an optical image formed through an imaging optical system;
A subject tracking device according to any one of claims 1 to 7,
An imaging device comprising:
前記シフト手段は、前記撮像光学系に備えられ前記撮像光学系の光軸に交差する方向に駆動される補正レンズをさらに備えることを特徴とする請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the shift unit further includes a correction lens that is provided in the imaging optical system and is driven in a direction intersecting an optical axis of the imaging optical system. 連続的に得られる撮影画像における被写体をシフトさせるシフト手段を備え、前記被写体を追尾する被写体追尾装置の制御方法であって、
前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、
前記シフト手段を制御して前記撮影画像における前記被写体の位置を前記撮影画像における目標位置に移動させるとともに、前記信頼度に基づいて前記被写体の追尾状態を変更する制御ステップと、
を有することを特徴とする制御方法。
A control method for a subject tracking device that includes a shift unit that shifts a subject in continuously obtained captured images, and that tracks the subject,
In the captured image, a subject tracking step for obtaining a reliability indicating the position of the subject and the likelihood of the subject in the captured image;
A control step of controlling the shift means to move the position of the subject in the captured image to a target position in the captured image, and changing the tracking state of the subject based on the reliability;
A control method characterized by comprising:
連続的に得られる撮影画像における被写体をシフトさせるシフト手段を備え、前記被写体を追尾する被写体追尾装置で用いられる制御プログラムであって、
前記被写体追尾装置に備えられたコンピュータに、
前記撮影画像において、前記撮影画像における前記被写体の位置および被写体らしさを示す信頼度を求める被写体追跡ステップと、
前記シフト手段を制御して前記撮影画像における前記被写体の位置を前記撮影画像における目標位置に移動させるとともに、前記信頼度に基づいて前記被写体の追尾状態を変更する制御ステップと、
を実行させることを特徴とする制御プログラム。
A control program that includes a shift unit that shifts a subject in continuously obtained captured images, and that is used in a subject tracking device that tracks the subject,
In the computer provided in the subject tracking device,
In the captured image, a subject tracking step for obtaining a reliability indicating the position of the subject and the likelihood of the subject in the captured image;
A control step of controlling the shift means to move the position of the subject in the captured image to a target position in the captured image, and changing the tracking state of the subject based on the reliability;
A control program characterized by causing
JP2016234392A 2015-12-08 2016-12-01 Subject tracking device, its control method, control program, and imaging device Active JP6833483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/369,165 US10659676B2 (en) 2015-12-08 2016-12-05 Method and apparatus for tracking a moving subject image based on reliability of the tracking state

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015239747 2015-12-08
JP2015239747 2015-12-08
JP2015254088 2015-12-25
JP2015254088 2015-12-25

Publications (2)

Publication Number Publication Date
JP2017121042A true JP2017121042A (en) 2017-07-06
JP6833483B2 JP6833483B2 (en) 2021-02-24

Family

ID=59272581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016234392A Active JP6833483B2 (en) 2015-12-08 2016-12-01 Subject tracking device, its control method, control program, and imaging device

Country Status (1)

Country Link
JP (1) JP6833483B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144482A1 (en) * 2016-11-24 2018-05-24 Hitachi, Ltd. Behavior analysis apparatus and behavior analysis method
WO2019013214A1 (en) * 2017-07-12 2019-01-17 シャープ株式会社 Correction device, imaging device, method for controlling correction device, and control program
JP2020173343A (en) * 2019-04-10 2020-10-22 オリンパス株式会社 Tracker and tracking method
US12335616B2 (en) 2022-03-16 2025-06-17 Canon Kabushiki Kaisha Image stabilization control apparatus and method, image capturing apparatus, image capturing system, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076156A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image
JP2010093362A (en) * 2008-10-03 2010-04-22 Nikon Corp Imaging apparatus and optical apparatus
JP2010147560A (en) * 2008-12-16 2010-07-01 Victor Co Of Japan Ltd Target tracker
JP2015130612A (en) * 2014-01-08 2015-07-16 キヤノン株式会社 Imaging apparatus and control method of the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076156A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image
JP2010093362A (en) * 2008-10-03 2010-04-22 Nikon Corp Imaging apparatus and optical apparatus
JP2010147560A (en) * 2008-12-16 2010-07-01 Victor Co Of Japan Ltd Target tracker
JP2015130612A (en) * 2014-01-08 2015-07-16 キヤノン株式会社 Imaging apparatus and control method of the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144482A1 (en) * 2016-11-24 2018-05-24 Hitachi, Ltd. Behavior analysis apparatus and behavior analysis method
US10489921B2 (en) * 2016-11-24 2019-11-26 Hitachi, Ltd. Behavior analysis apparatus and behavior analysis method
WO2019013214A1 (en) * 2017-07-12 2019-01-17 シャープ株式会社 Correction device, imaging device, method for controlling correction device, and control program
JP2020173343A (en) * 2019-04-10 2020-10-22 オリンパス株式会社 Tracker and tracking method
JP7304193B2 (en) 2019-04-10 2023-07-06 Omデジタルソリューションズ株式会社 Tracking device and tracking method
US12335616B2 (en) 2022-03-16 2025-06-17 Canon Kabushiki Kaisha Image stabilization control apparatus and method, image capturing apparatus, image capturing system, and storage medium

Also Published As

Publication number Publication date
JP6833483B2 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
US10659676B2 (en) Method and apparatus for tracking a moving subject image based on reliability of the tracking state
US10277809B2 (en) Imaging device and imaging method
EP2037320B1 (en) Imaging apparatus, imaging apparatus control method, and computer program
JP6833461B2 (en) Control device and control method, imaging device
US10511774B2 (en) Image pick-up apparatus and control method
TWI425828B (en) Image capturing apparatus, method for determing image area ,and computer-readable recording medium
US20080074529A1 (en) Imaging apparatus, control method of imaging apparatus, and computer program
US9531938B2 (en) Image-capturing apparatus
US9865064B2 (en) Image processing apparatus, image processing method, and storage medium
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
JP6833483B2 (en) Subject tracking device, its control method, control program, and imaging device
JP6504899B2 (en) CONTROL DEVICE, OPTICAL DEVICE, IMAGING DEVICE, AND CONTROL METHOD
JP2017201356A (en) Image shake correction device, imaging device, method for controlling image shake correction device, program, and storage medium
JP2016220024A (en) Panning display control apparatus and imaging apparatus
JP2017005400A (en) Imaging control device, imaging apparatus and imaging control program
JP2018007272A (en) Image processing apparatus, imaging apparatus, and program
JP2021111929A (en) Imaging device, control method of imaging device, and program
WO2024107273A1 (en) Orientation-based frame selection for composite image creation
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP2007067559A (en) Image processing method, image processing apparatus, and control method of imaging apparatus
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
WO2022227040A1 (en) Video stability augmentation method, imaging apparatus, handheld gimbal, movable platform and storage medium
WO2018161322A1 (en) Depth-based image processing method, processing device and electronic device
JP7122916B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM AND STORAGE MEDIUM
JP6702736B2 (en) IMAGING CONTROL DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151