JP5118590B2 - Subject tracking method and imaging apparatus - Google Patents
Subject tracking method and imaging apparatus Download PDFInfo
- Publication number
- JP5118590B2 JP5118590B2 JP2008237189A JP2008237189A JP5118590B2 JP 5118590 B2 JP5118590 B2 JP 5118590B2 JP 2008237189 A JP2008237189 A JP 2008237189A JP 2008237189 A JP2008237189 A JP 2008237189A JP 5118590 B2 JP5118590 B2 JP 5118590B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- value
- correlation
- subject
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、被写体追尾機能を有する撮像装置及びその被写体追尾方法に関する。 The present invention relates to an imaging apparatus having a subject tracking function and a subject tracking method thereof.
従来、デジタルカメラや監視カメラを利用した監視装置において、被写体追尾を行う撮像システムがある。この種の撮像システムでは、被写体追尾機能を利用することで、被写体に対して適切な撮影条件を設定したり、信号処理を行ったりする。 2. Description of the Related Art Conventionally, there is an imaging system that performs subject tracking in a monitoring device using a digital camera or a monitoring camera. In this type of imaging system, an appropriate shooting condition is set for a subject or signal processing is performed by using a subject tracking function.
特許文献1には、撮影信号から、被写体の動きベクトルを計算し、被写体の動きに従ってカメラを回転させる被写体自動追跡装置が記載されている。特許文献1の被写体自動追跡装置は、ズームの位置が望遠である場合にはカメラの回転速度を速やかにし、広角である場合にはゆるくして被写体を効果的に追跡して撮影することができるようにしたものである。
Japanese Patent Application Laid-Open No. 2004-151561 describes an automatic subject tracking device that calculates a motion vector of a subject from a photographing signal and rotates a camera according to the motion of the subject. The subject automatic tracking device of
また特許文献2には、肌色領域の検出を行い、検出された領域を追尾枠としてWBや露出を制御することで、最適なホワイトバランスや露出制御の性能の向上を行う撮像装置が記載されている。
このように被写体追尾システムや、被写体追尾機能を利用したホワイトバランスや露出の制御等、さまざまな提案がなされている。これら被写体追尾の制御方法としては、動きベクトルが計算される被写体領域におけるフレーム間の画像相関を用いた追尾方法と、画像特徴量をもとに被写体追尾を行なう追尾方法が一般的である。これらのうち、画像相関性を用いた被写体追尾方法では、たとえば、被写体の前を別の移動物体が横切った場合、主要被写体の画像相関が低くなり、横切った被写体を追尾してしまう可能性が高い。また、色味などの画像特徴量による主要被写体追尾方法では、似通った被写体が主要被写体の周りに存在している場合に、主要被写体を追尾し続けることが難しい。 Various proposals have been made, such as subject tracking systems and white balance and exposure control using the subject tracking function. As these subject tracking control methods, a tracking method using image correlation between frames in a subject area in which a motion vector is calculated, and a tracking method that performs subject tracking based on image feature values are generally used. Among these, in the subject tracking method using the image correlation, for example, when another moving object crosses in front of the subject, the image correlation of the main subject becomes low, and there is a possibility of tracking the crossed subject. high. Also, with the main subject tracking method based on image feature amounts such as color, it is difficult to keep track of the main subject when similar subjects exist around the main subject.
つまり、画像相関性を用いた追尾、画像特徴を用いた追尾のどちらの方法においても、不得意とするシーンが存在するため、これらの手法を組み合わせた追尾方法を用いることが有効である。例えば、基本的に顔検出による追尾(画像特徴を用いた追尾)を行い、顔が横向きになるなど顔検出が不可能になった場合にのみ、画像相関を用いた追尾方法で行うなどの方法で追尾性能を上げることができる。
しかしながら、上述のような画像特徴と画像相関の組み合わせを用いた被写体の追尾においても、顔検出に失敗してかつ画像相関による追尾中において、主要被写体の画像相関が低くなった場合には追尾続行が不可能になってしまう。例えば、顔検出に失敗した後に画像相関による追尾を行っている最中に、被写体の前を別の移動物体が横切った場合などでは、追尾の続行が不可能となる可能性がある。したがって、画像相関にて追尾を行っている場合において、追尾が成功しているのか侵入物などの影響により追尾が失敗してしまったのかを判断する必要がある。 However, even in subject tracking using a combination of image features and image correlation as described above, tracking continues if face detection fails and image correlation of the main subject becomes low during tracking by image correlation. Becomes impossible. For example, in the case where another moving object crosses in front of the subject while tracking by image correlation after face detection fails, tracking may not be continued. Therefore, when tracking is performed using image correlation, it is necessary to determine whether tracking has succeeded or whether tracking has failed due to the influence of an intruder or the like.
一般的に、画像相関による追尾が成功しているかを判断する場合、被写体領域の画像相関が小さいとき(フレーム間差分が大きいとき)に被写体追尾に失敗した(被写体をロストした)と判断される。このような判断方法は、例えば監視カメラのような撮影被写体や撮影感度が比較的一定であるような被写体やシーンで追尾を行う場合には十分効果が得られると考えられる。しかしながら、デジタルカメラのように撮影シーンや撮影感度が限定されないような場合には画像相関値のみでの被写体追尾が成功しているかを判断することは困難である。例えば、高感度撮影時でノイズが多く発生しているような場合や、被写体自体に動体が含まれるような、被写体領域に一定値以上の動きがある被写体の場合などでは、画像相関値のみでの被写体追尾が成功しているか判断することは難しい。 In general, when determining whether tracking by image correlation is successful, it is determined that subject tracking has failed (subject has been lost) when the image correlation of the subject region is small (when the interframe difference is large). . Such a determination method is considered to be sufficiently effective when tracking is performed on a photographic subject such as a surveillance camera or a subject or scene whose photographing sensitivity is relatively constant. However, when the shooting scene and shooting sensitivity are not limited as in the case of a digital camera, it is difficult to determine whether the subject tracking is successful only with the image correlation value. For example, when there is a lot of noise during high-sensitivity shooting, or when the subject itself contains moving objects, the subject area moves more than a certain value. It is difficult to judge whether the subject tracking is successful.
本発明は上記課題に鑑みてなされたものであり、多様な撮影シーンや撮影感度において、被写体追尾の成否判断をより正確に行えるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to make it possible to more accurately determine the success or failure of subject tracking in various shooting scenes and shooting sensitivities.
上記の目的を達成するための本発明の一態様による撮像装置は以下の構成を備える。すなわち、
撮像された複数の画像フレームの部分領域における相関度に基づいて、前の画像フレームの追尾対象の部分領域に対応する部分領域を現在の画像フレームにおいて検出することにより、当該画像フレーム間で前記部分領域を追尾する追尾手段と、
前記追尾手段において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度を記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を保存する保存手段と、
前記保存手段で保存された複数の相関度の変化を示す値とあらかじめ定められた閾値との比較により、前記追尾手段による前記部分領域に対する追尾が成功したか否かを判定する判定手段とを備える。
In order to achieve the above object, an imaging apparatus according to an aspect of the present invention has the following arrangement. That is,
Based on the degree of correlation in the partial areas of the plurality of captured image frames, the partial area corresponding to the tracking target partial area of the previous image frame is detected in the current image frame, so that the part between the image frames is detected. A tracking means for tracking the area;
Storing means for storing the correlation degrees related to the corresponding partial areas of a plurality of past image frames by storing the correlation degrees acquired for the corresponding partial areas in the current image frame in the tracking means; ,
A determination unit configured to determine whether or not the tracking unit has successfully tracked the partial region by comparing a value indicating a plurality of correlation degree changes stored in the storage unit with a predetermined threshold value; .
また、上記の目的を達成するための本発明の他の態様による被写体追尾方法は、
追尾手段が、撮像された複数の画像フレームの部分領域における相関度に基づいて、前の画像フレームの追尾対象の部分領域に対応する部分領域を現在の画像フレームにおいて検出することにより、当該画像フレーム間で前記部分領域を追尾する追尾工程と、
保存手段が、前記追尾工程において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度をメモリに記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を保存する保存工程と、
判定手段が、前記メモリに保存された複数の相関度の変化を示す値とあらかじめ定められた閾値との比較により、前記追尾工程による前記部分領域に対する追尾が成功したか否かを判定する判定工程とを有する。
In addition, a subject tracking method according to another aspect of the present invention for achieving the above object is as follows:
The tracking means detects in the current image frame a partial area corresponding to the tracking target partial area of the previous image frame based on the degree of correlation in the partial areas of the plurality of captured image frames. A tracking step of tracking the partial area between;
Storage means, by going remembers the correlation degree obtained for the corresponding partial area in the memory in the current image frame in the tracking step, the correlation relating to the corresponding partial areas of a plurality of previous image frames and storing step that save the time,
A determination step of determining whether or not the tracking of the partial area by the tracking step is successful by a determination unit comparing a value indicating a plurality of correlation degree changes stored in the memory with a predetermined threshold. And have.
本発明によれば、多様な撮影シーンや撮影感度において、被写体追尾の成否判断をより正確に行えるようになる。 According to the present invention, the success or failure of subject tracking can be determined more accurately in various shooting scenes and shooting sensitivities.
以下、添付の図面を参照して、本発明の好適な実施形態について詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1は本実施形態における撮像装置の構成例を示したブロック図である。図1において、ユーザによりユーザインタフェース103を介して撮影指示があると、システムコントローラ107は、撮影処理を行う。撮影処理において、システムコントローラ107は、鏡筒装置112の焦点位置や絞り・メカシャッター、CCDなどのセンサである撮像素子101、さらにフラッシュ撮影を行う際の発光装置(不図示)などを制御して撮影を行う。撮影がなされると、撮像素子101から画像信号が出力され、CCD画像データとしてバッファメモリ102に蓄えられる。その後、信号処理回路111によって画像生成用の信号処理がなされてYUV画像が生成され、バッファメモリ102に蓄えられる。
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to the present embodiment. In FIG. 1, when a user gives a shooting instruction via the
画像記録が行われる場合には、バッファメモリ102内のYUV画像は圧縮伸長部104に送られる。圧縮伸長部104は、YUV画像に画像圧縮処理を施してJPEGファイルを生成する。生成されたJPEGファイルは記録制御部105によって記録媒体106に記録される。
When image recording is performed, the YUV image in the
また、表示制御部108は、バッファメモリ102に蓄えられたYUV画像や、システムコントローラ107の指令に応じて表示画像データを生成する。D/A部109は生成された表示画像データをアナログ信号に変換し、モニタ装置110に表示する。
In addition, the
また、顔検出部120は、バッファメモリ102に蓄えられたYUVまたはCCD画像データから顔検出を行い、画像中の座標位置を含む顔検出情報を出力する。顔検出部120にて顔検出が成功した場合には、システムコントローラ107は、表示制御部108に対して顔位置に顔枠(被写体枠)を表示するように指示する。
Further, the
また動画撮影や電子ビューファインダ(EVF)において被写体追尾を行う場合には、被写体追尾部121が、システムコントローラ107から被写体枠の画像上の位置を取得する。そして、被写体追尾部121は、撮像された画像フレーム間の、被写体枠によって特定される部分領域(被写体領域とも言う)における相関度に基づいて、当該部分領域を追尾することで当該被写体の追尾を実現する。そして、被写体追尾部121は、その被写体枠によって示される被写体領域の動きベクトルを算出してシステムコントローラ107に出力する。システムコントローラ107は、この動きベクトルに基づいて被写体枠の位置を変更して、その変更を表示制御部108へ通知する。
Also, when subject tracking is performed in moving image shooting or electronic viewfinder (EVF), the
システムコントローラ107が最初に被写体枠を決定する際は、顔検出部120が顔検出した結果(顔検出情報)が用いられてもよいし、ユーザインタフェース103により指定されたユーザ指定領域などが用いられてもよい。また、顔検出以外の物体認識結果の位置が用いられてもよい。本実施形態においては、顔検出情報に基づく顔検出結果領域を追尾する手法について説明を行う。
When the
なお、上述した各部の機能の一部もしくは全ては、コンピュータ(CPU)が不図示のプログラムメモリに記憶されたプログラムを実行することにより実現されてもよい。 Note that some or all of the functions of the respective units described above may be realized by a computer (CPU) executing a program stored in a program memory (not shown).
図6は本実施形態の撮像装置における、画像相関による被写体追尾処理を説明するフローチャートである。 FIG. 6 is a flowchart for explaining subject tracking processing based on image correlation in the imaging apparatus of the present embodiment.
ステップS201において、システムコントローラ107は、撮像素子101から取得されバッファメモリ102に保持された画像(現在フレームの画像)を取得し、不図示の画像メモリ上に展開する。顔検出部120は、展開された画像について顔検出処理(図4等により後述)を行う。ステップS202において、当該画像について顔検出部120による顔検出が成功したか否かを判定する。顔検出部120による顔検出に成功した場合は、当該顔検出の結果を追尾結果として用いるため、画像相関による追尾を終了する。一方、顔検出が失敗した場合においては、画像相関による追尾処理を行うため、処理をステップS203へ進める。
In step S201, the
ステップS203において、システムコントローラ107は、前フレームにおける被写体領域(被写体枠で特定される部分領域)を取得し、被写体追尾部121にセットする。ステップS204において、被写体追尾部121は、前フレームと現在フレームとの部分領域に関する画像相関を計算する。そして、ステップS205にて、被写体追尾部121は、計算された画像相関に基づいて前フレームの被写体領域と追従関係にある部分領域を現在フレームより検出し、その動きベクトルを算出する。ステップS206において、システムコントローラ107は、被写体追尾部121によって算出された動きベクトル量分だけ被写体枠を移動した座標を算出し、被写体枠の表示位置を修正する。
In step S <b> 203, the
ステップS207において、システムコントローラ107は、前フレームの被写体領域の画像と、現在フレームにおける追尾検出後の被写体領域のフレーム間差分値を算出する。なお、このフレーム間差分値はステップS204で算出された画像相関の逆数を用いてもよい。ステップS208において、システムコントローラ107は、ステップS207で算出されたフレーム間差分値を複数フレーム分保存する。ステップS209において、システムコントローラ107は、ステップS208で蓄積された過去のフレーム間差分値から、侵入物検出評価値を算出する。たとえば、評価中のフレーム(現在フレーム)から所定数のフレームの範囲で差分値の最大値と最小値を選択し、その差分を動き評価値として算出し、これを侵入物検出評価値として用いる。
In step S207, the
図8は侵入物検出評価値の算出方法の一例を示した図である。具体的な例としては、過去の複数フレーム(図8では22フレーム分)の被写体領域のフレーム間差分値を算出し、その中から、最大値と最小値を選択する。もちろん、動き評価値は、そのような差分に限られるものではなく、フレーム間差分値の最大値と最小値の倍率値を用いてもよい。なお、図8において、縦軸はフレーム間差分値を用いており、値が小さいほど被写体枠内の画像が類似している(画像相関が高い)ことを示している(図9、図10においても同様)。 FIG. 8 is a diagram illustrating an example of a method for calculating an intruder detection evaluation value. As a specific example, the inter-frame difference value of the subject area of the past plural frames (22 frames in FIG. 8) is calculated, and the maximum value and the minimum value are selected from among the difference values. Of course, the motion evaluation value is not limited to such a difference, and the maximum and minimum magnification values of the inter-frame difference values may be used. In FIG. 8, the vertical axis uses the inter-frame difference value, and the smaller the value, the more similar the images in the subject frame (the higher the image correlation) (in FIGS. 9 and 10). The same).
ステップS210において、システムコントローラ107は、ステップS209で算出される評価値により追尾に失敗したか否か(追尾ロストか否か)を判定するために用いられる検出閾値を決定する。この検出閾値は、カメラの撮影条件や撮影シーンなどに応じて、適応的に設定される。
In step S210, the
図9はISO100とISO400でのフレーム間差分値のフレーム毎の推移を示したグラフである。このグラフで示されているように、感度が高くなるに応じて、光ショットノイズや暗電流成分によるランダムノイズが増幅されるため、フレーム間差分値が大きくなる。 FIG. 9 is a graph showing the transition of each frame difference value between ISO100 and ISO400. As shown in this graph, as the sensitivity increases, the light shot noise and random noise due to the dark current component are amplified, so that the inter-frame difference value increases.
この例でもわかるように、感度に応じてノイズ量が変わるため、フレーム間差分値の絶対値での追尾の成否の検出はできない。したがって、最近の過去の所定数の複数のフレーム中における画像差分値の最大値や最低値との差分を検出閾値と比較することで、追尾が失敗しているシーン(画像差分値が大きくなったシーン)を精度高く検出することが可能となる。なお、比較する対象として、追尾開始直後における所定数フレーム分のフレーム間差分値の平均値といった追尾開始直後のフレーム間差分値の定常値と対象フレームにおけるフレーム間差分値との差分を検出閾値と比較するようにしてもよい。 As can be seen from this example, since the amount of noise changes according to the sensitivity, it is impossible to detect the success or failure of tracking with the absolute value of the inter-frame difference value. Therefore, by comparing the difference between the maximum value and the minimum value of the image difference values in a predetermined number of recent past frames with the detection threshold, the scene in which tracking has failed (the image difference value has increased). Scene) can be detected with high accuracy. As a comparison target, a difference between a steady value of inter-frame difference values immediately after tracking start, such as an average value of inter-frame difference values for a predetermined number of frames immediately after tracking start, and an inter-frame difference value in the target frame is set as a detection threshold. You may make it compare.
また同様にカメラ(センサ個体)のノイズ量またはそれに順ずるような値に依存して上記の検出閾値が決定されてもよい。例えば、ノイズ量としてはダークノイズや光ノイズが挙げられる。ダークノイズには、例えば、遮光して撮影された画像信号値の標準偏差値を用いることができる。また、光ノイズには、例えば、チャート類を撮影し、そのチャート部分の標準偏差値をノイズ量として用いることができる。これらのノイズ量は、出荷時等においてあらかじめ設定されてもよいし、これらノイズを計測するモードを撮像装置に設けてもよい。更に、例えば、ノイズ量はセンサ出力に対するゲイン量に依存するため、撮像装置の感度を調整するためのゲイン設定値などに上記の閾値が依存しても良い。 Similarly, the detection threshold value may be determined depending on the noise amount of the camera (sensor individual) or a value corresponding to the noise amount. For example, the noise amount includes dark noise and optical noise. For the dark noise, for example, a standard deviation value of an image signal value photographed while being shielded from light can be used. For optical noise, for example, charts can be photographed, and the standard deviation value of the chart portion can be used as the amount of noise. These noise amounts may be set in advance at the time of shipment or the like, or a mode for measuring these noises may be provided in the imaging apparatus. Further, for example, since the noise amount depends on the gain amount with respect to the sensor output, the threshold value may depend on a gain setting value for adjusting the sensitivity of the imaging apparatus.
また、一般的なカメラにおいて撮影感度は、画像フレーム内から得られた輝度に対して領域別に重み付けをして得られた被写体輝度値(Bv値)に依存するため、検出閾値をBv値に応じて可変しても良いことは言うまでもない。また、検出閾値は画像フレーム内の被写体領域のみの輝度である画像輝度値(Y値)に応じて設定されてもよい。被写体領域の輝度値が高くなっていると、フレーム間差分値の値も大きくなるため、被写体領域の画像輝度値に応じて検出閾値を可変しても良いことは言うまでもない。逆に、検出閾値を変更せずに、被写体領域の輝度値の平均値で画像差分値を正規化してもよい。またそれ以外にも、例えば焦点距離が長くなると被写体が画角から出る可能性が高いため、検出閾値を低めにしてもよい。また、被写体の追従枠(被写体枠)のサイズが大きくなるほどフレーム間差分値が大きくなるため、被写体枠の画像サイズやピクセル毎に検出閾値を設定してもよいし、フレーム間差分値を被写体枠内の画素数で平均値化してもよい。また、フレームレートをあげるほどフレーム間で被写体が動ける度合いが小さくなるため、フレームレートをあげるほど検出閾値を低く設定してもよい。以上のように、検出閾値は、撮影感度、ゲイン設定値、センサ個体のノイズ量、被写体輝度(Bv値)、被写体領域の画像輝度値(Y値)、フレームレートの少なくともいずれかによって決定され得る。 Further, in a general camera, the photographing sensitivity depends on the subject luminance value (Bv value) obtained by weighting the luminance obtained from the image frame for each region, so that the detection threshold is set according to the Bv value. Needless to say, it may be variable. Further, the detection threshold value may be set according to an image luminance value (Y value) that is the luminance of only the subject region in the image frame. If the luminance value of the subject area is high, the value of the inter-frame difference value also increases, so it goes without saying that the detection threshold value may be varied according to the image luminance value of the subject area. Conversely, the image difference value may be normalized by the average value of the luminance values of the subject area without changing the detection threshold. In addition to this, for example, if the focal length becomes long, the subject is more likely to come out of the angle of view, so the detection threshold may be lowered. In addition, since the inter-frame difference value increases as the size of the subject tracking frame (subject frame) increases, a detection threshold may be set for each image size or pixel of the subject frame. The average value may be obtained by the number of pixels. Further, since the degree to which the subject can move between frames decreases as the frame rate increases, the detection threshold may be set lower as the frame rate increases. As described above, the detection threshold can be determined by at least one of the imaging sensitivity, the gain setting value, the noise amount of the individual sensor, the subject brightness (Bv value), the image brightness value (Y value) of the subject area, and the frame rate. .
図10は、フレーム数が経過した場合にフレーム間の画像相関が下がっている例(フレーム間差分値が上がっている例)を示している。これは、追尾開始直後は被写体追尾が成功していたとすると、それと比較して画像相関が大幅に低くなっていることを示しており、具体的には被写体追尾が失敗して他の物体や平面的なものに追尾枠が追従している可能性が高い。 FIG. 10 shows an example in which the image correlation between frames decreases when the number of frames elapses (an example in which the inter-frame difference value increases). This indicates that if the subject tracking was successful immediately after the start of tracking, the image correlation was significantly lower than that. Specifically, the subject tracking failed and another object or plane There is a high possibility that the tracking frame follows the target.
これからもわかるように被写体追尾が成功している間は、追尾を開始してから時間の経過とともに、フレーム間差分値が一定レベルにあるか、または小さくなることが予想される。 As can be seen, while the subject tracking is successful, it is expected that the inter-frame difference value is at a constant level or becomes smaller as time elapses after the tracking is started.
この例のように、画像差分の最大値と最小値の時間的な関係において最大値のほうが遅くなった場合には、追尾に失敗している可能性が高い。したがって、フレーム間差分値が下降している場合(画像相関が上昇している場合)の検出閾値(図8で用いた検出閾値)よりも小さい検出閾値を設定し、時間的にフレーム間差分値が上昇する場合にはその検出閾値との比較により追尾に失敗していると判断する。 As in this example, when the maximum value is delayed in the temporal relationship between the maximum value and the minimum value of the image difference, there is a high possibility that tracking has failed. Therefore, a detection threshold smaller than the detection threshold (detection threshold used in FIG. 8) when the inter-frame difference value is decreasing (when the image correlation is increasing) is set, and the inter-frame difference value is temporally determined. Is increased, it is determined that tracking has failed by comparison with the detection threshold.
図11は、前述したような侵入物検出閾値の設定例を示しており、感度が高くなるにつれて検出閾値が高くなっており、また被写体領域の画像輝度値(Y値)に応じて検出閾値が高くなっている様子を示している。図11では、時系列的にフレーム間差分値が下降しているとき(画像相関が上昇しているとき)の閾値(下降系)と、時系列的にフレーム間差分値が上昇しているとき(画像相関が下降しているとき)の閾値(上昇系)の両方が設定されている。 FIG. 11 shows an example of setting the intruder detection threshold as described above. The detection threshold increases as the sensitivity increases, and the detection threshold is set according to the image luminance value (Y value) of the subject area. It shows how it is getting higher. In FIG. 11, when the inter-frame difference value is decreasing in time series (when the image correlation is increasing) and when the inter-frame difference value is increasing in time series Both threshold values (rising system) are set (when the image correlation is falling).
以上のように、フレーム間差分値の最大値を得た画像フレームが最小値を得た画像フレームよりも時間的に後である場合と、フレーム間差分値の最大値を得た画像フレームが最小値を得た画像フレームよりも時間的に前である場合とで、検出閾値を変える。例えば、時間的に古いフレーム間差分値に対して新しいものが第1の検出閾値より大きくなっていることを、また、時間的に古いものに対して新しいものが第1の検出閾値より大きい第2の検出閾値を超えて小さくなっていることを検出する。たとえば、上りは被写体領域に侵入物が入ってきたことを、下りは被写体領域に入っていた侵入物が出ていった、または被写体領域の動きが止まったことを検出するため、閾値を変えることが好ましい。 As described above, when the image frame that has obtained the maximum value of the inter-frame difference value is later in time than the image frame that has obtained the minimum value, the image frame that has obtained the maximum value of the inter-frame difference value is the smallest The detection threshold is changed depending on the time before the image frame from which the value was obtained. For example, a new value for a temporally old inter-frame difference value is larger than a first detection threshold, and a new one for a temporally old one is larger than a first detection threshold. 2 is detected to be smaller than the detection threshold value. For example, change the threshold to detect that an intruder has entered the subject area when going up, and that an intruder that entered the subject area has come out or that the movement of the subject area has stopped moving down. Is preferred.
図6に戻り、ステップS212において、システムコントローラ107は、ステップS209で算出された評価値とステップS210で決定された検出閾値とを比較して、追尾がロストしたか否かを判定する。本実施形態においては、フレーム間差分値の最近の過去22フレームにおける最大値と最小値との差分と、検出閾値とを比較して、検出閾値よりも大きい場合に侵入物があった、すなわち追尾がロストしたと判定する。以上のようにして、システムコントローラ107は、追従領域に関して保存された複数の相関度の変化量に基づいて、被写体に対する追尾を続行するか否か(追尾が成功したか否か)を判定する。
Returning to FIG. 6, in step S212, the
ステップS213において、追尾が成功したと判定された場合には、処理はステップS201に戻り、追尾が失敗したと判定された場合には処理はステップS214に進む。ステップS214にて、システムコントローラ107は、表示制御部108に被写体枠を消去するよう指示し、追尾を終了する。表示制御部108は、被写体枠を消去する指示に応じてモニタ装置110に表示されている被写体枠を消去する。
If it is determined in step S213 that the tracking has been successful, the process returns to step S201. If it is determined that the tracking has failed, the process proceeds to step S214. In step S214, the
次に顔検出部120による顔検出方法について説明する。顔検出方法としては、
・ニューラルネットワークに代表される学習を用いた方法、
・目や鼻といった物理的な形状の特徴のある部位を画像領域からテンプレートマッチングを用いた手法、
・肌の色や目の形といった画像特徴量を検出し統計的解析を用いた手法、
など、多数の方法が提案されており、一般的にはそれらの方法を複数組み合わせて顔認識が行われる。
Next, a face detection method by the
・ Methods using learning represented by neural networks,
・ A method using template matching for parts with physical shape features such as eyes and nose from the image area,
・ A method using statistical analysis to detect image features such as skin color and eye shape,
Many methods have been proposed, and face recognition is generally performed by combining a plurality of these methods.
現在製品として提案されているものとしては、ウェーブレット変換と画像特徴量を利用して顔検出する方法や、テンプレートマッチング等を組み合わせた方法などが代表的である。 Typical products currently proposed include a face detection method using wavelet transform and image feature amounts, a method combining template matching, and the like.
本実施形態においては、顔検出方法としてどのような手法を採用してもかまわないが、その一例を以下に説明する。図4は本実施形態による顔検出処理を示すフローチャートであり、図3は顔検出の具体的内容を説明した図である。図3において顔検出する対象画像を図3の(a)とする。ステップS101において、顔検出部120は、画像中の肌色の領域を抽出する肌色領域抽出処理を行う。図2はCIELABのLab色空間における代表色を示した色度図であり、その中の楕円201は、肌色である可能性が高い領域である。図3の(b)は、肌色領域の色度である領域を画像中から抽出した様子を示した図である。ステップS102において、顔検出部120は、画像に対してハイパスフィルタを作用させる。図3の(c)は、(b)の画像に対してハイパスフィルタによる処理を施した画像である。このようなハイパスフィルタ処理には、例えば図5に示したような係数を持つ2次元ハイパスフィルタを用いればよい。
In this embodiment, any method may be adopted as the face detection method, but an example thereof will be described below. FIG. 4 is a flowchart showing face detection processing according to the present embodiment, and FIG. 3 is a diagram for explaining specific contents of face detection. The target image for face detection in FIG. 3 is assumed to be (a) in FIG. In step S <b> 101, the
ステップS103において、顔検出部120は、テンプレートマッチングを行い画像中における目の検出を行う。ステップS104において、顔検出部120は、検出された目の領域の位置関係から顔認識を行い、方向・大きさ等の特徴量抽出を行う。こうして、顔検出部120は、画像中から顔の領域を検出し、顔検出情報を生成して出力する。
In step S103, the
次に、本実施形態の被写体追尾に用いられるフレーム間差分値の算出方法について説明する。なお、被写体の相関性および動きベクトルを検出する方法は多数提案されており、いずれの方法を用いてもよいが、ここではもっとも単純な方法について説明する。 Next, a method for calculating an inter-frame difference value used for subject tracking according to the present embodiment will be described. Many methods for detecting the correlation and motion vector of a subject have been proposed, and any method can be used. Here, the simplest method will be described.
図7は、本実施形態の被写体追尾部121による画像相関を算出する処理を示すフローチャートである。
FIG. 7 is a flowchart illustrating a process of calculating an image correlation by the
ステップS301で、被写体追尾部121は、相関をとる元となる基準部分領域の画像データを取得する。本実施形態においては、前フレームの被写体枠において特定される部分領域の画像であり、追尾開始時では顔検出部120により検出された顔領域やユーザ指定された領域に対応する被写体枠が、追尾後では動きベクトルにより移動した被写体枠がこれに相当する。次に、ステップS302において、被写体追尾部121は、画像相関をとる現在フレームを取得する。
In step S301, the
ステップS303で、現在フレームにおいて、被写体枠の位置を垂直、水平、斜め方向のいずれかにずらし、現在フレームにおける被写体枠内の画像データを、追尾対象の部分領域(対象部分領域)の画像データとして取得する。ここで被写体枠の位置の移動は、あらかじめ定められた画素数を単位として、あらかじめ定められたベクトル移動量検出範囲で行われる。よって、ベクトル移動量検出範囲を大きく設定することで広範囲を見ることができるが、比較対象が増えることで、検出に時間がかかることになる。また、ベクトル移動量検出範囲を狭くすれば、検出スピードは向上するが検出能力が下がる。 In step S303, the position of the subject frame in the current frame is shifted to any one of vertical, horizontal, and diagonal directions, and the image data in the subject frame in the current frame is used as image data of the tracking target partial area (target partial area). get. Here, the movement of the position of the subject frame is performed within a predetermined vector movement amount detection range in units of a predetermined number of pixels. Therefore, a wide range can be seen by setting the vector movement amount detection range to be large, but detection takes time due to an increase in comparison objects. Further, if the vector movement amount detection range is narrowed, the detection speed is improved but the detection capability is lowered.
ステップS304において、被写体追尾部121は、画素ずらしを行って得られた対象部分領域の画像と基準部分領域の画像との画像差分値を算出する。そしてステップS305において、被写体追尾部121は、ステップS304での画像差分の絶対値の積分値を取得する。もちろん画像差分の積分値の絶対値が小さいほど画像相関性が高いことは言うまでもない。
In step S304, the
ステップS306において、被写体追尾部121は、ステップS305で取得された相関値がそれまでに取得された相関値の中で最も高い(画素間の差分値が最も小さい)場合、その相関値およびそのときの被写体枠の位置(ずらし量)を保存する。
In step S306, when the correlation value acquired in step S305 is the highest among the correlation values acquired so far (the difference value between the pixels is the smallest), the
ステップS308において、被写体追尾部121は、被写体枠の移動をベクトル移動量検出範囲の全範囲について終了したか判断し、終了していない場合には、処理をステップS303に戻す。他方、ベクトル移動量検出範囲の全てについて画像相関値が算出されていた場合には、ステップS309にてもっとも相関性が高かった画像相関値とそのときのずらし量(動きベクトル)を算出する。なお、最も相関性が高かった画像相関値があらかじめ定められた閾値に到達していない場合に当該追尾が失敗したとする判断を加えてもよい。
In step S308, the
以上説明したように、本実施形態の被写体追尾機能によれば、被写体や環境、カメラの感度設定によらず、追尾性能および失敗可否判断を正確に行うことができる。即ち、被写体追尾を行う際、高感度時のノイズ成分や被写体の背景の動きによって相関値が大きく変動するため、フレーム間の被写体相関値のみで正確に被写体追尾可否判断を行うことは一般には困難であるという課題を解決する。また、本実施形態の被写体追尾処理では、追尾が成功しているか否かの判定をフレーム間差分値の絶対値のみでなく、複数フレームにおけるフレーム間差分値の変化、シーンや被写体や撮像装置の設定に依存した閾値が用いられる。このため、精度良く被写体侵入がされた事を検出し、追尾の状態が成功しているか否かを判定することができることが可能である。無論、フレーム間差分値ではなく画像相関を用いて判定することも可能である。 As described above, according to the subject tracking function of the present embodiment, it is possible to accurately perform tracking performance and failure determination regardless of the subject, environment, and camera sensitivity setting. That is, when subject tracking, the correlation value varies greatly depending on the noise component at the time of high sensitivity and the movement of the subject's background, so it is generally difficult to accurately determine whether the subject can be tracked using only the subject correlation value between frames. Solve the problem of being. Further, in the subject tracking process of the present embodiment, whether or not the tracking is successful is determined not only by the absolute value of the inter-frame difference value, but also by the change of the inter-frame difference value in a plurality of frames, the scene, the subject, and the imaging device. A threshold depending on the setting is used. For this reason, it is possible to detect whether the subject has entered with high accuracy and to determine whether or not the tracking state is successful. Of course, it is also possible to make a determination using image correlation instead of the inter-frame difference value.
また、このような被写体追尾機能を利用した撮像装置では、被写体に最適な撮影設定および信号処理、被写体に追尾していることを示す被写体枠の表示/消去を適切に行うことができる。特に、本実施形態の被写体追尾機能によれば、固定パターンノイズや暗いところの画像相関による追尾の判断が適応的にできるため、撮像装置に置ける撮影条件の設定等を精度良く制御することが可能となる。そのような被写体の場合においても追尾の性能を向上させることができ、ユーザの使い勝手を向上させることができる。 In addition, an imaging apparatus using such a subject tracking function can appropriately perform optimal shooting settings and signal processing for a subject and display / erase of a subject frame indicating that the subject is being tracked. In particular, according to the subject tracking function of the present embodiment, it is possible to adaptively determine tracking based on fixed pattern noise or image correlation in a dark place, so it is possible to control the setting of shooting conditions that can be placed in the imaging apparatus with high accuracy. It becomes. Even in the case of such a subject, the tracking performance can be improved, and user convenience can be improved.
以上、実施形態を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。 In the present invention, the functions of the above-described embodiments are achieved by supplying a software program directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Including the case. In this case, the supplied program is a computer program corresponding to the flowchart shown in the drawings in the embodiment.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.
コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。 Examples of the computer-readable storage medium for supplying the computer program include the following. For example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD- R).
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記録媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 As another program supply method, a client computer browser is used to connect to a homepage on the Internet, and the computer program of the present invention is downloaded from the homepage to a recording medium such as a hard disk. In this case, the downloaded program may be a compressed file including an automatic installation function. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
Claims (8)
前記追尾手段において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度を記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を保存する保存手段と、
前記保存手段で保存された複数の相関度の変化を示す値とあらかじめ定められた閾値との比較により、前記追尾手段による前記部分領域に対する追尾が成功したか否かを判定する判定手段とを備えることを特徴とする撮像装置。 Based on the degree of correlation in the partial areas of the plurality of captured image frames, the partial area corresponding to the tracking target partial area of the previous image frame is detected in the current image frame, so that the part between the image frames is detected. A tracking means for tracking the area;
Storing means for storing the correlation degrees related to the corresponding partial areas of a plurality of past image frames by storing the correlation degrees acquired for the corresponding partial areas in the current image frame in the tracking means; ,
A determination unit configured to determine whether or not the tracking unit has successfully tracked the partial region by comparing a value indicating a plurality of correlation degree changes stored in the storage unit with a predetermined threshold value; An imaging apparatus characterized by that.
保存手段が、前記追尾工程において前記現在の画像フレームにおける前記対応する部分領域に関して取得された相関度をメモリに記憶していくことにより、過去の複数の画像フレームの前記対応する部分領域に関する相関度を保存する保存工程と、
判定手段が、前記メモリに保存された複数の相関度の変化を示す値とあらかじめ定められた閾値との比較により、前記追尾工程による前記部分領域に対する追尾が成功したか否かを判定する判定工程とを有することを特徴とする被写体追尾方法。 The tracking means detects in the current image frame a partial area corresponding to the tracking target partial area of the previous image frame based on the degree of correlation in the partial areas of the plurality of captured image frames. A tracking step of tracking the partial area between;
Storage means, by going remembers the correlation degree obtained for the corresponding partial area in the memory in the current image frame in the tracking step, the correlation relating to the corresponding partial areas of a plurality of previous image frames and storing step that save the time,
A determination step of determining whether or not the tracking of the partial area by the tracking step is successful by a determination unit comparing a value indicating a plurality of correlation degree changes stored in the memory with a predetermined threshold. An object tracking method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008237189A JP5118590B2 (en) | 2008-09-16 | 2008-09-16 | Subject tracking method and imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008237189A JP5118590B2 (en) | 2008-09-16 | 2008-09-16 | Subject tracking method and imaging apparatus |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010074315A JP2010074315A (en) | 2010-04-02 |
JP2010074315A5 JP2010074315A5 (en) | 2011-11-04 |
JP5118590B2 true JP5118590B2 (en) | 2013-01-16 |
Family
ID=42205721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008237189A Active JP5118590B2 (en) | 2008-09-16 | 2008-09-16 | Subject tracking method and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5118590B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5895720B2 (en) | 2012-06-06 | 2016-03-30 | 富士通株式会社 | Subject tracking device, subject tracking method, and computer program for subject tracking |
JP6330283B2 (en) * | 2013-09-30 | 2018-05-30 | 株式会社ニコン | Subject tracking device, imaging device, and subject tracking program |
JP2018142981A (en) * | 2018-04-24 | 2018-09-13 | 株式会社ニコン | Subject tracking device, imaging device, and subject tracking program |
CN113989695B (en) * | 2021-09-18 | 2022-05-20 | 北京远度互联科技有限公司 | Target tracking method and device, electronic equipment and storage medium |
CN117953016B (en) * | 2024-03-27 | 2024-07-16 | 华能澜沧江水电股份有限公司 | Flood discharge building exit area slope dangerous rock monitoring method and system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004038624A (en) * | 2002-07-04 | 2004-02-05 | Nissan Motor Co Ltd | Vehicle recognition method, vehicle recognition device and vehicle recognition program |
JP4123077B2 (en) * | 2003-06-27 | 2008-07-23 | 日産自動車株式会社 | Driver status detection device |
JP2008100204A (en) * | 2005-12-06 | 2008-05-01 | Akira Tomono | Mist generating apparatus |
-
2008
- 2008-09-16 JP JP2008237189A patent/JP5118590B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010074315A (en) | 2010-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5409189B2 (en) | Imaging apparatus and control method thereof | |
US8861806B2 (en) | Real-time face tracking with reference images | |
US9258481B2 (en) | Object area tracking apparatus, control method, and program of the same | |
EP2273450A2 (en) | Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera | |
JP5279635B2 (en) | Image processing apparatus, image processing method, and program | |
US20120019678A1 (en) | Image processing apparatus and control method therefor | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
KR20110023472A (en) | Object tracking device and method based on pan tilt zoom camera using coordinate map | |
US10270977B2 (en) | Imaging apparatus and a method of tracking a subject in the imaging apparatus | |
JP4420906B2 (en) | Imaging device | |
JP5118590B2 (en) | Subject tracking method and imaging apparatus | |
JP2008259161A (en) | Target tracing device | |
US20210256713A1 (en) | Image processing apparatus and image processing method | |
JP2012231327A (en) | Imaging apparatus, imaging method, and program | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP2007067559A (en) | Image processing method, image processing apparatus, and control method of imaging apparatus | |
US11727716B2 (en) | Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection | |
JP5111293B2 (en) | Imaging apparatus and control method thereof | |
JP5451364B2 (en) | Subject tracking device and control method thereof | |
JP5213493B2 (en) | Motion detection device | |
JP5323243B2 (en) | Image processing apparatus and control method thereof | |
US12008773B2 (en) | Object tracking apparatus and control method thereof using weight map based on motion vectors | |
US20230360229A1 (en) | Image processing apparatus, image capturing apparatus, control method, and storage medium | |
US20230046830A1 (en) | Image capturing apparatus that performs blur correction and method of controlling same | |
JP2010154374A (en) | Image capturing apparatus and subject tracking method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110914 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120921 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121019 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5118590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151026 Year of fee payment: 3 |