JP4625949B2 - Object tracking method, object tracking apparatus, and program - Google Patents
Object tracking method, object tracking apparatus, and program Download PDFInfo
- Publication number
- JP4625949B2 JP4625949B2 JP2005041822A JP2005041822A JP4625949B2 JP 4625949 B2 JP4625949 B2 JP 4625949B2 JP 2005041822 A JP2005041822 A JP 2005041822A JP 2005041822 A JP2005041822 A JP 2005041822A JP 4625949 B2 JP4625949 B2 JP 4625949B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- tracking
- frame
- calculating
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 51
- 238000011524 similarity measure Methods 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 1
- 238000003384 imaging method Methods 0.000 description 9
- 239000003086 colorant Substances 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 238000007796 conventional method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 235000019557 luminance Nutrition 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、動画像中の追跡対象物体の位置座標を順次検出する物体追跡方法および物体追跡装置およびプログラムに関する。 The present invention relates to an object tracking method, an object tracking apparatus, and a program for sequentially detecting position coordinates of tracking target objects in a moving image.
物体追跡とは、動画像中の追跡対象物体の位置座標を順次検出する技術であり、追跡対象物体の一部領域又は全領域の画像(追跡対象画像)の特徴量を求め、特徴量が前記追跡対象画像の特徴量と一致または近似する領域を各フレームから探し出して、その領域の位置座標を追跡対象物体の位置座標に決定することによって行われる。物体追跡には、テンプレートマッチングを行うもの、物体領域の色ヒストグラムと入力フレーム中の色ヒストグラムを比較して、色ヒストグラムの類似性が高い領域の位置を対象物体の位置とするものなどがある。 Object tracking is a technique for sequentially detecting the position coordinates of a tracking target object in a moving image. A feature amount of an image (tracking target image) of a partial region or the entire region of the tracking target object is obtained, and the feature amount is An area that matches or approximates the feature amount of the tracking target image is searched from each frame, and the position coordinates of the area are determined as the position coordinates of the tracking target object. Object tracking includes those that perform template matching, and those that compare the color histogram of the object region with the color histogram in the input frame and set the position of the region having a high similarity of the color histogram as the position of the target object.
テンプレートマッチングによる物体追跡は、追跡対象画像の形状的特徴を抽出したテンプレート画像を作成して、入力フレームからそのテンプレート画像と形状的特徴が一致する領域を検出するものであるが、追跡対象物体の画像の形状的特徴は追跡対象物体の移動、回転、変形あるいは照明の変動等によって変化するので、追跡精度や安定性が低いという問題がある。そこで、一のフレームで追跡対象物体の検出に成功する度に、テンプレート画像を更新して、次のフレームの入力に備える方法、あるいは、入力画像とテンプレート画像の類似度が所定の閾値を下回る場合にテンプレート画像を更新する方法などが採られている(特許文献1)。 Object tracking by template matching is to create a template image from which the geometric features of the tracking target image are extracted, and detect an area where the template image matches the geometric features from the input frame. Since the shape feature of the image changes due to movement, rotation, deformation, or illumination variation of the tracking target object, there is a problem that tracking accuracy and stability are low. Therefore, each time a tracking target object is successfully detected in one frame, the template image is updated to prepare for the input of the next frame, or the similarity between the input image and the template image is below a predetermined threshold For example, a method of updating a template image is used (Patent Document 1).
色ヒストグラムは追跡対象物体の移動・回転等によって変化しないので、物体追跡に適している。例えば特許文献2には、参照画像から参照領域ヒストグラムと参照拡張領域ヒストグラムを作成し、処理画像から候補領域ヒストグラムと候補拡張領域ヒストグラムを作成し、参照領域ヒストグラムと候補領域ヒストグラムを用いてヒストグラムマッチングを行いヒストグラムインターセクションを算出し、参照拡張領域ヒストグラムと候補拡張領域ヒストグラムを用いてヒストグラムマッチングを行い拡張ヒストグラムインターセクションを算出し、算出されたヒストグラムインターセクションと拡張ヒストグラムインターセクションを統合した統合ヒストグラムインターセクションが最大となる候補領域を処理画像中の対象動物体位置として検出する画像処理方法が開示されている。
Since the color histogram does not change due to movement or rotation of the tracking target object, it is suitable for object tracking. For example, in
また、色ヒストグラムによる物体追跡を更にロバストにするために、追跡対象物体の検出に成功する度に、色ヒストグラムを更新して、次のフレームの入力に備えることが行われていた。このような物体追跡方法、つまり、最初のフレームの追跡対象物体の画像から参照領域ヒストグラムを作成し、入力フレームから候補領域ヒストグラムを作成し、参照領域ヒストグラムと候補領域ヒストグラムの間のヒストグラムインターセクションを算出し、ヒストグラムインターセクションが最大となる候補領域の位置座標を入力画像中の追跡対象物体の位置座標に決定するともに、前記候補領域の色ヒストグラムを新たな参照領域ヒストグラムにして、次の入力フレームを待つ操作を繰り返す物体追跡方法を「従来方法」と呼ぶことにする。 Further, in order to make the object tracking by the color histogram more robust, every time the tracking target object is successfully detected, the color histogram is updated to prepare for the input of the next frame. Such an object tracking method, that is, a reference area histogram is created from the image of the tracking target object in the first frame, a candidate area histogram is created from the input frame, and a histogram intersection between the reference area histogram and the candidate area histogram is set. The position coordinates of the candidate area where the histogram intersection is maximized are determined as the position coordinates of the tracking target object in the input image, and the color histogram of the candidate area is set as a new reference area histogram, and the next input frame is calculated. The object tracking method that repeats the operation of waiting for is called “conventional method”.
従来方法は、照明条件の変動等の外乱の影響を受けないロバストな物体追跡の実現を目指したものではあるが、入力フレームの中からヒストグラムインターセクションが最大となる候補領域を1つだけ検出して、検出した候補領域の色ヒストグラムを次のフレームの検出に使用するので、候補領域の検出を行う度に検出誤差が累積して、検出位置が追跡対象物体の真の位置から徐々に外れていくドリフティング(drifting)と呼ばれる現象が発生し、追跡不能に陥るおそれがあった。 The conventional method aims to achieve robust object tracking that is not affected by disturbances such as fluctuations in lighting conditions. However, it detects only one candidate region with the maximum histogram intersection from the input frame. The detected color histogram of the candidate area is used for detection of the next frame, so that each time the candidate area is detected, detection errors accumulate and the detection position gradually deviates from the true position of the tracking target object. A phenomenon called drifting occurred, and there was a risk of being unable to track.
本発明は、このような問題を解決するために成されたものであり、追跡対象物体の移動、回転、変形ならびに照明条件の変動等に対してロバストな、高精度で安定性の高い物体追跡方法、装置およびプログラムを提供することを目的とする。 The present invention has been made to solve such problems, and is a highly accurate and highly stable object tracking that is robust against movement, rotation, deformation, variation of illumination conditions, and the like of an object to be tracked. An object is to provide a method, an apparatus, and a program.
本発明の物体追跡方法の第1の構成は、動画像の一のフレームにおいて追跡対象物体の一部領域又は全領域の画像(以下、「追跡対象画像」という。)に対応する部分画像の位置座標を決定する対応位置決定ステップを、前記動画像の各フレームに対して順次繰り返すことにより、前記追跡対象物体の追跡を行う物体追跡方法において、前記対応位置決定ステップは、前記一のフレームに属する複数の位置の部分画像に対して、当該部分画像の特徴量と前記追跡対象画像の特徴量との間の類似性尺度を算出する類似性尺度算出ステップ;前記一のフレームにおける類似性尺度の分布に基づいて、前記一のフレーム内における前記追跡対象画像に類似する部分画像が存在する領域(以下、「類似領域」という。)を抽出する領域抽出ステップ;および、前記類似領域の重心座標を算出して、前記重心座標を当該フレームにおける前記対象物体の位置座標に決定する位置算出ステップ;を有することを特徴とする。 The first configuration of the object tracking method of the present invention is the position of a partial image corresponding to an image of a partial area or the entire area of a tracking target object (hereinafter referred to as “tracking target image”) in one frame of a moving image. In the object tracking method for tracking the tracking target object by sequentially repeating the corresponding position determining step for determining coordinates for each frame of the moving image, the corresponding position determining step belongs to the one frame. A similarity measure calculating step for calculating a similarity measure between a feature amount of the partial image and a feature amount of the tracking target image with respect to the partial images at a plurality of positions; distribution of the similarity measure in the one frame A region extracting step of extracting a region in which a partial image similar to the tracking target image in the one frame exists (hereinafter referred to as “similar region”); Characterized by having a; and calculates the center coordinates of the similar region, the centroid coordinate position calculating step of determining the position coordinates of the target object in the frame.
この構成によれば、追跡対象画像に類似する複数の部分画像の重心座標を追跡対象物体の位置座標にするので、誤差が相殺されて、精度の高い物体追跡が可能になるとともに、ドリフティングの発生が抑制されて、安定した物体追跡が可能になる。 According to this configuration, since the barycentric coordinates of a plurality of partial images similar to the tracking target image are used as the position coordinates of the tracking target object, the error is canceled out and the object tracking can be performed with high accuracy. Occurrence is suppressed and stable object tracking becomes possible.
なお、画像の特徴量とはその画像を他の画像と識別する変数の事であり、画像の色相、彩度、明度、輝度、あるいはこれらのヒストグラムなどである。また特徴量に、画像の形状的な特徴を示す変数を用いてもよい。また、物体追跡に用いる特徴量は1個に限られない。複数の特徴量を組み合わせて使用してもよい。 Note that the feature amount of an image is a variable that distinguishes the image from other images, such as the hue, saturation, brightness, luminance, or histogram of these images. Further, a variable indicating the shape feature of the image may be used as the feature amount. Further, the feature amount used for object tracking is not limited to one. A plurality of feature amounts may be used in combination.
本発明の物体追跡方法の第2の構成は、前記第1の構成に加えて、前記対応位置決定ステップは、釣鐘状をなす前記類似性尺度の分布形状の高台部と裾野部を分ける閾値を算出する閾値算出ステップを有し、前記領域抽出ステップは、前記閾値によって前記一のフレームに属する部分画像を前記追跡対象画像に類似する部分画像とそれ以外の部分画像に分別することを特徴とする。 According to a second configuration of the object tracking method of the present invention, in addition to the first configuration, the corresponding position determining step sets a threshold value for separating a hill portion and a skirt portion of the distribution shape of the similarity scale having a bell shape. A threshold calculating step for calculating, wherein the region extracting step classifies the partial image belonging to the one frame into a partial image similar to the tracking target image and another partial image based on the threshold. .
この構成によれば、類似性尺度の分布形状に基づいて、フレームを追跡対象画像に類似する領域と背景領域に分別するので、ノイズに対してロバストな追跡が可能になる。なお、閾値の算出には、大津の2値化基準、Kittlerの基準に依る方法、あるいは類似性尺度の最大値と最小値の加重平均を閾値にする方法などを選択することができる。 According to this configuration, since the frame is classified into the region similar to the tracking target image and the background region based on the distribution shape of the similarity measure, it is possible to perform tracking robust against noise. For calculating the threshold value, a method based on the binarization criterion of Otsu, the criterion of Kittler, or a method in which the weighted average of the maximum value and the minimum value of the similarity measure is used as the threshold value can be selected.
ここで類似性尺度の分布形状の高台部とは、類似性の高い部分のことをいい、裾野部とは高台部の外側を取り巻く類似性の低い部分のことをいう。類似性尺度としてヒストグラムインターセクションのような数値の大きさが類似性の高さを示す尺度を用いる場合は、高台部の類似性尺度の値は大きな値になる。一方、距離を類似性尺度に使う場合は、距離の大きさは類似性の低さを示すから、高台部の類似性尺度の値は小さな値になる。 Here, the high part of the distribution shape of the similarity scale means a part with high similarity, and the skirt part means a part with low similarity surrounding the outside of the high part. When a measure such as a histogram intersection indicating a high degree of similarity is used as the similarity measure, the value of the similarity measure at the height is large. On the other hand, when the distance is used for the similarity scale, the magnitude of the distance indicates low similarity, so that the value of the similarity scale for the hills is small.
本発明の物体追跡方法の第3の構成は、前記第1の構成に加えて、前記領域抽出ステップは、類似性尺度が最大になる部分画像から類似性尺度がk(kは2以上の自然数)番目に大きい部分画像までのk個の部分画像を前記類似領域として抽出することを特徴とする。 According to a third configuration of the object tracking method of the present invention, in addition to the first configuration, the region extraction step is configured such that the similarity measure is k (k is a natural number of 2 or more) from a partial image having the maximum similarity measure. ) The k partial images up to the largest partial image are extracted as the similar regions.
この構成によれば、類似性尺度の大小比較だけで部分画像を抽出するので、計算が簡易、容易であり、高速処理が可能になる。 According to this configuration, since the partial image is extracted only by comparing the similarity scales, the calculation is simple and easy, and high-speed processing is possible.
本発明の物体追跡方法の第4の構成は、前記第1乃至第3のいずれかの構成において、前記特徴量は色ヒストグラムであることを特徴とする。 According to a fourth configuration of the object tracking method of the present invention, in any one of the first to third configurations, the feature amount is a color histogram.
この構成によれば、色ヒストグラムを特徴量とするので、対象物体の回転、移動、変形に対してロバストになる。 According to this configuration, since the color histogram is used as the feature amount, it is robust against the rotation, movement, and deformation of the target object.
本発明の物体追跡方法の第5の構成は、前記第4の構成において、前記色ヒストグラムは、前記画像の色空間を次式で定義されるrg色空間に変換する色空間変換により色空間変換された色相成分を用いて作成された2次元ヒストグラムであることを特徴とする。 According to a fifth configuration of the object tracking method of the present invention, in the fourth configuration, the color histogram is color space converted by color space conversion for converting the color space of the image into an rg color space defined by the following equation. It is a two-dimensional histogram created by using the hue component thus made.
rg色空間は人間の肌色を的確に表現するので、この構成による物体追跡方法は、人物の顔面等の追跡に効果がある。 Since the rg color space accurately represents human skin color, the object tracking method according to this configuration is effective for tracking a human face and the like.
本発明の物体追跡方法の第6の構成は、前記第1乃至第5のいずれかの構成において、前記類似性尺度は、ヒストグラムインターセクションであることを特徴とする。 According to a sixth configuration of the object tracking method of the present invention, in any one of the first to fifth configurations, the similarity measure is a histogram intersection.
ヒストグラムインターセクションは他の類似性尺度に較べて、単純な演算で算出できるので、この構成によれば、高速処理が可能になる。 Since the histogram intersection can be calculated by a simple operation compared to other similarity measures, this configuration enables high-speed processing.
本発明の物体追跡方法の第7の構成は、前記第1乃至第5のいずれかの構成において、前記類似性尺度は、距離であることを特徴とする。 According to a seventh configuration of the object tracking method of the present invention, in any one of the first to fifth configurations, the similarity measure is a distance.
ここで、距離とは、ユークリッド距離、マハラノビス距離、マンハッタン距離、類似度
などベクトル間の類似性の尺度である。この構成は、特徴量が多変数の組み合わせで表せる場合、つまり、特徴量をベクトルとして取り扱える場合に、部分画像の類似性を的確に評価できるので、物体追跡の精度と安定性が向上する。
Here, the distance is a measure of similarity between vectors such as Euclidean distance, Mahalanobis distance, Manhattan distance, and similarity. In this configuration, when the feature amount can be expressed by a combination of multiple variables, that is, when the feature amount can be handled as a vector, the similarity of the partial images can be accurately evaluated, so that the accuracy and stability of object tracking are improved.
本発明の物体追跡装置の第1の構成は、動画像の一のフレームにおいて追跡対象物体の一部領域又は全領域の画像(以下、「追跡対象画像」という。)に対応する部分画像の位置座標を決定する操作を前記動画像の各フレームに対して順次繰り返すことにより、前記追跡対象物体の追跡を行う物体追跡装置において、前記一のフレームに属する複数の位置の部分画像に対して、当該部分画像の特徴量と前記追跡対象画像の特徴量との間の類似性尺度を算出する類似性尺度算出手段と、前記一のフレームにおける類似性尺度の分布に基づいて、前記一のフレーム内における前記追跡対象画像に類似する部分画像が存在する領域(以下、「類似領域」という。)を抽出する領域抽出手段と、前記類似領域の重心座標を算出して、前記重心座標を当該フレームにおける前記対象物体の位置座標に決定する位置算出手段とを備えることを特徴とする。 The first configuration of the object tracking apparatus of the present invention is the position of a partial image corresponding to an image of a partial area or the entire area of a tracking target object (hereinafter referred to as “tracking target image”) in one frame of a moving image. In the object tracking device that tracks the tracking target object by sequentially repeating the operation for determining the coordinates for each frame of the moving image, the partial image at a plurality of positions belonging to the one frame A similarity measure calculating means for calculating a similarity measure between the feature amount of the partial image and the feature amount of the tracked image; and based on the distribution of the similarity measure in the one frame, A region extracting unit that extracts a region where a partial image similar to the tracking target image exists (hereinafter referred to as a “similar region”), and a centroid coordinate of the similar region are calculated, and the centroid coordinate is determined. Characterized in that it comprises a position calculating means for determining the position coordinates of the target object in the frame.
本発明の物体追跡装置の第2の構成は、前記第1の構成に加えて、釣鐘状をなす前記類似性尺度の分布形状の高台部と裾野部を分ける閾値を算出する閾値算出手段を有するとともに、前記領域抽出手段は、前記閾値によって前記一のフレームに属する部分画像を前記追跡対象画像に類似する部分画像とそれ以外の部分画像に分別することを特徴とする。 In addition to the first configuration, the second configuration of the object tracking device of the present invention includes threshold calculation means for calculating a threshold for dividing the height portion and the skirt portion of the distribution shape of the similarity scale having a bell shape. At the same time, the region extracting means classifies the partial image belonging to the one frame into a partial image similar to the tracking target image and another partial image according to the threshold value.
本発明の物体追跡装置の第3の構成は、前記領域抽出手段は、類似性尺度が最大になる部分画像から類似性尺度がk(kは2以上の自然数)番目に大きい部分画像までのk個の部分画像を前記類似領域として抽出することを特徴とする。 According to a third configuration of the object tracking apparatus of the present invention, the region extraction unit is configured to perform k from a partial image having a maximum similarity measure to a partial image having a similarity measure of k (k is a natural number of 2 or more). The partial images are extracted as the similar regions.
本発明の物体追跡装置の第4の構成は、前記第1乃至第3のいずれかの構成に加えて、前記特徴量は色ヒストグラムであることを特徴とする。 According to a fourth configuration of the object tracking apparatus of the present invention, in addition to any of the first to third configurations, the feature amount is a color histogram.
本発明の物体追跡装置の第5の構成は、前記第4の構成において、前記色ヒストグラムは、前記画像の色空間を次式で定義されるrg色空間に変換する色空間変換により色空間変換された色相成分を用いて作成された2次元ヒストグラムであることを特徴とする。 According to a fifth configuration of the object tracking apparatus of the present invention, in the fourth configuration, the color histogram is color space converted by color space conversion that converts the color space of the image into an rg color space defined by the following equation. It is a two-dimensional histogram created by using the hue component thus made.
本発明の物体追跡装置の第6の構成は、前記第1乃至第5のいずれかの構成において、前記類似性尺度は、ヒストグラムインターセクションであることを特徴とする。 According to a sixth configuration of the object tracking apparatus of the present invention, in any one of the first to fifth configurations, the similarity measure is a histogram intersection.
本発明の物体追跡装置の第7の構成は、前記第1乃至第5のいずれかの構成において、前記類似性尺度は、距離であることを特徴とする。 According to a seventh configuration of the object tracking apparatus of the present invention, in any one of the first to fifth configurations, the similarity measure is a distance.
本発明のプログラムの構成は、前記第1乃至第7のいずれかの構成の物体追跡方法をコンピュータに実行させることを特徴とする。 The configuration of the program of the present invention is characterized by causing a computer to execute the object tracking method of any one of the first to seventh configurations.
以上説明したように、本発明の物体追跡方法、物体追跡装置は、追跡対象物体の移動、回転、変形に加えて、照明の条件など撮像環境の変化に対してもロバストであり、例えば、移動ロボットの視覚センサーの能力の向上などに資するところが大きい。 As described above, the object tracking method and the object tracking device of the present invention are robust against changes in the imaging environment such as illumination conditions in addition to the movement, rotation, and deformation of the tracking target object. There is a great contribution to improving the capabilities of robot vision sensors.
以下、本発明を実施するための最良の形態について、図面を参照しながら説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、追跡開始時刻のフレームに設定された追跡対象領域を示す図であり、人物の顔面を追跡対象とする例を示している。図に示すように、作業者はフレーム上の追跡対象の人物の顔面が映っている部分に、追跡対象領域W(x)をマニュアル設定する。追跡対象領域W(x)は、画像平面上の座標x=(x,y)に中心を置く大きさa×bの矩形の窓領域であり、座標x=(x,y)を領域W(x)の位置ということにする。 FIG. 1 is a diagram showing a tracking target area set in the frame of the tracking start time, and shows an example in which a human face is a tracking target. As shown in the figure, the worker manually sets the tracking target area W (x) in the portion where the face of the tracking target person on the frame is shown. The tracking target area W (x) is a rectangular window area having a size of a × b centered on coordinates x = (x, y) on the image plane, and coordinates x = (x, y) are set to the area W ( The position x).
追跡対象領域W(x)の設定の後、適当な追跡半径Dを選んで入力する。追跡半径Dは、次時刻のフレームにおいて追跡対象物体を追跡する範囲を制限するパラメータであり、追跡対象領域W(x)を中心とする半径Dの追跡範囲R(x)で追跡対象物体の追跡が行われる。 After setting the tracking target area W (x), an appropriate tracking radius D is selected and input. The tracking radius D is a parameter that limits the range in which the tracking target object is tracked in the frame at the next time, and the tracking target object is tracked within the tracking range R (x) of the radius D centered on the tracking target region W (x). Is done.
追跡半径Dは、予想される追跡対象物体の移動速度、撮像手段の移動速度および撮像手段のサンプリングレート(撮像フレーム数/時間)に基づいて、必要十分な値を設定する。追跡対象物体の移動速度等が大きくて、追跡範囲を制限出来ない場合は、追跡半径Dをフレームの対角線の長さより大きな長さに設定すれば、フレームの全範囲を追跡対象にする事ができる。 The tracking radius D is set to a necessary and sufficient value based on the predicted moving speed of the tracking target object, the moving speed of the imaging means, and the sampling rate (number of imaging frames / time) of the imaging means. If the tracking range cannot be limited due to the moving speed of the tracking target object, etc., the entire range of the frame can be set as the tracking target by setting the tracking radius D to a length larger than the diagonal length of the frame. .
また、領域W(x)の全てが物体領域の内部にあるとき、領域W(x)の位置、すなわち座標x=(x,y)を追跡対象物体の位置といい、追跡時に検出した追跡対象物体の位置がこの条件を満たせば、追跡に成功したとする。 Further, when all of the region W (x) is inside the object region, the position of the region W (x), that is, the coordinate x = (x, y) is called the position of the tracking target object, and the tracking target detected at the time of tracking If the position of the object satisfies this condition, it is assumed that tracking is successful.
特徴量は領域W(x)と他の領域と区別するパラメータであり、領域W(x)に含まれる画像の形状、面積、色、明るさ等を表示するパラメータである。本実施例では、特徴量として色ヒストグラムを用いる。 The feature amount is a parameter that distinguishes the region W (x) from other regions, and is a parameter that displays the shape, area, color, brightness, and the like of an image included in the region W (x). In this embodiment, a color histogram is used as the feature amount.
色ヒストグラムとは、画像のある領域に出現する各色成分の頻度分布のことであり、前記領域に属する画素を色成分に分けたときの各色成分の画素数で表現される。色ヒストグラムは撮像手段の動きや追跡対象物の運動に対する変動が他の特徴に比べて小さいので、動画像の中から追跡対象物を捜しだすのに都合が良い。 The color histogram is a frequency distribution of each color component appearing in a certain area of the image, and is expressed by the number of pixels of each color component when the pixels belonging to the area are divided into color components. Since the color histogram has a smaller variation with respect to the movement of the imaging means and the movement of the tracking object than other characteristics, it is convenient for searching for the tracking object from the moving image.
さて、特定の色を表現する空間を色空間といい、色空間が定義されると、色はその色空間上の位置を示す座標で表現される。色空間には、赤(R)、緑(G)、青(B)の3色の階調で色を表現するRGB空間、シアン(C)、マゼンタ(M)、黄色(Y)、黒(K)の4色の階調により表現するCYMK空間、輝度(Y)と赤の色差(U)、青の色差(V)により表現するYUV空間など各種のものがある。物体追跡においては、画像を追跡対象の物体が映っている領域と背景領域に分けるのに適した色空間を選ぶ必要がある。 A space that expresses a specific color is called a color space. When a color space is defined, the color is expressed by coordinates indicating a position in the color space. The color space includes an RGB space that expresses colors with three gradations of red (R), green (G), and blue (B), cyan (C), magenta (M), yellow (Y), black ( There are various types such as a CYMK space expressed by four gradations of K), a YUV space expressed by luminance (Y) and red color difference (U), and blue color difference (V). In object tracking, it is necessary to select a color space suitable for dividing an image into an area in which an object to be tracked is shown and a background area.
物体追跡に用いる色ヒストグラムは、(1)照明の変化に対する変動が少ないこと。(2)作成コストが低いことが要求される。ここで作成コストを低くするという事は単なる費用の問題だけではなく、作成のための演算時間を小さくして、高速処理、実時間処理を可能にすることを意味する。このような要求に答えるために、本実施例では、領域W(x)の色空間を下記の式(1)および式(2)で定義される示されるrg色空間に変換する色空間変換により色空間変換された色相成分を用いて作成された2次元色ヒストグラムを用いる。なお、R,G,Bは、赤、緑、青の各原色成分の輝度である。 The color histogram used for object tracking has (1) little variation with respect to illumination changes. (2) The production cost is required to be low. Here, lowering the creation cost is not only a matter of cost, but also means reducing the computation time for creation and enabling high-speed processing and real-time processing. In order to meet such a requirement, in this embodiment, the color space of the region W (x) is converted to the rg color space defined by the following equations (1) and (2). A two-dimensional color histogram created using the color space-converted hue component is used. R, G, and B are the luminances of the primary color components of red, green, and blue.
図2は、無彩色および無彩色に近い色を除外した色ヒストグラムを示す図であり、図で白抜きの円で示した部分にある画素が除外されたことを示している。このようにして無彩色および無彩色に近い色を除外したrg色空間を適切な色深度で均等量子化した色空間を利用して色ヒストグラムを作成する。本実施例では、下記の式(5)および式(6)のような正規化された色ヒストグラムH(r,g)を使用する。 FIG. 2 is a diagram showing a color histogram in which achromatic colors and colors close to achromatic colors are excluded, and shows that pixels in the portions indicated by white circles in the figure are excluded. In this way, a color histogram is created using a color space obtained by uniformly quantizing an rg color space excluding achromatic colors and colors close to an achromatic color with an appropriate color depth. In the present embodiment, a normalized color histogram H (r, g) such as the following formulas (5) and (6) is used.
追跡対象領域W(x)の色ヒストグラムに最も近い色ヒストグラムを持つ領域を、次時刻のフレームから捜し出すための類似性を評価する尺度として、本実施例では、下記の式(7)で定義されるヒストグラムインターセクションScを用いた。このヒストグラムインターセクションScは、2つの色ヒストグラムH1(r,g)およびH2(r,g)の重複部分に存在する画素数を類似性の尺度とするものであり、他の尺度に比べて、計算が容易なので、高速処理に向いている。 In this embodiment, the scale is defined by the following equation (7) as a measure for evaluating similarity for searching a region having a color histogram closest to the color histogram of the tracking target region W (x) from the frame at the next time. Histogram intersection Sc was used. In this histogram intersection Sc, the number of pixels existing in the overlapping portion of the two color histograms H 1 (r, g) and H 2 (r, g) is used as a measure of similarity, compared to other measures. Because calculation is easy, it is suitable for high-speed processing.
なお、色ヒストグラムH1(r,g)およびH2(r,g)は正規化されているので、ヒストグラムインターセクションScの値は0から1の範囲をとり、2つのヒストグラムが等しいときには1になる。 Since the color histograms H 1 (r, g) and H 2 (r, g) are normalized, the value of the histogram intersection Sc ranges from 0 to 1 and is set to 1 when the two histograms are equal. Become.
また、ヒストグラムインターセクションScに代えて、色ヒストグラムH1(r,g)、H2(r,g)をベクトルとして取り扱って、両者の距離(ユークリッド距離、マハラノビス距離、マンハッタン距離、類似度など)を求めて、これらの距離を両者の類似性の尺度としてもよい。 Further, instead of the histogram intersection Sc, the color histograms H 1 (r, g) and H 2 (r, g) are treated as vectors, and the distances between them (Euclidean distance, Mahalanobis distance, Manhattan distance, similarity, etc.) And these distances may be used as a measure of the similarity between the two.
〔類似性尺度分布法〕
図3は本実施例に係る画像追跡装置の概念的な構成図であり、図4は画像追跡方法を示すフローチャートである。図3において、1は画像追跡装置であり、画像追跡装置1は、類似性尺度分布算出手段2、領域抽出手段3、位置算出手段4および閾値算出手段5を備え、撮像手段6あるいは記録再生手段7から入力される動画像における追跡対象物の位置を推定して、出力手段8に出力する装置である。
[Similarity scale distribution method]
FIG. 3 is a conceptual block diagram of the image tracking apparatus according to the present embodiment, and FIG. 4 is a flowchart showing the image tracking method. In FIG. 3,
なお、類似性尺度分布算出手段2は図示しないディスプレイ装置と入力装置(キーボードおよびマウス等)を備えて追跡中の画像を表示するとともに、作業者によるマニュアル入力ができる。撮像手段6は例えばビデオカメラのような、動画像を撮像して電気信号の形で出力する手段である。撮像手段6が出力する電気信号はVTR装置やDVD装置のような記録再生手段7に一旦記録されて、その後、再生されて画像追跡装置1に入力されるが、撮像手段6から直接、画像追跡装置1に入力してもよい。出力手段8は、例えば、画像追跡装置1で算出した追跡対象物の位置を示すマークを動画像に重ね合わせて表示するディスプレイ装置であるが、ディスプレイ装置に代えて、VTR装置、DVD装置あるいはデータレコーダ等に出力してもよい。
The similarity scale distribution calculating means 2 includes a display device and an input device (such as a keyboard and a mouse) (not shown), displays an image being tracked, and allows manual input by an operator. The imaging unit 6 is a unit that captures a moving image and outputs it in the form of an electrical signal, such as a video camera. The electrical signal output from the imaging means 6 is temporarily recorded in a recording / reproducing means 7 such as a VTR device or a DVD device, and then reproduced and input to the
なお、画像追跡装置1は、コンピュータと、以下に詳述する画像追跡方法のプログラムを記載した当該コンピュータで読み取り可能な媒体の組み合わせによって実現できる。また、一般的な画像解析方法、つまり、動画の特定のフレームの特定の領域に存在する画素の情報を読み込んで、統計処理する技術等は、既に公知であるので説明を省略する。
The
次に、図4に付したステップ番号を引用しながら、画像追跡方法の詳細を説明する。 Next, details of the image tracking method will be described with reference to the step numbers given in FIG.
〔S1〕
まず、動画の最初(時刻t=0)のフレームを、記録再生手段7から類似性尺度分布算出手段2に読み出す。
[S1]
First, the first frame (time t = 0) of the moving image is read from the recording / reproducing means 7 to the similarity scale distribution calculating means 2.
〔S2〕
作業者は、類似性尺度分布算出手段2が図示しないディスプレイ装置に表示する前記最初(時刻t=0)のフレームを見ながら、追跡対象の人物の顔面の適当な位置に追跡対象領域W(x0)を設定し、次いで追跡半径Dを入力して、追跡範囲R(x0)を設定する。
[S2]
The operator observes the first (time t = 0) frame displayed on the display device (not shown) by the similarity scale distribution calculating means 2 while viewing the tracking target region W (x 0 ) and then the tracking radius D is entered to set the tracking range R (x 0 ).
〔S3〕
追跡対象領域W(x0)が決定されると、類似性尺度分布算出手段2は追跡対象領域W(x0)に存在する画素の色情報を読み出して、追跡対象領域W(x0)の色ヒストグラムH0(x0)を算出する。
[S3]
When the tracking target area W (x 0) is determined, the similarity measure distribution calculating means 2 reads the color information of the pixels existing in the tracking target area W (x 0), the tracking target area W of the (x 0) A color histogram H 0 (x 0 ) is calculated.
〔S4〕
記録再生手段7に、次時刻のフレームが無ければ、処理を終了し、次時刻の画像があれば、S5に進む。
[S4]
If the recording / reproducing means 7 does not have a frame at the next time, the process is terminated.
〔S5〕
記録再生手段7から、次時刻(t=1)のフレームを類似性尺度分布算出手段2に読み出す。
[S5]
The frame at the next time (t = 1) is read from the recording / reproducing means 7 to the similarity scale distribution calculating means 2.
〔S6〕
類似性尺度分布算出手段2は、次時刻(t=1)のフレームを、座標xを中心とする大きさa×bの矩形の窓領域W(x)に分割して、各窓領域W(x)の色ヒストグラムH1(x)を算出し、各窓領域W(x)の色ヒストグラムH1(x)と追跡対象領域W(x0)の色ヒストグラムH0(x0)の間のヒストグラムインターセクションSc(H1(x),H0(x0))を算出して、次時刻(t=1)のフレーム上のヒストグラムインターセクションSc(H1(x),H0(x0))の分布を得る。
[S6]
The similarity scale distribution calculation means 2 divides the frame at the next time (t = 1) into rectangular window areas W (x) having a size a × b with the coordinate x as the center, and each window area W ( calculating a color histogram H 1 (x) of x), between the
図5はヒストグラムインターセクションの分布の例を示す図である。図5に示すように、ヒストグラムインターセクションSc(H1(x),H0(x0))の分布の概略形状は、釣鐘状をなし、照明などの環境変化によっては、変化しない。 FIG. 5 is a diagram showing an example of distribution of histogram intersections. As shown in FIG. 5, the schematic shape of the distribution of the histogram intersection Sc (H 1 (x), H 0 (x 0 )) has a bell shape and does not change depending on environmental changes such as lighting.
〔S7〕
次に、類似性尺度分布算出手段2は、下記の式(8)および(9)で定義されるような、追跡範囲R(x0)に存在する窓領域W(x)のヒストグラムインターセクションS1(x|x0)の集合Vを求め、閾値算出手段5に送信する。
[S7]
Next, the similarity scale distribution calculating means 2 performs the histogram intersection S of the window region W (x) existing in the tracking range R (x 0 ) as defined by the following equations (8) and (9). A set V of 1 (x | x 0 ) is obtained and transmitted to the threshold value calculation means 5.
閾値算出手段5は、集合Vを、対象物体クラスVobjと背景クラスVbgに分ける閾値T1を算出する。Vobjは釣鐘状をなすヒストグラムインターセクションSc(H1(x),H0(x0))の分布形状の高台部に相当し、Vbgは裾野部に相当する。また、T1は前記高台部と前記裾野部の境界を画する高さに相当する。T1の算出には、物体クラスVobjと背景クラスVbgのクラス内分散とクラス間分散の比が最小にする基準(大津の基準)に従って閾値T1を決定する方法、それぞれのクラスを正規分布で近似したときの誤識別率を最小にする基準(Kittlerの基準)に従って閾値T1を決定する方法などを用いる。なお、大津の基準およびKittlerの基準については、下記の文献に詳述されているので、ここでは説明を省略する。 The threshold calculation means 5 calculates a threshold T 1 that divides the set V into a target object class Vobj and a background class Vbg. Vobj corresponds to the high part of the distribution shape of the histogram intersection Sc (H 1 (x), H 0 (x 0 )) having a bell shape, and Vbg corresponds to the base part. T 1 corresponds to a height that demarcates the boundary between the hill and the base. T 1 is calculated by determining the threshold T 1 according to a standard (Otsu's standard) that minimizes the ratio between the intra-class variance and the inter-class variance of the object class Vobj and the background class Vbg. or a method of determining the thresholds T 1 according to the criteria of the misidentification rate when approximated to a minimum (reference for Kittler) used. The Otsu's standard and Kittler's standard are described in detail in the following documents, and will not be described here.
大津、”判別および最小2乗基準に基づく自動しきい値選定法”電気通信学会論文誌、Vol.J63-D,No.4,pp.41-47,1980 Otsu, "Automatic threshold selection method based on discriminant and least-squares criteria" IEICE Transactions, Vol. J63-D, No. 4, pp. 41-47, 1980
J.Kittler and J.Illingworth,"Minimum Error Thresholding," Pattern Recognition,Vol.19,No.1,pp41-47,1986 J. Kittler and J. Illingworth, "Minimum Error Thresholding," Pattern Recognition, Vol. 19, No. 1, pp 41-47, 1986
また、集合Vの最大値S_maxと最小値S_minを求め、下記の式(10)に依って算出した両者の加重平均を閾値T1にしてもよい。この場合、αは概ね0.5程度の値を用いる。この方法は、前述の大津の基準、Kittlerの基準に基づく方法に比べて計算速度が圧倒的に速いという利点がある。 Further, the maximum value S _max and minimum value S _min set V, may be a weighted average of the two calculated depending on the following equation (10) to the threshold T 1. In this case, α is approximately 0.5. This method has an advantage that the calculation speed is overwhelmingly faster than the method based on the Otsu standard and the Kittler standard.
以上のいずれかの方法で決定された閾値T1は領域抽出手段3に送信され、領域抽出手段3は、図6および下記の式(11)に示す集合U1、すなわち、追跡範囲R(x0)に存在する窓領域W(x)であって、ヒストグラムインターセクションS1(x|x0)が閾値T1以上になるような窓領域W(x)の中心の座標の集合を求めて、位置算出手段4に送信する。 The threshold value T 1 determined by any one of the above methods is transmitted to the region extracting unit 3, and the region extracting unit 3 sets the set U 1 shown in FIG. 6 and the following equation (11), that is, the tracking range R (x 0 ), and a set of coordinates of the center of the window region W (x) such that the histogram intersection S 1 (x | x 0 ) is equal to or greater than the threshold T 1 is obtained. To the position calculation means 4.
〔S8〕
位置算出手段4は、下記の式(12)に示すように集合U1に含まれる座標の相加平均x1を算出し、これを時刻t=1における、対象物体の位置として、出力手段8に出力するとともに、類似性尺度分布算出手段2に送信する。
[S8]
The position calculation means 4 calculates an arithmetic mean x 1 of coordinates included in the set U 1 as shown in the following equation (12), and uses this as the position of the target object at time t = 1, and the output means 8 And transmitted to the similarity scale distribution calculating means 2.
言うまでもなく、x1はヒストグラムインターセクションSc(x/x0)が閾値T1以上になるような領域の中心、すなわち重心の座標である。このようにして、追跡対象領域W(x0)に対する類似性尺度が所定の水準を超える領域の重心の座標が追跡対象物体の位置座標に決定される。 Needless to say, x 1 is the histogram intersection Sc (x / x 0) is the center of the region such that the threshold value above T 1, that is, the center of gravity coordinates. In this way, the coordinates of the center of gravity of the area where the similarity measure for the tracking target area W (x 0 ) exceeds a predetermined level is determined as the position coordinates of the tracking target object.
〔S9〕
類似性尺度分布算出手段2は、x1を中心とする追跡対象領域W(x1)を次時刻(t=1)のフレームに設定し、追跡対象領域W(x1)の色ヒストグラムH1(x1)を算出し、次次時刻(t=2)のフレームの入力に備える。
[S9]
The similarity scale distribution calculating means 2 sets the tracking target area W (x 1 ) centered on x 1 to the frame at the next time (t = 1), and the color histogram H 1 of the tracking target area W (x 1 ). (X 1 ) is calculated and prepared for the input of the frame at the next time (t = 2).
以上のように、S4からS9までのステップを、繰り返して、各時刻(t=3,4‥‥)のフレームにおける対象物体の位置を決定する。S4からS9までのステップを総称して、対応位置決定ステップという。 As described above, the steps from S4 to S9 are repeated to determine the position of the target object in the frame at each time (t = 3, 4,...). The steps from S4 to S9 are collectively referred to as a corresponding position determination step.
なお、以上説明した物体追跡方法を本明細書では、「類似性尺度分布法」と呼ぶことにする。 The object tracking method described above is referred to as “similarity scale distribution method” in this specification.
〔k−最大類似性尺度法〕
類似性尺度分布法は、画像を類似領域とそれ以外の領域に分けるための閾値T1を、ヒストグラムインターセクションS1(x|x0)の分布形状から算出したが、この閾値T1の算出には時間がかかるので、処理時間の高速化を優先する場合は、ステップS7において、ヒストグラムインターセクションS1(x|x0)の大きい領域を抽出するのに、追跡範囲R(x0)に存在する窓領域W(x)を、ヒストグラムインターセクションS1(x|x0)が大きい方からk個(kは2以上の自然数)の窓領域W(x)を抽出して、ステップS8で、このk個の窓領域W(x)の重心を追跡対象物体の位置にしてもよい。この方法を、本明細書では、「k−最大類似性尺度法」と呼ぶことにする。
[K-maximum similarity measure]
The similarity measure distribution method, the thresholds T 1 for dividing an image similar area and other areas, histogram intersection S 1 | was calculated from the distribution shape of the (x x 0), calculation of the thresholds T 1 Therefore, if priority is given to speeding up the processing time, the tracking range R (x 0 ) is extracted in step S 7 in order to extract a region having a large histogram intersection S 1 (x | x 0 ). The existing window region W (x) is extracted k (k is a natural number of 2 or more) window regions W (x) from the larger histogram intersection S 1 (x | x 0 ). The center of gravity of the k window regions W (x) may be set as the position of the tracking target object. This method will be referred to herein as “k-maximum similarity measure”.
なお、k−最大類似性尺度法を実施するための物体追跡装置の基本的な構成は、前述の物体追跡装置1と同一である。ただし、閾値T1の算出を行わないので、閾値算出手段5は不要である。
Note that the basic configuration of the object tracking apparatus for performing the k-maximum similarity measure method is the same as that of the
〔性能比較〕
従来方法と本発明の方法の性能比較するために5種類の画像について、物体追跡を行った結果を以下に示す。
[Performance comparison]
In order to compare the performance of the conventional method and the method of the present invention, the results of object tracking for five types of images are shown below.
図7は、実験に使用した5種類の画像のサンプルである。 FIG. 7 is a sample of five types of images used in the experiment.
画像(a)および(b)は、固定カメラで撮像した画像であり、照明条件の変動もない。画像(a)の追跡対象は旋回台に置かれて旋回する人形であり、画像(b)は正面を向いた人物の顔面である。 Images (a) and (b) are images captured by a fixed camera, and there is no change in illumination conditions. The tracking target of the image (a) is a doll that is placed on a swivel and turns, and the image (b) is the face of a person facing the front.
画像(c)および(d)は、移動する人物の顔面を、移動カメラで撮像した画像であり、画像(c)は照明条件の変動が小さい例であり、画像(d)は照明条件の変動が大きい例である。 Images (c) and (d) are images obtained by capturing the face of a moving person with a moving camera, image (c) is an example in which the variation in illumination conditions is small, and image (d) is a variation in illumination conditions. Is a large example.
画像(e)は、固定カメラの前で旗を振る様子を撮像した画像であり、非剛体、つまり時間とともに形状が変化する物体を追跡する例である。 The image (e) is an image obtained by capturing a state of waving a flag in front of a fixed camera, and is an example of tracking a non-rigid body, that is, an object whose shape changes with time.
類似性尺度分布法については、式(10)の方法つまり、集合Vの最大値S_maxと最小値S_minの加重平均によって閾値T1を決定する方法を選んだ。ただしα=0.5とした。 The similarity measure distribution method, the method of equation (10) that is chose a method of determining the thresholds T 1 by a weighted average of the maximum value S _max and minimum value S _min set V. However, α = 0.5.
k−最大類似性尺度法については、k=10を用いた。 For the k-maximum similarity measure, k = 10 was used.
また、全ての動画像は、QVGA(320×240)解像度でコンピュータに入力し、追跡対象領域W(x)の幅と高さは20〜30ピクセルとした。 All moving images were input to a computer with QVGA (320 × 240) resolution, and the width and height of the tracking target area W (x) were 20 to 30 pixels.
以上の条件の下で、物体追跡を行った結果を表1に示す。なお、表中の数字の分母は同画像の全フレーム数であり、分子は対象物体の追跡に成功した最終フレームの番号である。つまり、最後まで追跡に成功した場合に分母と分子が等しくなり、途中で失敗すると分子は小さくなる。また、最後まで追跡に成功したものには*印を付している。 Table 1 shows the results of object tracking under the above conditions. Note that the denominator of the numbers in the table is the total number of frames of the image, and the numerator is the number of the last frame that has successfully tracked the target object. In other words, the denominator and the numerator are equal when tracking is successful until the end, and the numerator becomes smaller if it fails halfway. Those that have been successfully traced to the end are marked with *.
表1に示したように、従来方法は全ての画像について、ごく初期の段階で追跡に失敗しているが、類似性尺度分布法は全ての画像について最後まで追跡に成功している。また、k−最大類似性尺度法は、画像(b)および(c)については最後まで追跡に成功したものの、他の画像については途中で失敗している。 As shown in Table 1, the conventional method failed to track all the images at an extremely early stage, but the similarity scale distribution method succeeded to track all the images to the end. In addition, the k-maximum similarity measure has been successfully tracked to the end for the images (b) and (c), but has failed midway for the other images.
類似性尺度分布法は非常に高い性能を示し、k−最大類似性尺度法も類似性尺度分布法に較べて多少性能が劣るものの、従来方法に較べて高い性能を示していることが解る。 It can be seen that the similarity measure distribution method shows very high performance, and the k-maximum similarity measure method shows slightly higher performance than the conventional method, although it is somewhat inferior to the similarity measure distribution method.
なお、k−最大類似性尺度法は類似性尺度分布法に較べて多少性能が劣るので、適用対象の画像は照明等の変化の小さい安定した環境で撮像された画像に限定されるが、類似性尺度分布法に較べて処理時間が短いので、高速処理を要求される用途に適している。 Since the k-maximum similarity scale method is somewhat inferior to the similarity scale distribution method, the image to be applied is limited to an image captured in a stable environment with little change in lighting or the like. Since the processing time is shorter than that of the sex scale distribution method, it is suitable for applications requiring high-speed processing.
1 画像追跡装置
2 類似性尺度分布算出手段
3 領域抽出手段
4 位置算出手段
5 閾値算出手段
6 撮像手段
7 記録再生手段
8 出力手段
1 Image tracking device
2 Similarity scale distribution calculation means
3 area extraction means 4 position calculation means 5 threshold calculation means 6 imaging means 7 recording / reproducing
Claims (5)
前記対応位置決定ステップは、
前記一のフレームに属する複数の位置の部分画像に対して、当該部分画像の特徴量と前記追跡対象画像の特徴量との間の類似性尺度を算出する類似性尺度分布算出ステップと、
前記一のフレームにおける前記各部分画像について、前記類似性尺度が所定の閾値以上である部分画像を抽出し、又は前記類似性尺度が最大になる部分画像から類似性尺度がk(kは2以上の自然数)番目に大きい部分画像までのk個の部分画像を抽出することにより、前記一のフレーム内における前記追跡対象画像に類似する部分画像が存在する領域である類似領域を抽出する領域抽出ステップと、
前記類似領域内の前記各部分画像の座標の相加平均である重心座標を算出して、前記重心座標を当該フレームにおける前記対象物体の位置座標に決定する位置算出ステップと、を有し、
前記特徴量は、画像のある領域内の各画素に出現する各色成分の頻度分布である色ヒストグラムであり、
前記対応位置決定ステップは、前記追跡対象画像の前記色ヒストグラムH 0 を算出するステップを有し、
前記類似性尺度算出ステップは、
前記一のフレームに属する複数の位置の部分画像に対して、当該部分画像の前記色ヒストグラムH 1 を算出するステップと、
当該部分画像の前記色ヒストグラムH 1 と前記追跡対象画像の前記色ヒストグラムH 0 との間の前記類似性尺度であるヒストグラムインターセクションを次式(1)により算出するステップと、を有し、
前記色ヒストグラムは、前記画像の色空間を次式(2)で定義されるrg色空間に変換する色空間変換により色空間変換された色相成分を用い、且つ次式(3)で定義される(r’,g’)が(1/3,1/3)から半径0.02以内にある画素を除外して作成される2次元ヒストグラムであることを特徴とする物体追跡方法。
The corresponding position determining step includes:
A similarity scale distribution calculating step for calculating a similarity scale between the feature amount of the partial image and the feature amount of the tracking target image for the partial images at a plurality of positions belonging to the one frame ;
For each partial image in the one frame , a partial image whose similarity measure is equal to or greater than a predetermined threshold is extracted, or a similarity measure is k (k is 2 or more) from a partial image having the maximum similarity measure A region extraction step of extracting a similar region which is a region where a partial image similar to the tracking target image exists in the one frame by extracting k partial images up to the largest partial image. When,
Calculating a barycentric coordinate that is an arithmetic mean of the coordinates of each partial image in the similar region , and determining the barycentric coordinate as a position coordinate of the target object in the frame , and
The feature amount is a color histogram which is a frequency distribution of each color component appearing in each pixel in a certain area of the image,
The corresponding position determining step includes a step of calculating the color histogram H 0 of the tracking target image ;
The similarity measure calculating step includes:
On the partial image of the plurality of positions belonging to the one frame, and calculating the color histogram H 1 of the partial images,
Calculating a histogram intersection that is the similarity measure between the color histogram H 1 of the partial image and the color histogram H 0 of the tracking target image according to the following equation (1):
The color histogram uses a hue component that has been color space converted by color space conversion for converting the color space of the image into an rg color space defined by the following equation (2), and is defined by the following equation (3): An object tracking method, wherein (r ′, g ′) is a two-dimensional histogram created by excluding pixels having a radius within 0.02 from (1/3, 1/3) .
前記領域抽出ステップにおいては、前記閾値によって前記一のフレームに属する部分画像を前記追跡対象画像に類似する部分画像とそれ以外の部分画像に分別することを特徴とする請求項1に記載の物体追跡方法。 The corresponding position determining step includes a threshold value calculating step for calculating a threshold value for separating a hill part and a hill part of the distribution shape of the similarity scale having a bell shape,
2. The object tracking according to claim 1, wherein in the region extraction step , the partial image belonging to the one frame is classified into a partial image similar to the tracking target image and another partial image based on the threshold value. Method.
前記一のフレームに属する複数の位置の部分画像に対して、当該部分画像の特徴量と前記追跡対象画像の特徴量との間の類似性尺度を算出する類似性尺度分布算出手段と、
前記一のフレームにおける前記各部分画像について、前記類似性尺度が所定の閾値以上である部分画像を抽出し、又は前記類似性尺度が最大になる部分画像から類似性尺度がk(kは2以上の自然数)番目に大きい部分画像までのk個の部分画像を抽出することにより、前記一のフレーム内における前記追跡対象画像に類似する部分画像が存在する領域である類似領域を抽出する領域抽出手段と、
前記類似領域内の前記各部分画像の座標の相加平均である重心座標を算出して、前記重心座標を当該フレームにおける前記対象物体の位置座標に決定する位置算出手段と、を備え、
前記特徴量は、画像のある領域内の各画素に出現する各色成分の頻度分布である色ヒストグラムであり、
前記類似性尺度分布算出手段は、
前記追跡対象画像の前記色ヒストグラムH 0 を算出する手段と、
前記一のフレームに属する複数の位置の部分画像に対して、当該部分画像の前記色ヒストグラムH 1 を算出する手段と、
当該部分画像の前記色ヒストグラムH 1 と前記追跡対象画像の前記色ヒストグラムH 0 との間の前記類似性尺度であるヒストグラムインターセクションを次式(1)により算出する手段と、を備え、
前記色ヒストグラムは、前記画像の色空間を次式(2)で定義されるrg色空間に変換する色空間変換により色空間変換された色相成分を用い、且つ次式(3)で定義される(r’,g’)が(1/3,1/3)から半径0.02以内にある画素を除外して作成される2次元ヒストグラムであることを特徴とする物体追跡装置。
Similarity scale distribution calculating means for calculating a similarity scale between the feature amount of the partial image and the feature amount of the tracking target image with respect to the partial images at a plurality of positions belonging to the one frame;
For each partial image in the one frame , a partial image whose similarity measure is equal to or greater than a predetermined threshold is extracted, or a similarity measure is k (k is 2 or more) from a partial image having the maximum similarity measure Region extracting means for extracting a similar region , which is a region where a partial image similar to the tracking target image exists in the one frame, by extracting k partial images up to the largest partial image. When,
Position calculation means for calculating a center-of-gravity coordinate that is an arithmetic average of the coordinates of each partial image in the similar region , and determining the center-of-gravity coordinate as a position coordinate of the target object in the frame ,
The feature amount is a color histogram which is a frequency distribution of each color component appearing in each pixel in a certain area of the image,
The similarity scale distribution calculating means includes:
Means for calculating the color histogram H 0 of the tracking target image ;
On the partial image of the plurality of positions belonging to the one frame, and means for calculating the color histogram H 1 of the partial images,
And means for calculating said by the following equation (1) the histogram intersection is the similarity measure between the color histogram H 0 of the color histogram H 1 and the tracking object image of the partial image,
The color histogram uses a hue component that has been color space converted by color space conversion for converting the color space of the image into an rg color space defined by the following equation (2), and is defined by the following equation (3): (r ', g') is (1 / 3,1 / 3) object tracking apparatus according to claim 2 dimensional histogram der Rukoto created by excluding pixels that are within a radius from 0.02.
前記領域抽出手段は、前記閾値によって前記一のフレームに属する部分画像を前記追跡対象画像に類似する部分画像とそれ以外の部分画像に分別することを特徴とする請求項3に記載の物体追跡装置。 Having a threshold value calculating means for calculating a threshold value that separates a hill part and a skirt part of the distribution shape of the similarity scale having a bell shape;
The object tracking device according to claim 3 , wherein the region extracting unit classifies the partial image belonging to the one frame into the partial image similar to the tracking target image and the other partial image based on the threshold value. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005041822A JP4625949B2 (en) | 2005-02-18 | 2005-02-18 | Object tracking method, object tracking apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005041822A JP4625949B2 (en) | 2005-02-18 | 2005-02-18 | Object tracking method, object tracking apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006227973A JP2006227973A (en) | 2006-08-31 |
JP4625949B2 true JP4625949B2 (en) | 2011-02-02 |
Family
ID=36989302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005041822A Expired - Lifetime JP4625949B2 (en) | 2005-02-18 | 2005-02-18 | Object tracking method, object tracking apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4625949B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8223835B2 (en) * | 2007-03-20 | 2012-07-17 | International Business Machines Corporation | Categorizing moving objects into familiar colors in video |
JP2009087238A (en) * | 2007-10-02 | 2009-04-23 | Fujitsu Ltd | Image tracking program, apparatus, and method |
US8004576B2 (en) * | 2008-10-31 | 2011-08-23 | Digimarc Corporation | Histogram methods and systems for object recognition |
JP5018932B2 (en) | 2010-06-23 | 2012-09-05 | 株式会社ニコン | Imaging device |
JP5772572B2 (en) * | 2011-12-26 | 2015-09-02 | 富士通株式会社 | Image processing apparatus, image processing method, and program |
JP6341650B2 (en) | 2013-11-20 | 2018-06-13 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP6841097B2 (en) * | 2017-03-09 | 2021-03-10 | 富士通株式会社 | Movement amount calculation program, movement amount calculation method, movement amount calculation device and business support system |
JP2020071525A (en) | 2018-10-29 | 2020-05-07 | 日本電信電話株式会社 | Subject tracking device, subject tracking method, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004012429A (en) * | 2002-06-11 | 2004-01-15 | Mitsubishi Heavy Ind Ltd | Self-position/attitude identification device and self-position/attitude identification method |
JP2004226339A (en) * | 2003-01-27 | 2004-08-12 | Fujitsu Ltd | Image tracking device and method |
JP2004264893A (en) * | 2003-01-31 | 2004-09-24 | Sony Corp | Image processor, method for processing image and photographing device |
JP2004348273A (en) * | 2003-05-20 | 2004-12-09 | Toshiba Corp | Image processing method, image processor, image processing program |
JP2004355601A (en) * | 2003-05-07 | 2004-12-16 | Mitsubishi Space Software Kk | Target chasing device, target chasing method, computer-readable recording medium with program recorded and program |
JP2004362210A (en) * | 2003-06-04 | 2004-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for tracing object and its program and recording medium with its program recorded thereon |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2567538B2 (en) * | 1992-01-17 | 1996-12-25 | 株式会社日本製鋼所 | Image signal separation method and apparatus |
-
2005
- 2005-02-18 JP JP2005041822A patent/JP4625949B2/en not_active Expired - Lifetime
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004012429A (en) * | 2002-06-11 | 2004-01-15 | Mitsubishi Heavy Ind Ltd | Self-position/attitude identification device and self-position/attitude identification method |
JP2004226339A (en) * | 2003-01-27 | 2004-08-12 | Fujitsu Ltd | Image tracking device and method |
JP2004264893A (en) * | 2003-01-31 | 2004-09-24 | Sony Corp | Image processor, method for processing image and photographing device |
JP2004355601A (en) * | 2003-05-07 | 2004-12-16 | Mitsubishi Space Software Kk | Target chasing device, target chasing method, computer-readable recording medium with program recorded and program |
JP2004348273A (en) * | 2003-05-20 | 2004-12-09 | Toshiba Corp | Image processing method, image processor, image processing program |
JP2004362210A (en) * | 2003-06-04 | 2004-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for tracing object and its program and recording medium with its program recorded thereon |
Also Published As
Publication number | Publication date |
---|---|
JP2006227973A (en) | 2006-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9495754B2 (en) | Person clothing feature extraction device, person search device, and processing method thereof | |
Chung et al. | Efficient shadow detection of color aerial images based on successive thresholding scheme | |
US10216979B2 (en) | Image processing apparatus, image processing method, and storage medium to detect parts of an object | |
US20160154469A1 (en) | Mid-air gesture input method and apparatus | |
CN104202547B (en) | Method, projection interactive approach and its system of target object are extracted in projected picture | |
CN103914708B (en) | Food kind detection method based on machine vision and system | |
TW201437925A (en) | Object identification device, method, and storage medium | |
US9064178B2 (en) | Edge detection apparatus, program and method for edge detection | |
EP2980755A1 (en) | Method for partitioning area, and inspection device | |
JP2000105829A (en) | Method and device for face parts image detection | |
KR20170133262A (en) | Object recognition apparatus, objection recognition method, and program | |
JP6331761B2 (en) | Determination device, determination method, and determination program | |
CN103852034B (en) | A kind of method for measuring perendicular | |
KR20220078231A (en) | Skin condition measuring apparatus, skin condition measring system and method thereof | |
US10229498B2 (en) | Image processing device, image processing method, and computer-readable recording medium | |
US10140555B2 (en) | Processing system, processing method, and recording medium | |
JP4625949B2 (en) | Object tracking method, object tracking apparatus, and program | |
JP5310485B2 (en) | Image processing method and apparatus, and program | |
KR20110021500A (en) | Real time tracking and distance measuring method of moving object and device | |
CN111222371A (en) | Sublingual vein feature extraction device and method | |
KR101334794B1 (en) | Flower recognition method and apparatus using feature extraction | |
KR101408344B1 (en) | Face detection device | |
KR101517538B1 (en) | Apparatus and method for detecting importance region using centroid weight mask map and storage medium recording program therefor | |
JP2010237976A (en) | Light source information acquisition device, shadow detection device, shadow removal device, method and program thereof | |
KR101357581B1 (en) | A Method of Detecting Human Skin Region Utilizing Depth Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100616 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101008 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |