JP5872395B2 - Region dividing device - Google Patents
Region dividing device Download PDFInfo
- Publication number
- JP5872395B2 JP5872395B2 JP2012147990A JP2012147990A JP5872395B2 JP 5872395 B2 JP5872395 B2 JP 5872395B2 JP 2012147990 A JP2012147990 A JP 2012147990A JP 2012147990 A JP2012147990 A JP 2012147990A JP 5872395 B2 JP5872395 B2 JP 5872395B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- area
- person
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、人物などの対象物を背景と共に撮像した画像を対象物領域と背景領域とに領域分割する領域分割装置に関する。 The present invention relates to an area dividing device that divides an image obtained by capturing an object such as a person together with a background into an object area and a background area.
防犯等の目的で、監視画像から抽出した人物領域の形状を基に人物の姿勢を推定して異常の発生を検知することが行われている。監視画像中の人物領域は比較的小さいため、背景画素の混入や人物画素の欠損といった人物領域の抽出誤差は後段の処理に影響しやすい。そのため、人物領域の抽出精度向上が望まれる。 For the purpose of crime prevention or the like, the occurrence of an abnormality is detected by estimating the posture of a person based on the shape of a person region extracted from a monitoring image. Since the person area in the monitoring image is relatively small, extraction errors in the person area such as background pixel contamination and person pixel loss tend to affect subsequent processing. Therefore, it is desired to improve the extraction accuracy of the person region.
人物領域などの対象物領域を高精度に抽出するための技術として、画像を対象物領域と背景領域とに分割することを画素間のリンクの切断でモデル化するグラフカット法が知られている。グラフカット法では、例えば、各画素をノードに見立てたグラフを作成して当該グラフを最小のエネルギーにて対象物領域のノード群と背景領域のノード群とに分割する切断を導出する。 As a technique for extracting a target area such as a person area with high accuracy, a graph cut method is known in which an image is divided into a target area and a background area by modeling by linking links between pixels. . In the graph cut method, for example, a graph in which each pixel is regarded as a node is created, and a cut that divides the graph into a node group of an object region and a node group of a background region with a minimum energy is derived.
非特許文献1の技術では、領域分割のエネルギーとして、各画素の輝度値の対象物または背景としての尤もらしさに基づく輝度値(以下、色特徴)のエネルギーを利用すると共に、各画素の位置の対象物または背景としての尤もらしさに基づく形状特徴のエネルギーを利用している。すなわち、画像上に対象物の形状モデルを配置して形状モデルから近い距離に位置する画素ほど対象物の画素として尤もらしく、形状モデルから遠い距離に位置する画素ほど背景としても尤もらしいとされる。これにより対象物と背景との色特徴が似ている部分で生じやすかった誤分割を形状特徴により補うことができ、領域分割の精度が向上する。
In the technique of Non-Patent
非特許文献1の技術では、すべての画素における色特徴のエネルギーと形状特徴のエネルギーとを加算して領域分割のエネルギーを算出していた。
In the technique of Non-Patent
しかしながら、従来技術では2種類の特徴量がすべての画素で用いられていたため、各特徴量が適さない部位で抽出精度が低下する問題があった。 However, in the prior art, since two types of feature values are used in all pixels, there is a problem that the extraction accuracy is lowered at a portion where each feature value is not suitable.
例えば、白いシャツを着た人物が棚及び白い壁の前を歩いているとき、シャツ付近では色の特徴量が抽出に適さずに抽出精度が低下し、脚部では形状の特徴量が抽出に適さずに抽出精度が低下する。 For example, when a person wearing a white shirt is walking in front of a shelf and a white wall, the color feature is not suitable for extraction near the shirt, and the extraction accuracy is reduced. Inadequate extraction accuracy decreases.
すなわちシャツ付近では、シャツと壁との境界以外にシャツの領域内でも壁の領域内でも色特徴のエネルギーが小さくなり得るため、シャツの一部が欠けた人物領域が抽出されたり、壁の領域を含んだ人物領域が抽出されたりしやすくなる。 In other words, in the vicinity of the shirt, the energy of the color feature can be reduced in both the shirt area and the wall area in addition to the boundary between the shirt and the wall. It is easy to extract a person area including.
一方、脚部付近では足のエッジに対しても棚のエッジに対しても形状特徴のエネルギーが小さくなり得るため、足の一部が欠けた人物領域が抽出されたり、棚の領域を含んだ人物領域が抽出されたりしやすくなる。 On the other hand, because the energy of the shape feature can be reduced near the leg edge and the edge of the shelf near the leg, a person area lacking a part of the foot is extracted or includes the area of the shelf It becomes easy to extract a person area.
このように人物と背景との間で色が似ている部分が発生したり、人物付近に背景のエッジが存在する状況で抽出精度の低下が生じるが、人物の色は様々であり、また人物の移動によって人物周囲の背景の色やエッジは変わるため、色特徴のエネルギー及び形状特徴のエネルギーの適切な寄与率の配置を予め設定することは困難である。 In this way, there are parts where the color is similar between the person and the background, or there is a background edge near the person, but the extraction accuracy decreases, but the color of the person varies, and the person Since the background color and edges around the person change due to the movement of, it is difficult to preset the arrangement of appropriate contribution ratios of the energy of the color features and the energy of the shape features.
本発明は、上記問題を鑑みてなされたものであり、複数種類の画像特徴量に基づいて画像を対象物領域と背景領域とに領域分割する領域分割装置において、対象物の部位ごとに異なる精度低下要因が生じても対象物の領域を高精度に抽出できる領域抽出装置を提供することを目的とする。 The present invention has been made in view of the above problems, and in an area dividing apparatus that divides an image into an object area and a background area based on a plurality of types of image feature amounts, different accuracy for each part of the object An object of the present invention is to provide a region extraction device that can extract a region of an object with high accuracy even if a decrease factor occurs.
本発明に係る領域分割装置は、所定の対象物を背景と共に撮像した画像において、それぞれが少なくとも1つの画素からなる素領域ごとに当該素領域を対象物領域と背景領域とのいずれかに帰属させることにより、前記画像を領域分割するものであって、前記素領域それぞれに対して当該素領域が帰属する帰属領域と複数種類の画像特徴のうち当該素領域を評価するための一部の種類の評価対象特徴とを仮決めした試行設定において、前記素領域それぞれの前記評価対象特徴が前記試行設定にて仮決めされた帰属領域に帰属することの尤もらしさの程度を表す帰属度を前記画像内にて総和して積算評価値を算出する評価値算出部と、複数通りの前記試行設定を設定し、前記評価値算出部により算出される前記各試行設定における前記積算評価値を比較し、前記画像全体での前記尤もらしさを最大化する前記試行設定における帰属領域を領域分割結果と決定する領域分割決定部と、を備える。 The area dividing device according to the present invention assigns each elementary area to either the object area or the background area for each elementary area composed of at least one pixel in an image obtained by imaging a predetermined object together with the background. Thus, the image is divided into regions, and for each of the elementary regions, an attribute region to which the elementary region belongs and some types of image features for evaluating the elementary region among a plurality of types of image features. In the trial setting in which the evaluation target feature is provisionally determined, the degree of attribution representing the likelihood of the evaluation target feature of each of the elementary regions belonging to the attribution region temporarily determined in the trial setting is included in the image And an evaluation value calculation unit that calculates the integrated evaluation value by summing the values, and sets the plurality of trial settings, and the integrated evaluation in each trial setting calculated by the evaluation value calculation unit Comparing, and a region division determination unit configured to determine a segmentation result attribution area in the trial set to maximize the likelihood in the entire image.
他の本発明に係る領域分割装置においては、前記領域分割決定部は、前記帰属領域を前記対象物領域とする前記素領域に対して前記評価対象特徴を第1の種類の前記画像特徴とし、且つ前記帰属領域を前記背景領域とする前記素領域に対して前記評価対象特徴を前記第1の種類とは異なる第2の種類の前記画像特徴とする前記試行設定を設定して前記積算評価値の前記比較を行う。 In another area dividing device according to the present invention, the area dividing determining unit sets the evaluation target feature as the first type of image feature for the elementary region with the belonging region as the target region, In addition, the integrated evaluation value is set by setting the trial setting that uses the image feature of the second type different from the first type as the evaluation target feature for the elementary region that uses the belonging region as the background region. The above comparison is made.
さらに他の本発明に係る領域分割装置は、前記帰属度としてコストを用い、前記積算評価値で与えられるエネルギーを最小化するグラフカット法により領域分割を行うものであって、前記領域分割決定部は、前記複数種類の画像特徴を順次、前記第1の種類の画像特徴として設定し、当該画像特徴をラベルαとするα拡張法により前記エネルギーを最小化する。 Still another area dividing apparatus according to the present invention performs area division by a graph cut method using cost as the degree of attribution and minimizing energy given by the integrated evaluation value, and the area division determining unit Sequentially sets the plurality of types of image features as the first type of image features, and minimizes the energy by an α expansion method using the image features as labels α.
さらに他の本発明に係る領域分割装置は、前記帰属度としてコストを用い、前記積算評価値で与えられるエネルギーを最小化するグラフカット法により領域分割を行うものであって、前記領域分割決定部は、前記複数種類の画像特徴のうちの2つからなる組み合わせを順次、前記第1及び第2の種類の画像特徴の組として設定し、当該第1の種類の画像特徴をラベルαとし当該第2の種類の画像特徴をラベルβとするα−β交換法により前記エネルギーを最小化する。 Still another area dividing apparatus according to the present invention performs area division by a graph cut method using cost as the degree of attribution and minimizing energy given by the integrated evaluation value, and the area division determining unit Sequentially sets a combination of two of the plurality of types of image features as a set of the first and second types of image features, and uses the first type of image features as a label α. The energy is minimized by an α-β exchange method in which two types of image features are labeled β.
本発明の好適な態様は、前記複数種類の画像特徴が、前記素領域の色及び位置である領域分割装置である。 A preferred aspect of the present invention is an area dividing device in which the plurality of types of image features are colors and positions of the elementary areas.
別の本発明に係る領域分割装置は、さらに、前記複数種類の画像特徴それぞれの前記帰属度を前記積算評価値に寄与させる寄与度を複数通りに設定する寄与度設定部を有し、前記評価値算出部は、前記寄与度ごとに、前記画像特徴についての前記各帰属度を前記寄与度で重み付けて前記画像内で総和して前記積算評価値を算出し、前記領域分割決定部は、前記寄与度ごとに前記領域分割結果を求め、前記寄与度に依存しない一律の基準により前記各寄与度における前記領域分割結果の尤もらしさを評価して領域分割評価値を算出し、当該領域分割評価値が最も高い前記領域分割結果を前記複数の寄与度について統一した領域分割結果と決定する。 The area dividing device according to another aspect of the present invention further includes a contribution setting unit that sets a plurality of contributions that contribute the attribution of each of the plurality of types of image features to the integrated evaluation value. For each contribution, the value calculation unit calculates the integrated evaluation value by weighting the contributions of the image features with the contributions and summing the contributions in the image. The area division result is obtained for each contribution degree, and the likelihood of the area division result at each contribution degree is evaluated according to a uniform criterion independent of the contribution degree, and the area division evaluation value is calculated. The region division result having the highest value is determined as the region division result unified for the plurality of contributions.
本発明によれば、例えば、頭部では色重視の領域分割を行い、脚部では形状重視の領域分割を行う、というように1つの対象物でも部位ごとに特徴量の寄与が調整される。これにより、対象物の部位ごとに異なる精度低下要因が生じても対象物の領域を高精度に抽出できる。 According to the present invention, the contribution of the feature amount is adjusted for each part even in one target object, for example, color-oriented area division is performed at the head and shape-oriented area division is performed at the leg. As a result, even if a different factor of decreasing accuracy occurs for each part of the object, the area of the object can be extracted with high accuracy.
以下、本発明の領域分割装置を含んだ好適な実施の形態(以下実施形態という)の一例として、領域分割装置により監視画像上の人物領域を抽出し、人物領域の形状に基づく人物姿勢の推定により異常の発生を監視する画像監視装置1について、図面に基づいて説明する。本発明の領域分割装置は、領域分割部41として画像監視装置1に具備され、監視画像を注目人物が写っている人物領域とそれ以外の背景領域に分割する。
Hereinafter, as an example of a preferred embodiment (hereinafter referred to as an embodiment) including the region dividing device of the present invention, a person region on a monitoring image is extracted by the region dividing device, and a person posture is estimated based on the shape of the person region. An image monitoring
[画像監視装置1の構成]
図1は画像監視装置1の概略の構成を示したブロック図である。画像監視装置1は撮像部2、記憶部3及び出力部5が制御部4に接続されてなる。
[Configuration of Image Monitoring Apparatus 1]
FIG. 1 is a block diagram showing a schematic configuration of the
撮像部2は監視カメラである。撮像部2は監視空間を移動する人物を撮像するために監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部4へ出力される。本実施形態においては、人物の位置を3次元座標で特定するために、2つの撮像部2−1,2−2が共通視野を有して設置される。これらの撮像部2のカメラパラメータは、予めのキャリブレーションにより計測して記憶部3に記憶させておく。
The
記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部3は、各種プログラムや各種データを記憶し、制御部4との間でこれらの情報を入出力する。
The
各種データには、追跡情報30、人物形状モデル31、グラフ情報32及びカメラパラメータ(不図示)が含まれる。
The various data includes
追跡情報30は人物を追跡した結果である人物位置、人物の追跡のために生成され当該人物を特徴づける人物テンプレートなどのデータである。人物ごとの人物IDに対応付けられて当該人物の人物位置及び人物テンプレートなどが記憶される。監視空間を模した3次元座標系における人物の頭部中心の座標が当該人物の人物位置として記憶される。
The
人物形状モデル31は人物の形状を模した形状データである。本実施形態では、立位の人物の頭部、胴部及び脚部の3部分それぞれを鉛直軸を回転軸とする回転楕円体で近似し、これらを上から順に鉛直方向に整列した立体形状データを予め作成して記憶させておく。
The
後述する領域分割部41は、監視画像に対して図2に示すようなグラフを生成し、当該グラフを最小のエネルギーで人物領域と背景領域とに2分割する切断をα拡張(α-expansion)法を適用したグラフカット(Graph Cut)法により導出することで監視画像から人物領域を抽出する。
An
図2に示すグラフにおいて、水平面の斜視図が画素の集合である画像を模式的に表している。領域分割部41は、例えば人物領域及び背景領域の最小単位(素領域)として1つ1つの画素をノードに設定すると共に人物領域側及び背景領域側の仮想のターミナルとしてソースS及びシンクTを設定する。また各隣接ノード間のリンク(n−link)を設定し、各ノードとソースとの間及び各ノードとシンクとの間にもリンク(t−link)を設定する。さらに各リンクに当該リンクの結合度を設定する。こうして領域分割部41は監視画像に対するグラフを生成する。本発明では特にソースとして色特徴量に関するソース(色ソースSC)と色特徴量に関するソース(形状ソースSS)の2種類を設ける。結合度は領域分割のために行うリンクの切断に要するコストとしてエネルギーに計上される。以下、結合度の値をコストと称する。
In the graph shown in FIG. 2, the perspective view of the horizontal plane schematically represents an image that is a set of pixels. The
領域分割部41は各n−linkに、領域分割に伴い当該n−linkを切断するときのエッジコストを設定する。また、各ノードと色ソースSCとの間のt−linkには当該t−linkを切断して当該ノードを背景領域に帰属させるときの色特徴量に係るコスト(背景帰属時色コスト)を設定し、各ノードと形状ソースSSとの間のt−linkには当該t−linkを切断して当該ノードを背景領域に帰属させるときの形状特徴量に係るコスト(背景帰属時形状コスト)を設定し、各ノードとシンクTとの間のt−linkには当該t−linkを切断して当該ノードを対象物領域に帰属させるときの色特徴量に係るコスト(対象物帰属時色コスト)と当該ノードを対象物領域に帰属させるときの形状特徴量に係るコスト(対象物帰属時形状コスト)を設定する。各コストは分割が正しくないときに高くなる値であるため、監視画像を人物領域側のノードと背景領域側のノードとに2分割する際に切断されるリンクのコストの総和が領域分割のエネルギーとして定義され、エネルギーを最小化する切断がα拡張法を適用したグラフカット法により導出される。エネルギーを最小化する切断を導出することは帰属の尤もらしさを最大化する領域分割を導出することと等価である。
The
グラフ情報32は領域分割のエネルギーの基礎となるコストのデータである。隣接画素{p(xp,yp),q(xq,yq)}の組み合わせごとのエッジコストcE(p,q)が記憶されると共に、画素p(xp,yp)ごとに、色ソースSCとの間の背景帰属時色コストαC・cC(p,SC)、形状ソースSSとの間の背景帰属時形状コストαS・cS(p,SS)、シンクTとの間の対象物帰属時色コストαC・cC(p,T)及びシンクTとの間の対象物帰属時形状コストαS・cS(p,T)が記憶される。
The
ここで、αCは領域分割のエネルギーに対する色特徴量のエネルギー(色エネルギー)の寄与度合いと、αSは領域分割のエネルギーに対する形状特徴量のエネルギー(形状エネルギー)の寄与度合いの比率(特徴比率)である。αC,αSには0より大きな値を設定する。 Here, α C is the degree of contribution of the energy (color energy) of the color feature quantity to the energy of area division, and α S is the ratio of the degree of contribution of the energy (shape energy) of the shape feature quantity to the energy of area division (feature ratio). ). A value larger than 0 is set to α C and α S.
制御部4は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部3からプログラムを読み出して実行することで人物追跡部40、領域分割部41、異常姿勢判定部42等として機能する。
The
人物追跡部40は撮像部2からの監視画像を処理して、監視画像上に写っている各人物の人物位置を追跡し、当該監視画像、当該人物位置、当該人物に付与した人物ID及び当該監視画像を撮像した撮像部2に予め付与されたカメラIDを領域分割部41に出力する。
The
領域分割部41は人物追跡部40から監視画像及び各人物の人物位置を入力されると、当該監視画像を当該人物が写っている人物領域(対象物領域)とそれ以外の背景領域とに領域分割し、領域分割結果を異常姿勢判定部42に出力する。
When the monitor image and the person position of each person are input from the
領域分割部41は、初期領域設定部410、分割コスト算出部411、エネルギー算出部412及び領域決定部413から構成される。
The
以下、領域分割部41を構成する各部について説明する。
Hereinafter, each part which comprises the area |
初期領域設定部410は、人物領域の初期値として監視画像上に人物領域の概略位置と概略形状とを有した初期領域を設定し、初期領域の情報を分割コスト算出部411に出力する。初期領域は領域分割の手がかりとなる。
The initial
具体的には初期領域設定部410は、人物追跡部40から入力された各人物の人物位置及び人物形状モデル31を参照し、人物位置を基準にして人物形状モデル31を監視画像上に配置することにより初期領域を設定する。そのために初期領域設定部410は、監視空間を模した仮想空間中の人物位置に人物形状モデル31を配置し、配置した人物形状モデル31をカメラパラメータを用いた座標変換により監視画像に投影し、投影した領域を初期領域に設定する。初期領域は人物ごとに設定され、さらに当該人物を複数の撮像部2により撮像している場合は各撮像部2が撮像した監視画像ごとに設定される。撮像部2とカメラパラメータと監視画像との対応関係はカメラIDにより特定される。
Specifically, the initial
図3は初期領域設定部410による処理を説明する模式図である。図3(a)は人物101が写った監視画像100である。初期領域設定部410には当該監視画像100と、当該人物101を追跡して得た仮想空間110におけるXYZ座標系の人物位置112が入力される。入力される人物位置112は頭部中心座標で代表されている。図3(b)は人物モデル113から初期領域121を生成する処理を説明する仮想空間110の模式的な斜視図であり、図3(c)はその処理結果を示す模式図である。初期領域設定部410は、人物モデル113を、その頭部中心を人物位置112に合わせ、その下端を床面111に接地させて仮想空間110に配置し、カメラパラメータを用いて人物モデル113を撮像部2(カメラ114)の撮像面115のxy座標系に投影する。これにより監視画像100と同じxy座標系の投影画像120に人物モデル113を投影した初期領域121が算出される。
FIG. 3 is a schematic diagram for explaining processing by the initial
領域分割部41は、互いに種類が異なる複数種類の画像特徴を用いて領域分割を行う。例えば領域分割部41は対象物及び背景の色特徴と対象物の形状特徴とを領域分割に用いる。複数種類の画像特徴を用いる。そして例えば対象物と背景との色特徴が似ており色特徴による領域分割の精度が低下する対象物の部位では形状特徴を利用し、周辺に背景のエッジが多くて形状特徴による領域分割の精度が低下する対象物の部位では色特徴を利用するといったように、ノードごとに当該ノードの帰属の尤もらしさを評価するために最良の1種類の画像特徴(評価対象特徴)を選択することで、単独の画像特徴を用いた場合よりも高精度な領域分割を行う。このとき対象物と背景との間の関係は多様であり、予めノードと評価対象特徴との最良の関係を設定するのは難しい。そこで領域分割部41は、ノードと評価対象特徴との最良の関係を監視画像ごとに動的に設定して領域分割結果を求める。
The
本実施形態において領域分割部41は、積算評価値として下記式(1)で定義されるエネルギーEを計算する。エネルギーEは色エネルギーEC、形状エネルギーES及びエッジエネルギーEEの線形和で定義される。領域分割部41は当該エネルギーEを最小化する領域分割結果をα拡張法を適用したグラフカット法により導出する。
In the present embodiment, the
ここで、Aは各ノードがそれぞれ対象物領域と背景領域とのいずれに帰属するか、つまり各ノードがいずれの領域を帰属領域とするかを設定したラベル行列である。また、iは評価対象特徴であり、Cは色特徴、Sは形状特徴に対応するラベルである。 Here, A is a label matrix in which each node belongs to either the object area or the background area, that is, which area each node belongs to. Further, i is a feature to be evaluated, C is a color feature, and S is a label corresponding to the shape feature.
すなわち式(1)の右辺第1項は、評価対象特徴が色特徴である背景画素pの背景帰属時色コストαC・cC(p,SC)と、評価対象特徴が形状特徴である背景画素pの背景帰属時形状コストαS・cS(p,SS)と、評価対象特徴が色特徴である人物画素pの対象物帰属時色コストαC・cC(p,T)と、評価対象特徴が形状特徴である人物画素pの対象物帰属時形状コストαS・cS(p,T)の和を表す。 That is, the first term on the right side of Equation (1) is the color cost α C · c C (p, S C ) at the time of background attribution of the background pixel p whose evaluation target feature is a color feature, and the evaluation target feature is a shape feature. Shape cost α S · c S (p, S S ) at the time of background attribution of the background pixel p and color cost α C · c C (p, T) at the time of object attribution of the person pixel p whose evaluation target feature is a color feature And the sum of the shape cost α S · c S (p, T) at the time of object attribution of the person pixel p whose evaluation target feature is a shape feature.
また式(1)の右辺第2項は、領域分割により切断されたn−linkすなわち人物画素と背景画素との境界に設定されたエッジコストcE(p,q)の和を表す。 The second term on the right side of the equation (1) represents the sum of n-links cut by region division, that is, the edge cost c E (p, q) set at the boundary between the person pixel and the background pixel.
分割コスト算出部411は、初期領域を基準にして、監視画像の各画素に対し、当該画素の画像特徴が対象物領域及び背景領域それぞれに帰属することの尤もらしくなさ、すなわち尤もらしさの程度の低さを表すコスト値を画像特徴ごとに算出する。
The division
具体的には分割コスト算出部411は、初期領域内外の色を基準に、監視画像から対象物の色特徴量(対象物色特徴)及び背景の色特徴量(背景色特徴)を抽出する。そして、対象物色特徴と各画素とを比較して当該画素が対象物領域に帰属することの尤もらしくなさを表す対象物帰属時色コストcC(p,T)を算出し、これにαCを乗じたαC・cC(p,T)を記憶部3のグラフ情報32に記憶させる。また、背景色特徴と各画素の色特徴とを比較して当該画素が背景領域に帰属することの尤もらしくなさを表す背景帰属時色コストを算出し、これにαCを乗じたαC・cC(p,SC)を記憶部3のグラフ情報32に記憶させる。
Specifically, the division
さらに分割コスト算出部411は、初期領域の形状を基準に各画素の位置が対象物領域内である確率と背景領域内である確率とを設定する。そして分割コスト算出部411は各画素の位置が対象物領域内である確率に基づいて当該画素が対象物領域に帰属することの尤もらしくなさを表す対象物帰属時形状コストcS(p,T)を算出し、これにαSを乗じたαS・cS(p,T)を記憶部3のグラフ情報32に記憶させる。また分割コスト算出部411は、各画素の位置が背景領域内である確率に基づいて当該画素が背景領域に帰属することの尤もらしくなさを表す背景帰属時形状コストを算出し、これにαSを乗じたαS・cS(p,SS)を記憶部3のグラフ情報32に記憶させる。
Further, the division
また分割コスト算出部411は各隣接画素間に対してその輝度差に応じたエッジコストcE(p,q)を算出して記憶部3のグラフ情報32に記憶させる。
Further, the division
以下、エッジコストcE(p,q)の算出について説明する。 Hereinafter, calculation of the edge cost c E (p, q) will be described.
分割コスト算出部411は、画素pとその隣接画素qの間に設定したn−linkそれぞれに対して次式で表されるエッジコストcE(p,q)を算出する。
The division
ここで、Ipは画素pの画素値、Iqは隣接画素qの画素値、dist(p,q)は画素pの位置と隣接画素qの位置との間の距離を表す。βは調整用の定数であり、事前実験等を通じて適切な値が予め設定される。すなわち分割コスト算出部411は各隣接画素間に対して、互いの画素値が相違するほど小さく、互いの画素値が類似するほど大きなエッジコストcE(p,q)を設定する。
Here, Ip represents the pixel value of the pixel p, Iq represents the pixel value of the adjacent pixel q, and dist (p, q) represents the distance between the position of the pixel p and the position of the adjacent pixel q. β is a constant for adjustment, and an appropriate value is set in advance through a preliminary experiment or the like. That is, the division
以下、対象物シードの設定と対象物帰属時色コストcC(p,T)の算出について説明する。 Hereinafter, the setting of the object seed and the calculation of the object belonging attribution color cost c C (p, T) will be described.
分割コスト算出部411は、監視画像における初期領域の内側の画素値から対象物の色特徴の基準とする対象物色特徴を抽出する。対象物領域を高精度に抽出するには、対象物色特徴は、対象物の一部である可能性が十分に高く、対象物を構成する色を網羅していることが望ましい。そこで、分割コスト算出部411は、初期領域の中心軸上の画素群を対象物シードと定め、当該対象物シードの画素値の正規化色ヒストグラムhOを対象物色特徴として抽出する。
The division
図4には図3の初期領域121の中心軸上に設定した対象物シード200を例示している。対象物シード200は対象物領域か背景物領域かが曖昧な初期領域121の輪郭付近を含まないように設定されている。
FIG. 4 illustrates an
分割コスト算出部411は、以下に示す式(3)及び式(4)に従い対象物帰属時色コストcC(p,T)を算出する。
The division
ここで、Ipは画素pの画素値、hOは対象物シードの正規化色ヒストグラムであり、hO(Ip)は画素値Ipが対象物の色である確率を表す。LC(p|оbj)の値は画素pの色が対象物の色である確率が高いほど小さく、同確率が低いほど大きくなる。K(>1)は大きなコスト値を表す定数であり、十分に大きな値が予め設定される。 Here, Ip is the pixel value of the pixel p, h O is a normalized color histogram of the object seed, and h O (Ip) represents the probability that the pixel value Ip is the color of the object. The value of L C (p | оbj) decreases as the probability that the color of the pixel p is the color of the object is higher, and increases as the probability is lower. K (> 1) is a constant representing a large cost value, and a sufficiently large value is set in advance.
このように分割コスト算出部411は、各画素pとシンクTとの間に、当該画素pの色が対象物らしいほど低く、当該画素pの色が対象物らしくないほど高い対象物帰属時色コストcC(p,T)を設定する。
As described above, the division
以下、背景シードの設定と背景帰属時色コストcC(p,SC)の算出について説明する。 Hereinafter, setting of the background seed and calculation of the color cost at the time of background attribution c C (p, S C ) will be described.
分割コスト算出部411は、監視画像における初期領域の外側の画素値から背景の色特徴の基準とする背景色特徴を抽出する。対象物領域を高精度に抽出するには、背景シードは、背景の一部である可能性が十分に高く、対象物との境界に存在する背景の色を網羅していることが望ましい。そこで、分割コスト算出部411は、初期領域を所定距離だけ離れて囲む外周部の画素群を背景シードと定め、当該背景シードの画素値の正規化色ヒストグラムhBを背景色特徴として抽出する。具体的には、分割コスト算出部411は、初期領域を所定回数だけ膨張して膨張領域の周囲画素を背景シードと定める。膨張回数は初期領域の近似誤差より大きく定めることができ、例えば10回程度とすることができる。また、α拡張法を適用したグラフカット法を用いる本実施形態では、2段階でグラフカット法を実行する。この第1段階において色特徴により抽出できなかった対象物画素を第2段階で抽出するために分割コスト算出部411は第1段階にて得られた対象物画素を第2段階の背景シードに加える。
The division
図4には初期領域121の輪郭から10画素だけ離れた外周部に設定した背景シード201を例示している。背景シード201は対象物領域か背景物領域かが曖昧な初期領域121の輪郭付近を含まないように設定されている。
FIG. 4 exemplifies a
分割コスト算出部411は、以下に示す式(5)及び式(6)に従い背景帰属時色コストcC(p,SC)を算出する。
The division
ここで、hBは背景シードの正規化色ヒストグラムであり、hB(Ip)は画素値Ipが背景領域の色である確率を表す。K,Ipは上述の通りである。LC(p|bkg)の値は画素pの色が背景の色である確率が高いほど小さく、同確率が低いほど大きくなる。 Here, h B is a normalized color histogram of the background seed, and h B (Ip) represents the probability that the pixel value Ip is the color of the background region. K and Ip are as described above. The value of L C (p | bkg) decreases as the probability that the color of the pixel p is the background color is higher, and increases as the probability is lower.
このように分割コスト算出部411は、各画素pと色ソースSCとの間に、当該画素pの色が背景らしいほど低く、当該画素pの色が背景らしくないほど高い背景帰属時色コストcC(p,SC)を設定する。
Dividing the
以下、対象物帰属時形状コストcS(p,T)の算出について説明する。 Hereinafter, calculation of the object belonging shape cost c S (p, T) will be described.
分割コスト算出部411は、初期領域の位置及び形状に基づいて各画素位置における対象物画素の存在確率ρOを設定する。具体的には分割コスト算出部411は、対象物画素の存在確率ρOとして初期領域の外側の画素に0、初期領域の内側で初期領域の輪郭からの距離が遠い画素ほど1に近づく値を設定する。対象物画素の存在確率ρOの例を図4に示す。図4に示す存在確率ρOのグラフの横軸は、図4の上部に示す初期領域121を含む画像にて一点鎖線で示すx軸方向の直線に沿った位置を画素数で表しており、縦軸がρOである。この例ではρOは対象物シード200で最大値である1となり、初期領域121の輪郭での値0へ向けて直線的に減少し、当該輪郭より外側では0となる。
The division
分割コスト算出部411は、以下に示す式(7)及び式(8)に従いρOを基にした対象物帰属時形状コストcS(p,T)を算出する。
The division
ここで、ρO(p)は画像中において画素pの位置が対象物領域内である確率を表す。Kは上述の通りである。LS(p|оbj)の値は画素pの位置が対象物領域内である確率が高いほど小さく、同確率が低いほど大きくなる。 Here, ρ O (p) represents a probability that the position of the pixel p in the image is within the object region. K is as described above. The value of L S (p | оbj) decreases as the probability that the position of the pixel p is within the object region is higher, and increases as the probability is lower.
すなわち、分割コスト算出部411は、各画素pとシンクTとの間に、当該画素pの位置が対象物らしいほど低く、当該画素pの位置が対象物らしくないほど高い対象物帰属時形状コストcS(p,T)を設定する。
In other words, the division
以下、背景帰属時形状コストcS(p,SS)の算出について説明する。 Hereinafter, calculation of the shape cost at the time of background attribution c S (p, S S ) will be described.
分割コスト算出部411は、初期領域の位置及び形状に基づいて各画素位置における背景画素の存在確率ρBを設定する。具体的には分割コスト算出部411は、背景画素の存在確率ρBとして背景シード201の内側の画素に0、背景シード201の外側で背景シード201からの距離が遠い画素ほど1に近づく値を設定する。背景画素の存在確率ρBの例を図4に示す。図4に示す存在確率ρBのグラフの横軸は、図4の上部に示す初期領域121を含む画像にて一点鎖線で示すx軸方向の直線に沿った位置を画素数で表しており、縦軸がρBである。この例ではρBは背景シード201から外側へ向けて直線的に増加する。
The division
分割コスト算出部411は、以下に示す式(9)及び式(10)に従いρBを基にした背景帰属時形状コストcS(p,SS)を算出する。
The division
ここで、ρB(p)は画像中において画素pの位置が背景領域内である確率を表す。Kは上述の通りである。LS(p|bkg)の値は画素pの位置が背景領域内である確率が高いほど小さく、同確率が低いほど大きくなる。 Here, ρ B (p) represents the probability that the position of the pixel p in the image is in the background area. K is as described above. The value of L S (p | bkg) decreases as the probability that the position of the pixel p is in the background region is higher, and increases as the probability is lower.
このように分割コスト算出部411は、各画素pとソースSとの間に、当該画素pの位置が背景らしいほど低く、当該画素pの位置が背景らしくないほど高い背景帰属時形状コストcS(p,SS)を設定する。
In this way, the division
なお、図4では対象物画素の存在確率ρOと背景画素の存在確率ρBの値を初期領域121と背景シード201とに挟まれる周囲にて共に0とする例を示したが、図5のように初期領域121の境界の外側及び内側にρO及びρBが0より大きな値となる範囲を設定してもよい。
FIG. 4 shows an example in which the values of the object pixel existence probability ρ O and the background pixel existence probability ρ B are both set to 0 around the
このように分割コスト算出部411が各コストを設定することにより監視画像を領域分割するためのグラフが完成する。
In this way, the division
エネルギー算出部412(評価値算出部)は、各画素の帰属領域及び各画素の評価対象特徴を仮決めした試行設定において各画素の設定と対応するコストを当該画素の帰属度として記憶部3から読み出し、これらを画像内にて総和して当該試行設定が表す領域分割のエネルギー(積算評価値)を算出する。具体的にはエネルギー算出部412は式(1)に従いエネルギーEを算出する。
The energy calculation unit 412 (evaluation value calculation unit) uses the cost corresponding to the setting of each pixel as the degree of attribution of the pixel in the trial setting in which the attribution region and the evaluation target feature of each pixel are provisionally determined from the
試行設定は複数通り生成され、その生成は領域決定部413(領域分割決定部)が行う。つまり、エネルギー算出部412がエネルギーEを計算する際の式(1)における帰属領域設定A及び評価対象特徴の種別iは領域決定部413により都度仮決めされる。領域決定部413は複数通りの試行設定におけるエネルギーEを比較し、エネルギーEが最小となる試行設定における帰属領域設定を検出することで、各画素の評価対象特徴が当該画素の帰属領域に帰属することの尤もらしさが画像全体として最大となる試行設定を検出し、検出した試行設定における帰属領域を領域分割結果と決定する。領域決定部413は、決定した領域分割結果を異常姿勢判定部42に出力する。
A plurality of trial settings are generated, and the generation is performed by the region determination unit 413 (region division determination unit). That is, the
このように領域決定部413は、試行設定を変動させながら当該試行設定をエネルギー算出部412に入力してエネルギーを算出させる処理を繰り返して、エネルギーが最小となる試行設定を探索することにより、各画素の評価対象特徴と当該画素の帰属領域との尤もらしさが画像全体として最大となる領域分割結果を導出する。
In this way, the
こうすることで監視画像ごとに各素領域を評価するための評価対象特徴を適応的に選択した領域分割が可能となる。これにより対象物の各部位にてそれぞれに精度低下しにくい画像特徴を選択できるので、対象物と背景との関係の多様性に適応した高精度な領域分割を行うことができる。 By doing so, it is possible to divide the area by adaptively selecting the evaluation target feature for evaluating each elementary area for each monitoring image. As a result, it is possible to select image features that are unlikely to deteriorate in accuracy at each part of the object, and thus it is possible to perform high-precision area division adapted to the diversity of the relationship between the object and the background.
エネルギーが最小となる帰属領域及び評価対象特徴はα拡張法を適用したグラフカット法により効率的に決定することができる。処理の詳細は動作の説明にて後述する。 The attribution region and the evaluation target feature with the minimum energy can be efficiently determined by the graph cut method to which the α extension method is applied. Details of the processing will be described later in the description of the operation.
異常姿勢判定部42は、領域分割部41が抽出した各人物の人物領域の形状が異常事態の発生を示す異常姿勢であるか否かを判定し、人物領域のいずれかが異常姿勢と判定された場合に所定の異常信号を出力部5に出力する。具体的には、異常姿勢判定部42は各人物領域の形状と予め登録してある異常姿勢パターンとの類似度を算出して予め設定したしきい値と比較し、しきい値以上の類似度が算出された人物領域を異常姿勢であると判定し、そうでなければ異常姿勢でないと判定する。例えば、両手を挙げた姿勢の形状パターンを強盗事件の発生を示す異常姿勢パターンとして予め登録しておくことができる。
The abnormal
出力部5は異常姿勢判定部42から異常信号が入力されると当該異常信号を外部に出力する外部出力装置である。例えば、出力部5は、電話網あるいはインターネットなどの広域網を介して警備センターと接続された通信回路で構成され、警備センターに異常信号を送信することによって異常事態の発生を通報する。
The
[画像監視装置1の動作]
図6は画像監視装置1の監視動作の概略を示すフロー図である。図6を参照して画像監視装置1の動作を説明する。監視空間が無人であることを確認した管理者が装置に電源を投入すると、各部、各手段が初期化され動作を開始する(S1)。初期化の後は、撮像部2から制御部4へ新たな監視画像が入力されるたびに、ステップS2〜S7の処理がループ処理として繰り返される。
[Operation of the image monitoring apparatus 1]
FIG. 6 is a flowchart showing an outline of the monitoring operation of the
新たな監視画像が入力されると制御部4の人物追跡部40は、監視画像上の人物を追跡して監視画像上での当該人物の位置を特定する(S2)。人物追跡部40は新たな監視画像にて特定した人物位置を人物ID及びカメラIDと対応付けて記憶部3の追跡情報30に記憶させる。
When a new monitoring image is input, the
制御部4は、新たな監視画像上に人物が存在しているか否か、すなわち追跡情報30に新たな監視画像にて特定した人物位置が記憶されているか否かを確認する(S3)。人物が存在しなければ(ステップS3にてNO)、制御部4は以降の処理をスキップして処理をステップS1へ戻す。
The
人物が存在していれば(ステップS3にてYES)、制御部4は新たな監視画像から得た追跡情報30を領域分割部41に入力し、領域分割部41は各人物の人物領域を抽出する(S4)。
If a person exists (YES in step S3), the
図7は人物領域抽出処理の概略のフロー図である。以下、図7を参照してステップS4の人物領域抽出処理を説明する。 FIG. 7 is a schematic flowchart of person area extraction processing. Hereinafter, the person region extraction process in step S4 will be described with reference to FIG.
α拡張法を適用したグラフカット法では、複数のソースを有するグラフを、複数のソースのうちの1つとシンクで構成されるグラフに分けて段階的にエネルギーの最小化を行う。この際に、ソース側のt−linkとシンク側のt−linkには異なる種類のコストを設定する。 In the graph cut method to which the α extension method is applied, a graph having a plurality of sources is divided into a graph composed of one of the plurality of sources and a sink, and energy is minimized in a stepwise manner. At this time, different types of costs are set for the t-link on the source side and the t-link on the sink side.
本実施形態では、図2に示したグラフを、図8に示す2つのグラフ400,401に分けてエネルギーの最小化を行う。図9はα拡張法による人物領域抽出処理での画素の帰属領域及び評価対象特徴の一例を説明する画像の模式図を示している。
In this embodiment, energy is minimized by dividing the graph shown in FIG. 2 into two
以下、この処理の様子を説明する。 Hereinafter, this process will be described.
まず、領域分割部41の初期領域設定部410は、記憶部3から人物形状モデル31と、監視画像に対応するカメラIDのカメラパラメータとを読みだし、各人物の人物位置を基準にして仮想空間中に人物形状モデル31を配置し、配置した人物形状モデル31をカメラパラメータにより監視画像上に投影して各人物の初期領域を設定する(S100)。
First, the initial
次に、領域分割部41の分割コスト算出部411は、各人物の初期領域からの距離に応じて各画素における対象物画素の存在確率ρOと背景画素の存在確率ρBをそれぞれ対象物形状特徴、背景形状特徴として算出する(S101)。
Next, the division
続いて、分割コスト算出部411は式(2)に従って隣接画素の組み合わせごとのエッジコストcE(p,q)を算出してグラフ情報32に記憶させる(S102)。
Subsequently, the division
また、分割コスト算出部411は各人物の背景シードを設定して(S103)、人物ごとに背景シードに対する各画素の背景帰属時色コストを算出する(S104)。すなわち、分割コスト算出部411は各人物の初期領域の周辺部から正規化色ヒストグラムhBを背景色特徴として抽出し、人物ごとに式(5)及び式(6)に従って画素ごとの背景帰属時色コストαC・cC(p,SC)を算出してグラフ情報32に記憶させる。
Further, the division
さらに、分割コスト算出部411はステップS101にて算出した人物ごとの対象物画素の存在確率ρOそれぞれを用い、式(7)及び式(8)に従って画素ごとの対象物帰属時形状コストαS・cS(p,T)を算出してグラフ情報32に記憶させる(S105)。ここまでの処理によって図8のグラフ400、すなわち色ソースSCを含み形状ソースSSを含まない第1段階のグラフ400が生成される。
Further, the division
領域分割部41の領域決定部413は、グラフ情報32で定義されるグラフ400にMinimum Cut/Maximum Flowアルゴリズムを適用して最小のエネルギーにて当該グラフを対象物領域のノードと背景領域のノードに2分割する帰属領域設定A1を導出する(S106)。すなわち領域決定部413は帰属領域設定を微小変動させながら仮決めした当該帰属領域設定をエネルギー算出部412に入力して式(1)のエネルギーEを算出させる処理を繰り返してエネルギーEを最小化する帰属領域設定を探索し決定する。第1段階において領域決定部413はシンク側のt−linkに対象物帰属時形状コストを、またソース側のt−linkに背景帰属時色コストをそれぞれ設定して領域分割を行った。この設定により、領域決定部413は、帰属領域を対象物領域とする画素に対して評価特徴を色特徴とし(α拡張法におけるラベルαを色特徴のラベルCとすることに相当)、且つ帰属領域を背景画像とする画素に対して評価対象特徴を形状特徴とする試行設定を設定してエネルギーの比較を行ったことになる。
The
図9(1)は第1段階での様子を表しており、帰属領域設定500は第1段階で導出された帰属状態A1の例である。後のステップS111にて、この段階で得られた対象物領域は最終的にそのまま対象物領域の一部として採用される(図9(1)の帰属領域設定501)。同対象物画素は評価対象特徴を色特徴に設定して選んだということになる(図9(1)の評価対象特徴設定状態502)。
FIG. 9A shows a state in the first stage, and the belonging area setting 500 is an example of the belonging state A1 derived in the first stage. In the subsequent step S111, the object area obtained at this stage is finally adopted as a part of the object area as it is (attributed area setting 501 in FIG. 9 (1)). This means that the object pixel is selected by setting the evaluation target feature as a color feature (evaluation target
分割コスト算出部411はグラフ情報32のコストをリセットして第2段階に移行する。図9(2)は第2段階に移行した際の様子を示している。分割コスト算出部411は、ステップS106にて導出された各人物の対象物領域を第2段階のグラフ401における当該人物の背景シード(図9(2)にて帰属領域設定503で示す背景シードB)に加える。シードに加えた対象物領域の帰属は第2段階に影響せず、また変更されないことになる。各人物の対象物シードを設定して(S107)、人物ごとに対象物シードに対する各画素の対象物帰属時色コストを算出する(S108)。すなわち分割コスト算出部411は、各人物の初期領域の中央部から正規化色ヒストグラムhOを対象物色特徴として抽出し、式(3)及び式(4)に従って画素ごとの対象物帰属時色コストαC・cC(p,T)を算出してグラフ情報32に記憶させる。
The division
続いて、分割コスト算出部411はステップS101にて算出した人物ごとの背景画素の存在確率ρBそれぞれを用い、式(9)及び式(10)に従って画素ごとの背景帰属時形状コストαS・cS(p,SS)を算出してグラフ情報32に記憶させる(S109)。ここまでの処理によって図8のグラフ401、すなわち形状ソースSSを含み色ソースSCを含まない第2段階のグラフ401が生成される。
Subsequently, the division
領域決定部413は、グラフ情報32で定義されるグラフ401にMinimum
Cut/Maximum Flowアルゴリズムを適用して最小のエネルギーにて当該グラフを対象物領域のノードと背景領域のノードに2分割する帰属領域設定A2を導出する(S110)。すなわち領域決定部413は帰属領域設定を微小変動させながら仮決めした当該帰属領域設定をエネルギー算出部412に入力して式(1)のエネルギーEを算出させる処理を繰り返してエネルギーEを最小化する帰属領域設定A2を探索し決定する。
The
By applying the Cut / Maximum Flow algorithm, attributed area setting A2 is derived that divides the graph into a target area node and a background area node with a minimum energy (S110). That is, the
図9(3)は第2段階での様子を表しており、帰属領域設定504は、この第2段階で導出された帰属領域設定A2の例である。第2段階において領域決定部413はシンク側のt−linkに対象物帰属時色コストを、またソース側のt−linkに背景帰属時形状コストをそれぞれ設定して領域分割を行った。この設定により、領域決定部413は、帰属領域を対象物領域とする画素に対して評価特徴を形状特徴とし(α拡張法におけるラベルαを形状特徴のラベルSとすることに相当)、且つ帰属領域を背景画像とする画素に対して評価対象特徴を色特徴とする試行設定を設定してエネルギーの比較を行ったことになる。
FIG. 9 (3) shows a state in the second stage, and the belonging area setting 504 is an example of the belonging area setting A2 derived in the second stage. In the second stage, the
領域決定部413は、ステップS106にて得られた対象物画素とステップS110にて得られた対象物画素とを連結して最終的な対象物領域を決定し、それ以外の領域を背景領域として決定する(S111)。
The
図9(3)の帰属領域設定505は、最終的な帰属領域設定Aの例である。第2段階で得られた対象物画素は評価対象特徴を形状特徴に設定して選んだということになる(図9(3)の状態506)。なお、この段階で得られた背景シード以外の背景画素(状態506にて“S/C”で示す画素)の評価対象特徴は当該画素に設定された対象物帰属時色コストと対象物帰属時形状コストのうち最小値を与える画像特徴とすることができる。
The belonging area setting 505 in FIG. 9 (3) is an example of the final belonging area setting A. The object pixel obtained in the second stage is selected by setting the evaluation object feature as the shape feature (
以上の各段階において、領域決定部413は、帰属領域を対象物領域とする素領域に対して評価対象特徴を第1の種類の画像特徴とし、且つ帰属領域を背景領域とする素領域に対して評価対象特徴を第1の種類と異なる第2の種類の画像特徴とする試行設定を設定して積算評価値の比較を行った。このように異なる画像特徴を直接的に対比する設定を行うことによって各素領域にて評価すべき画像特徴を効率良く選択できるので、対象物と背景の関係の多様性に適応した高精度な領域分割を効率的に導出することができる。
In each of the above steps, the
こうして領域分割部41は、各ノードにおいていずれか1つの画像特徴を評価対象特徴に選びながらエネルギーEを最小化する領域分割を決定する。
In this way, the
以上の処理により各人物の人物領域が抽出されると、制御部4は図6のステップS5へ処理を進める。
When the person region of each person is extracted by the above processing, the
再び図6を参照して画像監視処理の続きを説明する。 The continuation of the image monitoring process will be described with reference to FIG. 6 again.
制御部4の異常姿勢判定部42は、領域決定部413から入力された各人物の人物領域の形状と異常姿勢パターンとの類似度を算出して予め設定したしきい値と比較し、しきい値以上の類似度が算出された人物領域を異常姿勢であると判定し、そうでなければ異常姿勢でないと判定する(S5)。
The abnormal
異常姿勢判定部42は人物領域のいずれかが異常姿勢と判定された場合に(ステップS6にてYES)、所定の異常信号を生成して出力部5に当該信号を出力する(S7)。異常信号を入力された出力部5は警備センターに異常信号を送信し、通報を行う。他方、人物領域のいずれも異常姿勢と判定されなければ(ステップS6にてNO)、ステップS7の異常出力処理はスキップされる。
If any of the person regions is determined to be in an abnormal posture (YES in step S6), the abnormal
以上の処理を終えると、制御部4は処理をステップS1に戻し、次の監視画像に対する処理が行われる。
When the above processing is completed, the
[変形例]
(1)上記実施形態では1つ1つの画素を素領域として領域分割を行う例を示した。しかし、ノードに対応付ける素領域は画素以外であってもよい。例えば、互いに画素値が類似する画素を予めまとめてセグメント化し、各セグメントをノードに設定して領域分割を行うこともできる。
[Modification]
(1) In the above embodiment, an example is shown in which region division is performed using each pixel as a raw region. However, the elementary region associated with the node may be other than the pixel. For example, pixels having similar pixel values can be segmented together in advance, and each segment can be set as a node to perform region division.
この場合、各セグメントに対する色コストは、当該セグメントの代表画素値(画素値の平均値、中央値または最頻値)を用いて算出する、あるいは当該セグメントを構成する画素それぞれに対する色コストを算出してそれらの色コストの代表値(コストの平均値、中央値または最大値)を当該セグメントの色コストとする。 In this case, the color cost for each segment is calculated using the representative pixel value (average value, median value, or mode value) of the segment, or the color cost for each pixel constituting the segment is calculated. The representative value (average value, median value, or maximum value) of these color costs is used as the color cost of the segment.
また各セグメントに対する形状コストは、当該セグメントと初期領域との重なり度合いを用いて算出する、あるいは当該セグメントを構成する画素に対する存在確率の代表値(存在確率の平均値、中央値または最頻値)を当該セグメントの形状コストとする。 In addition, the shape cost for each segment is calculated using the degree of overlap between the segment and the initial region, or the representative value of the existence probability for the pixels constituting the segment (the average value, median value, or mode value of the existence probability) Is the shape cost of the segment.
このようにすることで領域分割の精度を低下させずにノードを減らすことができるので、精度維持と負荷減少を両立することができる。 By doing so, the number of nodes can be reduced without degrading the accuracy of area division, so that both accuracy maintenance and load reduction can be achieved.
(2)上記実施形態では画像特徴として色と形状とを用いる例を示したが、他の画像特徴を用いることもできる。例えば色と動き特徴量とを用いる。この場合、背景差分処理を行って各画素の背景差分値を動き特徴量とすることができる。また、オプティカルフロー分析を行って各画素の移動ベクトルの大きさを動き特徴量とすることもできる。 (2) In the above embodiment, an example in which color and shape are used as image features has been described, but other image features can also be used. For example, colors and motion feature quantities are used. In this case, the background difference process can be performed to set the background difference value of each pixel as the motion feature amount. In addition, the size of the movement vector of each pixel can be used as a motion feature amount by performing an optical flow analysis.
(3)上記実施形態ではグラフカット法によりエネルギーを最小化する領域分割結果を導出した。別の実施形態ではグラフカット法に代えてマルコフ連鎖モンテカルロ (Markov Chain Monte Carlo:MCMC) 法、信念伝播(Belief Propagation)法、ツリー重み再配分メッセージ伝達(Tree-Reweighted Message Passing:TRW)法を用いてエネルギーを最小化する領域分割結果を導出できる。 (3) In the above embodiment, a region division result for minimizing energy is derived by the graph cut method. In another embodiment, the Markov Chain Monte Carlo (MCMC) method, the Belief Propagation method, and the Tree-Reweighted Message Passing (TRW) method are used instead of the graph cut method. Thus, the region segmentation result that minimizes the energy can be derived.
(4)上記実施形態では、α拡張法の第1段階にて図8のグラフ400、第2段階にてグラフ401を生成してグラフカット法を行ったが、逆順とすることもできる。すなわち第1段階にて図8のグラフ401、第2段階にてグラフ400を生成してグラフカット法を行ってもよい。
(4) In the above embodiment, the graph 400 is generated in the first stage of the α expansion method and the
(5)上記実施形態では、α拡張法により画像特徴を選択したが、α拡張法に代えてα−β交換(αβ-swap)法を利用することもできる。例えば、対象物領域の評価対象特徴をラベルαとし、背景領域の評価対象特徴の1つをラベルβとしてα−β交換法を適用することができる。上述の実施形態では画像特徴は色特徴と形状特徴との2種類であるので、ラベルαはそれらの一方であり、ラベルβはそれらの他方となる。 (5) In the above embodiment, the image feature is selected by the α expansion method, but an α-β exchange (αβ-swap) method can be used instead of the α expansion method. For example, the α-β exchange method can be applied with the evaluation target feature of the object region as a label α and one of the evaluation target features of the background region as a label β. In the above-described embodiment, since there are two types of image features, color features and shape features, the label α is one of them and the label β is the other of them.
(6)3種類以上の画像特徴を用いる場合にも本発明を適用することができ、その場合にも上述したα拡張法、α−β交換法、及びその他の方法を用いて領域分割結果を導出することができる。 (6) The present invention can also be applied to the case where three or more types of image features are used, and in this case as well, region division results can be obtained using the α expansion method, α-β exchange method, and other methods described above. Can be derived.
例えば、3種類の画像特徴A,B,Cを用いる場合、α拡張法は画像特徴A,B,Cを順次、ラベルαとして処理を繰り返す。すなわち、上述の画像特徴が2種類の場合には処理は2段階に行われたが、画像特徴が3種類の場合には3段階で行われる。 For example, when three types of image features A, B, and C are used, the α expansion method repeats the processing using the image features A, B, and C as labels α sequentially. That is, the processing is performed in two stages when there are two types of image features described above, but is performed in three stages when there are three types of image features.
また、α−β交換法では画像特徴A,B,Cにおいて指定可能なラベルα,βの全ての組み合わせについて処理が繰り返される。例えば、画像特徴Aを対象物領域の評価対象特徴とし、これをラベルαとする場合、画像特徴Bを背景領域の評価対象特徴とし、これをラベルβとする処理と、画像特徴Cを背景領域の評価対象特徴とし、これをラベルβとする処理とがそれぞれ行われる。 In the α-β exchange method, the process is repeated for all combinations of labels α and β that can be specified in the image features A, B, and C. For example, when the image feature A is an evaluation target feature of the object region and this is the label α, the image feature B is the background region evaluation target feature and this is the label β, and the image feature C is the background region. And a process of setting this as a label β.
(7)上記実施形態では、各画像特徴の特徴比率αを固定して領域分割を行ったが、別の実施形態では特徴比率αを動的に設定する。この場合、特徴比率αを複数通りに設定して各設定で領域分割を行い、各設定における領域分割結果を特徴比率に依存しない一律の基準にて評価して領域評価値(領域分割評価値)を算出し、領域評価値が最大の領域分割結果を採用することができる。 (7) In the above embodiment, the feature ratio α of each image feature is fixed and the region division is performed. However, in another embodiment, the feature ratio α is dynamically set. In this case, the feature ratio α is set in a plurality of ways, the region is divided by each setting, and the region division result in each setting is evaluated based on a uniform standard independent of the feature ratio, and the region evaluation value (region division evaluation value) And the area division result having the maximum area evaluation value can be adopted.
領域評価値としては次式で定義される領域評価値Vを用いることができる。 As the region evaluation value, the region evaluation value V defined by the following equation can be used.
ここで、1/VCは色に関する領域評価値、1/VSは形状に関する領域評価値である。 Here, 1 / V C is a region evaluation value relating to color, and 1 / V S is a region evaluation value relating to shape.
式(12)における総和対象とする画素pの集合Edgeは対象物の輪郭画素からなる集合であり、また、N(p)は対象物の輪郭画素に隣接する背景画素の集合、distは画素pとqとの距離である。γは調整用の定数であり、事前実験等を通じて適切な値が予め設定される。図10はN(p)を説明する図であり、同図の左側に対象物の輪郭画素を含む部分画像の模式図を示している。ここで、n−linkのコストは図2に示すように各画素の4近傍について算出している。これに対し、N(p)は図10に示すように対象物の輪郭画素の8近傍から求めるなど、n−linkのコストを算出したときよりも多くの隣接画素との相違を評価するのがよい。こうすることで上述したエネルギー算出部412における色特徴のエネルギーによる評価よりも厳しい領域評価値を算出でき、領域分割候補間の優劣をより厳密に評価することができる。
The set Edge of the pixels p to be summed in Expression (12) is a set of contour pixels of the object, N (p) is a set of background pixels adjacent to the contour pixels of the object, and dist is the pixel p. And the distance between q and q. γ is a constant for adjustment, and an appropriate value is set in advance through a preliminary experiment or the like. FIG. 10 is a diagram for explaining N (p), and a schematic diagram of a partial image including a contour pixel of an object is shown on the left side of FIG. Here, the cost of n-link is calculated for four neighborhoods of each pixel as shown in FIG. On the other hand, N (p) is obtained from the vicinity of the contour pixel of the object as shown in FIG. 10, and the difference from the adjacent pixels is evaluated more than when the n-link cost is calculated. Good. By doing so, it is possible to calculate a region evaluation value that is stricter than the evaluation by the energy of the color feature in the
式(13)におけるMλは領域分割候補における対象物領域と初期領域とで画素位置が一致する画素数であり、M0は初期領域の画素数、MSは領域分割候補の画素数である。初期領域との一致画素数Mλが増えると1/VSは高くなる。つまり、1/VSは初期領域に対する対象物領域のマッチング率である。ただし1/MSの項により、対象物領域が単に大きいだけ(例えば対象物領域が初期領域を包含する状態)で1/VSが不当に高くなることを抑制している。 In Formula (13), M λ is the number of pixels whose pixel positions match in the object region and the initial region in the region division candidate, M 0 is the number of pixels in the initial region, and M S is the number of pixels in the region division candidate. . The number match pixels of the initial region M lambda is increased when 1 / V S is higher. That is, 1 / V S is the matching rate of the object region with respect to the initial region. The term, however 1 / M S, only simply large object area (e.g., object region encompasses state early region) 1 / V S in is prevented from becoming unduly high.
また、この場合、特徴比率αCを定数として扱い、λ=αS/αCとおけば特徴比率の制御を1変数にて行うことができる。すなわち、λを変えることで、各画像特徴を領域分割に寄与させる度合についての画像特徴相互間の比を変えることができる。例えば、領域分割部41に、寄与比λを複数通りに設定する寄与比設定部を設ける。そして、エネルギー算出部412は、画像特徴についての各帰属評価値を寄与比λで重み付けして画像内で総和し積算評価値を算出し、領域決定部413は、寄与比ごとに積算評価値に基づく探索を行って領域分割結果を求める。そして、寄与比に依存しない所定基準により各寄与比での領域分割結果である帰属状態の尤もらしさを評価して領域評価値を算出し、当該領域評価値に基づいていずれかの寄与比での領域分割結果を選択する。
In this case, if the feature ratio α C is treated as a constant and λ = α S / α C , the feature ratio can be controlled with one variable. That is, by changing λ, it is possible to change the ratio between image features with respect to the degree to which each image feature contributes to the region division. For example, the
このように、特徴比率を動的に決定することによって、対象物と背景の状況に適応して色特徴量と形状特徴量を領域分割に寄与させる率を適切に調整する効果がさらに高まるので、領域分割をより高精度に行うことが可能になる。 In this way, by dynamically determining the feature ratio, the effect of appropriately adjusting the rate of contributing the color feature amount and the shape feature amount to the region division in accordance with the situation of the object and the background is further enhanced. Region division can be performed with higher accuracy.
(8)上記実施形態において初期領域は初期領域設定部410により自動設定される例を示したが、本発明の領域分割装置を静止画からの領域分割処理に適用する場合、初期領域設定部410にポインティングデバイス等を含めて構成し、人手により初期領域を設定するのが好適である。
(8) In the above embodiment, the initial region is automatically set by the initial
1 画像監視装置、2 撮像部、3 記憶部、4 制御部、5 出力部、30 追跡情報、31 人物形状モデル、32 グラフ情報、40 人物追跡部、41 領域分割部、42 異常姿勢判定部、100 監視画像、101 人物、110 仮想空間、111 床面、112 人物位置、113 人物モデル、114 カメラ、115 撮像面、120 投影画像、121 初期領域、200 対象物シード、201 背景シード、410 初期領域設定部、411 分割コスト算出部、412 エネルギー算出部、413 領域決定部。
DESCRIPTION OF
Claims (6)
前記素領域それぞれに対して当該素領域が帰属する帰属領域と複数種類の画像特徴のうち当該素領域を評価するための一部の種類の評価対象特徴とを仮決めした試行設定において、前記素領域それぞれの前記評価対象特徴が前記試行設定にて仮決めされた帰属領域に帰属することの尤もらしさの程度を表す帰属度を前記画像内にて総和して積算評価値を算出する評価値算出部と、
複数通りの前記試行設定を設定し、前記評価値算出部により算出される前記各試行設定における前記積算評価値を比較し、前記画像全体での前記尤もらしさを最大化する前記試行設定における帰属領域を領域分割結果と決定する領域分割決定部と、
を備えたことを特徴とする領域分割装置。 In an image obtained by imaging a predetermined object together with a background, the image is divided into regions by assigning the elementary region to either the object region or the background region for each elementary region composed of at least one pixel. An area dividing device,
In the trial setting in which the attribution region to which the elementary region belongs and some types of evaluation target features for evaluating the elementary region among the plurality of types of image features are provisionally determined for each of the elementary regions, Evaluation value calculation for calculating the integrated evaluation value by summing the degree of likelihood representing the likelihood of the evaluation target feature of each area belonging to the attribution area temporarily determined in the trial setting in the image And
Setting the plurality of trial settings, comparing the integrated evaluation values in the trial settings calculated by the evaluation value calculation unit, and maximizing the likelihood of the entire image, the attribution region in the trial settings A region division determination unit for determining the region division result as
An area dividing apparatus comprising:
前記領域分割決定部は、前記複数種類の画像特徴を順次、前記第1の種類の画像特徴として設定し、当該画像特徴をラベルαとするα拡張法により前記エネルギーを最小化すること、
を特徴とする請求項2に記載の領域分割装置。 The area dividing device uses a cost as the degree of attribution, and performs area division by a graph cut method that minimizes energy given by the integrated evaluation value,
The region division determination unit sequentially sets the plurality of types of image features as the first type of image features, and minimizes the energy by an α expansion method using the image features as labels α.
The area dividing device according to claim 2.
前記領域分割決定部は、前記複数種類の画像特徴のうちの2つからなる組み合わせを順次、前記第1及び第2の種類の画像特徴の組として設定し、当該第1の種類の画像特徴をラベルαとし当該第2の種類の画像特徴をラベルβとするα−β交換法により前記エネルギーを最小化すること、
を特徴とする請求項2に記載の領域分割装置。 The area dividing device uses a cost as the degree of attribution, and performs area division by a graph cut method that minimizes energy given by the integrated evaluation value,
The region division determination unit sequentially sets a combination of two of the plurality of types of image features as a set of the first and second types of image features, and the first type of image features is set. Minimizing the energy by an α-β exchange method with a label α and the second type of image feature as a label β;
The area dividing device according to claim 2.
前記評価値算出部は、前記寄与度ごとに、前記画像特徴についての前記各帰属度を前記寄与度で重み付けて前記画像内で総和して前記積算評価値を算出し、
前記領域分割決定部は、前記寄与度ごとに前記領域分割結果を求め、前記寄与度に依存しない一律の基準により前記各寄与度における前記領域分割結果の尤もらしさを評価して領域分割評価値を算出し、当該領域分割評価値が最も高い前記領域分割結果を前記複数の寄与度について統一した領域分割結果と決定すること、
を特徴とする請求項1から請求項5のいずれか1つに記載の領域分割装置。 And a contribution setting unit that sets a plurality of contributions that contribute to the integrated evaluation value of the degree of attribution of each of the plurality of types of image features.
The evaluation value calculation unit calculates, for each contribution, the integrated evaluation value by weighting the contributions of the image features with the contributions and summing them up in the image,
The region division determination unit obtains the region division result for each contribution, evaluates the likelihood of the region division result at each contribution according to a uniform criterion independent of the contribution, and obtains a region division evaluation value. Calculating and determining the region division result having the highest region division evaluation value as a region division result unified for the plurality of contributions;
The area dividing device according to claim 1, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012147990A JP5872395B2 (en) | 2012-06-29 | 2012-06-29 | Region dividing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012147990A JP5872395B2 (en) | 2012-06-29 | 2012-06-29 | Region dividing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014010717A JP2014010717A (en) | 2014-01-20 |
JP5872395B2 true JP5872395B2 (en) | 2016-03-01 |
Family
ID=50107342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012147990A Active JP5872395B2 (en) | 2012-06-29 | 2012-06-29 | Region dividing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5872395B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6269323B2 (en) * | 2014-05-30 | 2018-01-31 | 富士ゼロックス株式会社 | Image processing apparatus, image processing method, image processing system, and program |
CN104219518B (en) * | 2014-07-31 | 2018-09-18 | 小米科技有限责任公司 | Light measuring method and device |
US9674454B2 (en) | 2014-07-31 | 2017-06-06 | Xiaomi Inc. | Light metering methods and devices |
KR101766740B1 (en) * | 2015-03-19 | 2017-08-09 | 한국전자통신연구원 | Object Segmentation Apparatus and Method Using Graph Cut Based on Region |
JP2020170408A (en) * | 2019-04-04 | 2020-10-15 | キヤノン株式会社 | Image processing device, image processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5155250B2 (en) * | 2009-05-29 | 2013-03-06 | セコム株式会社 | Object detection device |
JP2011034178A (en) * | 2009-07-30 | 2011-02-17 | Sony Corp | Apparatus and method for image processing, and program |
JP5505164B2 (en) * | 2010-07-23 | 2014-05-28 | ソニー株式会社 | Image processing apparatus and method, and program |
-
2012
- 2012-06-29 JP JP2012147990A patent/JP5872395B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014010717A (en) | 2014-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10234957B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP5404918B2 (en) | Moving locus calculating method and apparatus, and region dividing method | |
CN108509896B (en) | Trajectory tracking method and device and storage medium | |
US8437549B2 (en) | Image processing method and image processing apparatus | |
JP7263216B2 (en) | Object Shape Regression Using Wasserstein Distance | |
US8355529B2 (en) | Motion capture apparatus and method, and motion capture program | |
JP5872395B2 (en) | Region dividing device | |
JP5147761B2 (en) | Image monitoring device | |
JP2007310707A (en) | Apparatus and method for estimating posture | |
CN110782483A (en) | Multi-view multi-target tracking method and system based on distributed camera network | |
CN107833239B (en) | Optimization matching target tracking method based on weighting model constraint | |
JP2021060989A (en) | Multimodal dense correspondence imaging system | |
CN108876820A (en) | A kind of obstruction conditions based on average drifting move down object tracking method | |
CN116229189B (en) | Image processing method, device, equipment and storage medium based on fluorescence endoscope | |
JP4969291B2 (en) | Moving object tracking device | |
JP5872401B2 (en) | Region dividing device | |
Liu et al. | Geometrized transformer for self-supervised homography estimation | |
JP2012181710A (en) | Object tracking device, method and program | |
JP7334083B2 (en) | Classification reliability calculation device, region dividing device, learning device, classification reliability calculation method, learning method, classification reliability calculation program, and learning program | |
JP2005351814A (en) | Detector and detecting method | |
Souza et al. | Automatic landmark selection for active shape models | |
JP7420146B2 (en) | Camera calibration device, camera calibration method, and camera calibration program | |
JP5217917B2 (en) | Object detection and tracking device, object detection and tracking method, and object detection and tracking program | |
JP6082607B2 (en) | Object feature extraction device, object region extraction device, and object tracking device | |
KR20170058779A (en) | Method and Apparatus for Image Segmentation Based on Multiple Random Walk |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5872395 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |