[go: up one dir, main page]

JP5872395B2 - Region dividing device - Google Patents

Region dividing device Download PDF

Info

Publication number
JP5872395B2
JP5872395B2 JP2012147990A JP2012147990A JP5872395B2 JP 5872395 B2 JP5872395 B2 JP 5872395B2 JP 2012147990 A JP2012147990 A JP 2012147990A JP 2012147990 A JP2012147990 A JP 2012147990A JP 5872395 B2 JP5872395 B2 JP 5872395B2
Authority
JP
Japan
Prior art keywords
region
image
area
person
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012147990A
Other languages
Japanese (ja)
Other versions
JP2014010717A (en
Inventor
叶秋 李
叶秋 李
黒川 高晴
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012147990A priority Critical patent/JP5872395B2/en
Publication of JP2014010717A publication Critical patent/JP2014010717A/en
Application granted granted Critical
Publication of JP5872395B2 publication Critical patent/JP5872395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、人物などの対象物を背景と共に撮像した画像を対象物領域と背景領域とに領域分割する領域分割装置に関する。   The present invention relates to an area dividing device that divides an image obtained by capturing an object such as a person together with a background into an object area and a background area.

防犯等の目的で、監視画像から抽出した人物領域の形状を基に人物の姿勢を推定して異常の発生を検知することが行われている。監視画像中の人物領域は比較的小さいため、背景画素の混入や人物画素の欠損といった人物領域の抽出誤差は後段の処理に影響しやすい。そのため、人物領域の抽出精度向上が望まれる。   For the purpose of crime prevention or the like, the occurrence of an abnormality is detected by estimating the posture of a person based on the shape of a person region extracted from a monitoring image. Since the person area in the monitoring image is relatively small, extraction errors in the person area such as background pixel contamination and person pixel loss tend to affect subsequent processing. Therefore, it is desired to improve the extraction accuracy of the person region.

人物領域などの対象物領域を高精度に抽出するための技術として、画像を対象物領域と背景領域とに分割することを画素間のリンクの切断でモデル化するグラフカット法が知られている。グラフカット法では、例えば、各画素をノードに見立てたグラフを作成して当該グラフを最小のエネルギーにて対象物領域のノード群と背景領域のノード群とに分割する切断を導出する。   As a technique for extracting a target area such as a person area with high accuracy, a graph cut method is known in which an image is divided into a target area and a background area by modeling by linking links between pixels. . In the graph cut method, for example, a graph in which each pixel is regarded as a node is created, and a cut that divides the graph into a node group of an object region and a node group of a background region with a minimum energy is derived.

非特許文献1の技術では、領域分割のエネルギーとして、各画素の輝度値の対象物または背景としての尤もらしさに基づく輝度値(以下、色特徴)のエネルギーを利用すると共に、各画素の位置の対象物または背景としての尤もらしさに基づく形状特徴のエネルギーを利用している。すなわち、画像上に対象物の形状モデルを配置して形状モデルから近い距離に位置する画素ほど対象物の画素として尤もらしく、形状モデルから遠い距離に位置する画素ほど背景としても尤もらしいとされる。これにより対象物と背景との色特徴が似ている部分で生じやすかった誤分割を形状特徴により補うことができ、領域分割の精度が向上する。   In the technique of Non-Patent Document 1, the energy of the luminance value (hereinafter referred to as color feature) based on the likelihood of the luminance value of each pixel as an object or background is used as the energy for area division, and the position of each pixel is determined. The energy of the shape feature based on the likelihood as the object or the background is used. That is, a pixel located at a distance closer to the shape model by placing a shape model of the object on the image is more likely to be a pixel of the object, and a pixel located farther from the shape model is more likely to be a background. . As a result, it is possible to compensate for the erroneous division that is likely to occur in the portion where the color features of the object and the background are similar by the shape feature, and the accuracy of region division is improved.

非特許文献1の技術では、すべての画素における色特徴のエネルギーと形状特徴のエネルギーとを加算して領域分割のエネルギーを算出していた。   In the technique of Non-Patent Document 1, the energy of color segmentation and the energy of shape features in all pixels are added to calculate the energy for area division.

D. Freedman and T. Zhang. Interactive graph cut based segmentationwith shape priors. In Proceedings of the IEEE Conference on Computer Vision andPattern Recognition (CVPR), volume 1, pages 755-762, 2005.D. Freedman and T. Zhang. Interactive graph cut based segmentation with shape priors.In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), volume 1, pages 755-762, 2005.

しかしながら、従来技術では2種類の特徴量がすべての画素で用いられていたため、各特徴量が適さない部位で抽出精度が低下する問題があった。   However, in the prior art, since two types of feature values are used in all pixels, there is a problem that the extraction accuracy is lowered at a portion where each feature value is not suitable.

例えば、白いシャツを着た人物が棚及び白い壁の前を歩いているとき、シャツ付近では色の特徴量が抽出に適さずに抽出精度が低下し、脚部では形状の特徴量が抽出に適さずに抽出精度が低下する。   For example, when a person wearing a white shirt is walking in front of a shelf and a white wall, the color feature is not suitable for extraction near the shirt, and the extraction accuracy is reduced. Inadequate extraction accuracy decreases.

すなわちシャツ付近では、シャツと壁との境界以外にシャツの領域内でも壁の領域内でも色特徴のエネルギーが小さくなり得るため、シャツの一部が欠けた人物領域が抽出されたり、壁の領域を含んだ人物領域が抽出されたりしやすくなる。   In other words, in the vicinity of the shirt, the energy of the color feature can be reduced in both the shirt area and the wall area in addition to the boundary between the shirt and the wall. It is easy to extract a person area including.

一方、脚部付近では足のエッジに対しても棚のエッジに対しても形状特徴のエネルギーが小さくなり得るため、足の一部が欠けた人物領域が抽出されたり、棚の領域を含んだ人物領域が抽出されたりしやすくなる。   On the other hand, because the energy of the shape feature can be reduced near the leg edge and the edge of the shelf near the leg, a person area lacking a part of the foot is extracted or includes the area of the shelf It becomes easy to extract a person area.

このように人物と背景との間で色が似ている部分が発生したり、人物付近に背景のエッジが存在する状況で抽出精度の低下が生じるが、人物の色は様々であり、また人物の移動によって人物周囲の背景の色やエッジは変わるため、色特徴のエネルギー及び形状特徴のエネルギーの適切な寄与率の配置を予め設定することは困難である。   In this way, there are parts where the color is similar between the person and the background, or there is a background edge near the person, but the extraction accuracy decreases, but the color of the person varies, and the person Since the background color and edges around the person change due to the movement of, it is difficult to preset the arrangement of appropriate contribution ratios of the energy of the color features and the energy of the shape features.

本発明は、上記問題を鑑みてなされたものであり、複数種類の画像特徴量に基づいて画像を対象物領域と背景領域とに領域分割する領域分割装置において、対象物の部位ごとに異なる精度低下要因が生じても対象物の領域を高精度に抽出できる領域抽出装置を提供することを目的とする。   The present invention has been made in view of the above problems, and in an area dividing apparatus that divides an image into an object area and a background area based on a plurality of types of image feature amounts, different accuracy for each part of the object An object of the present invention is to provide a region extraction device that can extract a region of an object with high accuracy even if a decrease factor occurs.

本発明に係る領域分割装置は、所定の対象物を背景と共に撮像した画像において、それぞれが少なくとも1つの画素からなる素領域ごとに当該素領域を対象物領域と背景領域とのいずれかに帰属させることにより、前記画像を領域分割するものであって、前記素領域それぞれに対して当該素領域が帰属する帰属領域と複数種類の画像特徴のうち当該素領域を評価するための一部の種類の評価対象特徴とを仮決めした試行設定において、前記素領域それぞれの前記評価対象特徴が前記試行設定にて仮決めされた帰属領域に帰属することの尤もらしさの程度を表す帰属度を前記画像内にて総和して積算評価値を算出する評価値算出部と、複数通りの前記試行設定を設定し、前記評価値算出部により算出される前記各試行設定における前記積算評価値を比較し、前記画像全体での前記尤もらしさを最大化する前記試行設定における帰属領域を領域分割結果と決定する領域分割決定部と、を備える。   The area dividing device according to the present invention assigns each elementary area to either the object area or the background area for each elementary area composed of at least one pixel in an image obtained by imaging a predetermined object together with the background. Thus, the image is divided into regions, and for each of the elementary regions, an attribute region to which the elementary region belongs and some types of image features for evaluating the elementary region among a plurality of types of image features. In the trial setting in which the evaluation target feature is provisionally determined, the degree of attribution representing the likelihood of the evaluation target feature of each of the elementary regions belonging to the attribution region temporarily determined in the trial setting is included in the image And an evaluation value calculation unit that calculates the integrated evaluation value by summing the values, and sets the plurality of trial settings, and the integrated evaluation in each trial setting calculated by the evaluation value calculation unit Comparing, and a region division determination unit configured to determine a segmentation result attribution area in the trial set to maximize the likelihood in the entire image.

他の本発明に係る領域分割装置においては、前記領域分割決定部は、前記帰属領域を前記対象物領域とする前記素領域に対して前記評価対象特徴を第1の種類の前記画像特徴とし、且つ前記帰属領域を前記背景領域とする前記素領域に対して前記評価対象特徴を前記第1の種類とは異なる第2の種類の前記画像特徴とする前記試行設定を設定して前記積算評価値の前記比較を行う。   In another area dividing device according to the present invention, the area dividing determining unit sets the evaluation target feature as the first type of image feature for the elementary region with the belonging region as the target region, In addition, the integrated evaluation value is set by setting the trial setting that uses the image feature of the second type different from the first type as the evaluation target feature for the elementary region that uses the belonging region as the background region. The above comparison is made.

さらに他の本発明に係る領域分割装置は、前記帰属度としてコストを用い、前記積算評価値で与えられるエネルギーを最小化するグラフカット法により領域分割を行うものであって、前記領域分割決定部は、前記複数種類の画像特徴を順次、前記第1の種類の画像特徴として設定し、当該画像特徴をラベルαとするα拡張法により前記エネルギーを最小化する。   Still another area dividing apparatus according to the present invention performs area division by a graph cut method using cost as the degree of attribution and minimizing energy given by the integrated evaluation value, and the area division determining unit Sequentially sets the plurality of types of image features as the first type of image features, and minimizes the energy by an α expansion method using the image features as labels α.

さらに他の本発明に係る領域分割装置は、前記帰属度としてコストを用い、前記積算評価値で与えられるエネルギーを最小化するグラフカット法により領域分割を行うものであって、前記領域分割決定部は、前記複数種類の画像特徴のうちの2つからなる組み合わせを順次、前記第1及び第2の種類の画像特徴の組として設定し、当該第1の種類の画像特徴をラベルαとし当該第2の種類の画像特徴をラベルβとするα−β交換法により前記エネルギーを最小化する。   Still another area dividing apparatus according to the present invention performs area division by a graph cut method using cost as the degree of attribution and minimizing energy given by the integrated evaluation value, and the area division determining unit Sequentially sets a combination of two of the plurality of types of image features as a set of the first and second types of image features, and uses the first type of image features as a label α. The energy is minimized by an α-β exchange method in which two types of image features are labeled β.

本発明の好適な態様は、前記複数種類の画像特徴が、前記素領域の色及び位置である領域分割装置である。   A preferred aspect of the present invention is an area dividing device in which the plurality of types of image features are colors and positions of the elementary areas.

別の本発明に係る領域分割装置は、さらに、前記複数種類の画像特徴それぞれの前記帰属度を前記積算評価値に寄与させる寄与度を複数通りに設定する寄与度設定部を有し、前記評価値算出部は、前記寄与度ごとに、前記画像特徴についての前記各帰属度を前記寄与度で重み付けて前記画像内で総和して前記積算評価値を算出し、前記領域分割決定部は、前記寄与度ごとに前記領域分割結果を求め、前記寄与度に依存しない一律の基準により前記各寄与度における前記領域分割結果の尤もらしさを評価して領域分割評価値を算出し、当該領域分割評価値が最も高い前記領域分割結果を前記複数の寄与度について統一した領域分割結果と決定する。   The area dividing device according to another aspect of the present invention further includes a contribution setting unit that sets a plurality of contributions that contribute the attribution of each of the plurality of types of image features to the integrated evaluation value. For each contribution, the value calculation unit calculates the integrated evaluation value by weighting the contributions of the image features with the contributions and summing the contributions in the image. The area division result is obtained for each contribution degree, and the likelihood of the area division result at each contribution degree is evaluated according to a uniform criterion independent of the contribution degree, and the area division evaluation value is calculated. The region division result having the highest value is determined as the region division result unified for the plurality of contributions.

本発明によれば、例えば、頭部では色重視の領域分割を行い、脚部では形状重視の領域分割を行う、というように1つの対象物でも部位ごとに特徴量の寄与が調整される。これにより、対象物の部位ごとに異なる精度低下要因が生じても対象物の領域を高精度に抽出できる。   According to the present invention, the contribution of the feature amount is adjusted for each part even in one target object, for example, color-oriented area division is performed at the head and shape-oriented area division is performed at the leg. As a result, even if a different factor of decreasing accuracy occurs for each part of the object, the area of the object can be extracted with high accuracy.

本発明の実施形態に係る画像監視装置の概略の構成を示したブロック図である。1 is a block diagram showing a schematic configuration of an image monitoring apparatus according to an embodiment of the present invention. 本発明の実施形態でのグラフカット法に用いるグラフの模式図である。It is a schematic diagram of the graph used for the graph cut method in embodiment of this invention. 初期領域設定部による処理を説明する模式図である。It is a schematic diagram explaining the process by the initial region setting part. 図3に示す初期領域に基づいて設定される対象物シード及び背景シードの一例と、対象物画素の存在確率ρ及び背景画素の存在確率ρの一例とを示す模式図である。FIG. 4 is a schematic diagram illustrating an example of an object seed and a background seed set based on an initial region shown in FIG. 3, and an example of an object pixel existence probability ρ O and a background pixel existence probability ρ B. 対象物画素の存在確率ρ及び背景画素の存在確率ρの他の例を示す模式図である。It is a schematic diagram which shows the other example of the presence probability (rho) O of an object pixel, and the existence probability (rho) B of a background pixel. 本発明の実施形態に係る画像監視装置の監視動作の概略を示すフロー図である。It is a flowchart which shows the outline of the monitoring operation | movement of the image monitoring apparatus which concerns on embodiment of this invention. 人物領域抽出処理の概略のフロー図である。It is a general | schematic flowchart of a person area extraction process. α拡張法を説明するグラフの模式図である。It is a schematic diagram of the graph explaining the alpha expansion method. α拡張法による人物領域抽出処理での画素の帰属領域及び使用画像特徴の一例を説明する画像の模式図である。It is a schematic diagram of an image explaining an example of a pixel attribution region and a used image feature in a person region extraction process by an α extension method. 色に関する領域評価値の算出に用いられる、対象物の輪郭画素に隣接する背景画素の集合を説明する模式図である。It is a schematic diagram explaining the set of the background pixel adjacent to the outline pixel of a target object used for calculation of the area | region evaluation value regarding a color.

以下、本発明の領域分割装置を含んだ好適な実施の形態(以下実施形態という)の一例として、領域分割装置により監視画像上の人物領域を抽出し、人物領域の形状に基づく人物姿勢の推定により異常の発生を監視する画像監視装置1について、図面に基づいて説明する。本発明の領域分割装置は、領域分割部41として画像監視装置1に具備され、監視画像を注目人物が写っている人物領域とそれ以外の背景領域に分割する。   Hereinafter, as an example of a preferred embodiment (hereinafter referred to as an embodiment) including the region dividing device of the present invention, a person region on a monitoring image is extracted by the region dividing device, and a person posture is estimated based on the shape of the person region. An image monitoring apparatus 1 that monitors the occurrence of an abnormality will be described with reference to the drawings. The area dividing device of the present invention is provided in the image monitoring apparatus 1 as the area dividing unit 41, and divides the monitoring image into a person area in which the person of interest is shown and other background areas.

[画像監視装置1の構成]
図1は画像監視装置1の概略の構成を示したブロック図である。画像監視装置1は撮像部2、記憶部3及び出力部5が制御部4に接続されてなる。
[Configuration of Image Monitoring Apparatus 1]
FIG. 1 is a block diagram showing a schematic configuration of the image monitoring apparatus 1. The image monitoring apparatus 1 includes an imaging unit 2, a storage unit 3, and an output unit 5 connected to a control unit 4.

撮像部2は監視カメラである。撮像部2は監視空間を移動する人物を撮像するために監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像は順次、制御部4へ出力される。本実施形態においては、人物の位置を3次元座標で特定するために、2つの撮像部2−1,2−2が共通視野を有して設置される。これらの撮像部2のカメラパラメータは、予めのキャリブレーションにより計測して記憶部3に記憶させておく。   The imaging unit 2 is a surveillance camera. The imaging unit 2 is installed to face the monitoring space in order to image a person moving in the monitoring space, and images the monitoring space at a predetermined time interval. The captured monitoring images of the monitoring space are sequentially output to the control unit 4. In the present embodiment, in order to specify the position of a person with three-dimensional coordinates, the two imaging units 2-1 and 2-2 are installed with a common visual field. These camera parameters of the imaging unit 2 are measured by a pre-calibration and stored in the storage unit 3.

記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部3は、各種プログラムや各種データを記憶し、制御部4との間でこれらの情報を入出力する。   The storage unit 3 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 3 stores various programs and various data, and inputs / outputs such information to / from the control unit 4.

各種データには、追跡情報30、人物形状モデル31、グラフ情報32及びカメラパラメータ(不図示)が含まれる。   The various data includes tracking information 30, a person shape model 31, graph information 32, and camera parameters (not shown).

追跡情報30は人物を追跡した結果である人物位置、人物の追跡のために生成され当該人物を特徴づける人物テンプレートなどのデータである。人物ごとの人物IDに対応付けられて当該人物の人物位置及び人物テンプレートなどが記憶される。監視空間を模した3次元座標系における人物の頭部中心の座標が当該人物の人物位置として記憶される。   The tracking information 30 is data such as a person position that is a result of tracking a person, a person template that is generated for tracking the person and characterizes the person. The person position and person template of the person are stored in association with the person ID for each person. The coordinates of the person's head center in the three-dimensional coordinate system simulating the monitoring space are stored as the person position of the person.

人物形状モデル31は人物の形状を模した形状データである。本実施形態では、立位の人物の頭部、胴部及び脚部の3部分それぞれを鉛直軸を回転軸とする回転楕円体で近似し、これらを上から順に鉛直方向に整列した立体形状データを予め作成して記憶させておく。   The person shape model 31 is shape data imitating the shape of a person. In the present embodiment, three-dimensional shape data in which the three parts of the head, torso, and leg of a standing person are approximated by a spheroid with the vertical axis as the rotation axis, and these are aligned in the vertical direction in order from the top. Is created and stored in advance.

後述する領域分割部41は、監視画像に対して図2に示すようなグラフを生成し、当該グラフを最小のエネルギーで人物領域と背景領域とに2分割する切断をα拡張(α-expansion)法を適用したグラフカット(Graph Cut)法により導出することで監視画像から人物領域を抽出する。   An area dividing unit 41 to be described later generates a graph as shown in FIG. 2 for the monitoring image, and α-expansion is performed to divide the graph into a human area and a background area with the minimum energy. The person region is extracted from the monitoring image by deriving by the Graph Cut method to which the method is applied.

図2に示すグラフにおいて、水平面の斜視図が画素の集合である画像を模式的に表している。領域分割部41は、例えば人物領域及び背景領域の最小単位(素領域)として1つ1つの画素をノードに設定すると共に人物領域側及び背景領域側の仮想のターミナルとしてソースS及びシンクTを設定する。また各隣接ノード間のリンク(n−link)を設定し、各ノードとソースとの間及び各ノードとシンクとの間にもリンク(t−link)を設定する。さらに各リンクに当該リンクの結合度を設定する。こうして領域分割部41は監視画像に対するグラフを生成する。本発明では特にソースとして色特徴量に関するソース(色ソースS)と色特徴量に関するソース(形状ソースS)の2種類を設ける。結合度は領域分割のために行うリンクの切断に要するコストとしてエネルギーに計上される。以下、結合度の値をコストと称する。 In the graph shown in FIG. 2, the perspective view of the horizontal plane schematically represents an image that is a set of pixels. The area dividing unit 41 sets, for example, each pixel as a node as a minimum unit (elementary area) of a person area and a background area, and sets a source S and a sink T as virtual terminals on the person area side and the background area side. To do. A link (n-link) between adjacent nodes is set, and a link (t-link) is set between each node and the source and between each node and the sink. Further, the link degree of the link is set for each link. Thus, the area dividing unit 41 generates a graph for the monitoring image. In the present invention, two types of sources, ie, a color feature amount source (color source S C ) and a color feature amount source (shape source S S ) are provided. The degree of coupling is recorded in energy as the cost required for link disconnection for area division. Hereinafter, the value of the degree of coupling is referred to as cost.

領域分割部41は各n−linkに、領域分割に伴い当該n−linkを切断するときのエッジコストを設定する。また、各ノードと色ソースSとの間のt−linkには当該t−linkを切断して当該ノードを背景領域に帰属させるときの色特徴量に係るコスト(背景帰属時色コスト)を設定し、各ノードと形状ソースSとの間のt−linkには当該t−linkを切断して当該ノードを背景領域に帰属させるときの形状特徴量に係るコスト(背景帰属時形状コスト)を設定し、各ノードとシンクTとの間のt−linkには当該t−linkを切断して当該ノードを対象物領域に帰属させるときの色特徴量に係るコスト(対象物帰属時色コスト)と当該ノードを対象物領域に帰属させるときの形状特徴量に係るコスト(対象物帰属時形状コスト)を設定する。各コストは分割が正しくないときに高くなる値であるため、監視画像を人物領域側のノードと背景領域側のノードとに2分割する際に切断されるリンクのコストの総和が領域分割のエネルギーとして定義され、エネルギーを最小化する切断がα拡張法を適用したグラフカット法により導出される。エネルギーを最小化する切断を導出することは帰属の尤もらしさを最大化する領域分割を導出することと等価である。 The area dividing unit 41 sets an edge cost for cutting the n-link in accordance with the area division for each n-link. Moreover, the cost (background attributable during color cost) of the color feature when cut the t-link is assigned the node to the background area in t-link between each node and the color source S C set cost (background attributable during shape cost) of the shape feature quantity when cut the t-link is assigned the node to the background area in t-link between each node and shape the source S S Is set to t-link between each node and the sink T, and the cost related to the color feature amount when the t-link is cut and the node is attributed to the object region (color cost at the time of object attribution). ) And a cost (shape cost at the time of object attribution) related to the shape feature amount when the node is attributed to the object region. Since each cost is a value that increases when the division is not correct, the sum of the costs of the links that are disconnected when the monitoring image is divided into the person area side node and the background area side node is the energy of the area division. The cut that minimizes the energy is derived by the graph cut method using the α extension method. Deriving a cut that minimizes energy is equivalent to deriving a segmentation that maximizes the likelihood of belonging.

グラフ情報32は領域分割のエネルギーの基礎となるコストのデータである。隣接画素{p(x,y),q(x,y)}の組み合わせごとのエッジコストc(p,q)が記憶されると共に、画素p(x,y)ごとに、色ソースSとの間の背景帰属時色コストα・c(p,S)、形状ソースSとの間の背景帰属時形状コストα・c(p,S)、シンクTとの間の対象物帰属時色コストα・c(p,T)及びシンクTとの間の対象物帰属時形状コストα・c(p,T)が記憶される。 The graph information 32 is cost data that is the basis of the energy for area division. Edge cost c E (p, q) for each combination of adjacent pixels {p (x p , y p ), q (x q , y q )} is stored and for each pixel p (x p , y p ) the background attributable when color cost between the color source S C α C · c C ( p, S C), background attributed when the shape cost between the shape source S S α S · c S ( p, S S ), The color cost α C · c C (p, T) when the object belongs to the sink T and the shape cost α S · c S (p, T) when the object belongs to the sink T The

ここで、αは領域分割のエネルギーに対する色特徴量のエネルギー(色エネルギー)の寄与度合いと、αは領域分割のエネルギーに対する形状特徴量のエネルギー(形状エネルギー)の寄与度合いの比率(特徴比率)である。α,αには0より大きな値を設定する。 Here, α C is the degree of contribution of the energy (color energy) of the color feature quantity to the energy of area division, and α S is the ratio of the degree of contribution of the energy (shape energy) of the shape feature quantity to the energy of area division (feature ratio). ). A value larger than 0 is set to α C and α S.

制御部4は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部3からプログラムを読み出して実行することで人物追跡部40、領域分割部41、異常姿勢判定部42等として機能する。   The control unit 4 is configured by using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads out and executes a program from the storage unit 3 to execute a person tracking unit. 40, functions as an area division unit 41, an abnormal posture determination unit 42, and the like.

人物追跡部40は撮像部2からの監視画像を処理して、監視画像上に写っている各人物の人物位置を追跡し、当該監視画像、当該人物位置、当該人物に付与した人物ID及び当該監視画像を撮像した撮像部2に予め付与されたカメラIDを領域分割部41に出力する。   The person tracking unit 40 processes the monitoring image from the imaging unit 2 to track the person position of each person shown on the monitoring image, and the monitoring image, the person position, the person ID assigned to the person, and the person The camera ID assigned in advance to the image capturing unit 2 that captured the monitoring image is output to the region dividing unit 41.

領域分割部41は人物追跡部40から監視画像及び各人物の人物位置を入力されると、当該監視画像を当該人物が写っている人物領域(対象物領域)とそれ以外の背景領域とに領域分割し、領域分割結果を異常姿勢判定部42に出力する。   When the monitor image and the person position of each person are input from the person tracking unit 40, the area dividing unit 41 is divided into a person area (object area) in which the person is reflected and other background areas. The result of the division is output to the abnormal posture determination unit 42.

領域分割部41は、初期領域設定部410、分割コスト算出部411、エネルギー算出部412及び領域決定部413から構成される。   The area dividing unit 41 includes an initial area setting unit 410, a division cost calculating unit 411, an energy calculating unit 412, and an area determining unit 413.

以下、領域分割部41を構成する各部について説明する。   Hereinafter, each part which comprises the area | region division part 41 is demonstrated.

初期領域設定部410は、人物領域の初期値として監視画像上に人物領域の概略位置と概略形状とを有した初期領域を設定し、初期領域の情報を分割コスト算出部411に出力する。初期領域は領域分割の手がかりとなる。   The initial region setting unit 410 sets an initial region having the approximate position and approximate shape of the person region on the monitoring image as the initial value of the person region, and outputs the initial region information to the division cost calculation unit 411. The initial area is a clue for area division.

具体的には初期領域設定部410は、人物追跡部40から入力された各人物の人物位置及び人物形状モデル31を参照し、人物位置を基準にして人物形状モデル31を監視画像上に配置することにより初期領域を設定する。そのために初期領域設定部410は、監視空間を模した仮想空間中の人物位置に人物形状モデル31を配置し、配置した人物形状モデル31をカメラパラメータを用いた座標変換により監視画像に投影し、投影した領域を初期領域に設定する。初期領域は人物ごとに設定され、さらに当該人物を複数の撮像部2により撮像している場合は各撮像部2が撮像した監視画像ごとに設定される。撮像部2とカメラパラメータと監視画像との対応関係はカメラIDにより特定される。   Specifically, the initial region setting unit 410 refers to the person position and person shape model 31 of each person input from the person tracking unit 40, and places the person shape model 31 on the monitoring image based on the person position. To set the initial area. For this purpose, the initial region setting unit 410 arranges the person shape model 31 at a person position in a virtual space imitating the monitoring space, projects the arranged person shape model 31 onto the monitoring image by coordinate conversion using camera parameters, Set the projected area as the initial area. The initial region is set for each person, and when the person is captured by a plurality of imaging units 2, the initial area is set for each monitoring image captured by each imaging unit 2. The correspondence between the imaging unit 2, camera parameters, and monitoring image is specified by the camera ID.

図3は初期領域設定部410による処理を説明する模式図である。図3(a)は人物101が写った監視画像100である。初期領域設定部410には当該監視画像100と、当該人物101を追跡して得た仮想空間110におけるXYZ座標系の人物位置112が入力される。入力される人物位置112は頭部中心座標で代表されている。図3(b)は人物モデル113から初期領域121を生成する処理を説明する仮想空間110の模式的な斜視図であり、図3(c)はその処理結果を示す模式図である。初期領域設定部410は、人物モデル113を、その頭部中心を人物位置112に合わせ、その下端を床面111に接地させて仮想空間110に配置し、カメラパラメータを用いて人物モデル113を撮像部2(カメラ114)の撮像面115のxy座標系に投影する。これにより監視画像100と同じxy座標系の投影画像120に人物モデル113を投影した初期領域121が算出される。   FIG. 3 is a schematic diagram for explaining processing by the initial region setting unit 410. FIG. 3A shows a monitoring image 100 in which the person 101 is captured. The initial region setting unit 410 receives the monitoring image 100 and the person position 112 in the XYZ coordinate system in the virtual space 110 obtained by tracking the person 101. The input person position 112 is represented by head center coordinates. FIG. 3B is a schematic perspective view of the virtual space 110 for explaining the processing for generating the initial region 121 from the person model 113, and FIG. 3C is a schematic diagram showing the processing result. The initial region setting unit 410 places the human model 113 in the virtual space 110 with its head center aligned with the human position 112, with its lower end grounded on the floor 111, and images the human model 113 using camera parameters. Projecting onto the xy coordinate system of the imaging surface 115 of the unit 2 (camera 114). As a result, an initial region 121 in which the person model 113 is projected onto the projection image 120 having the same xy coordinate system as that of the monitoring image 100 is calculated.

領域分割部41は、互いに種類が異なる複数種類の画像特徴を用いて領域分割を行う。例えば領域分割部41は対象物及び背景の色特徴と対象物の形状特徴とを領域分割に用いる。複数種類の画像特徴を用いる。そして例えば対象物と背景との色特徴が似ており色特徴による領域分割の精度が低下する対象物の部位では形状特徴を利用し、周辺に背景のエッジが多くて形状特徴による領域分割の精度が低下する対象物の部位では色特徴を利用するといったように、ノードごとに当該ノードの帰属の尤もらしさを評価するために最良の1種類の画像特徴(評価対象特徴)を選択することで、単独の画像特徴を用いた場合よりも高精度な領域分割を行う。このとき対象物と背景との間の関係は多様であり、予めノードと評価対象特徴との最良の関係を設定するのは難しい。そこで領域分割部41は、ノードと評価対象特徴との最良の関係を監視画像ごとに動的に設定して領域分割結果を求める。   The area dividing unit 41 performs area division using a plurality of types of image features having different types. For example, the area dividing unit 41 uses the color characteristics of the object and the background and the shape characteristics of the object for area division. Use multiple types of image features. For example, the shape feature is used in the part of the target where the color characteristics of the object and the background are similar and the accuracy of area division due to the color feature decreases, and the accuracy of area division based on the shape characteristic is large because there are many background edges in the vicinity. By selecting the best one type of image feature (evaluation target feature) for evaluating the likelihood of the attribution of the node for each node, such as using a color feature at the part of the target for which The region segmentation is performed with higher accuracy than when a single image feature is used. At this time, there are various relationships between the object and the background, and it is difficult to set the best relationship between the node and the evaluation target feature in advance. Therefore, the region dividing unit 41 dynamically sets the best relationship between the node and the evaluation target feature for each monitoring image and obtains a region dividing result.

本実施形態において領域分割部41は、積算評価値として下記式(1)で定義されるエネルギーEを計算する。エネルギーEは色エネルギーE、形状エネルギーE及びエッジエネルギーEの線形和で定義される。領域分割部41は当該エネルギーEを最小化する領域分割結果をα拡張法を適用したグラフカット法により導出する。 In the present embodiment, the region dividing unit 41 calculates energy E defined by the following formula (1) as an integrated evaluation value. The energy E is defined as a linear sum of color energy E C , shape energy E S and edge energy E E. The region dividing unit 41 derives a region dividing result that minimizes the energy E by a graph cut method to which the α expansion method is applied.

Figure 0005872395
Figure 0005872395

ここで、Aは各ノードがそれぞれ対象物領域と背景領域とのいずれに帰属するか、つまり各ノードがいずれの領域を帰属領域とするかを設定したラベル行列である。また、iは評価対象特徴であり、Cは色特徴、Sは形状特徴に対応するラベルである。   Here, A is a label matrix in which each node belongs to either the object area or the background area, that is, which area each node belongs to. Further, i is a feature to be evaluated, C is a color feature, and S is a label corresponding to the shape feature.

すなわち式(1)の右辺第1項は、評価対象特徴が色特徴である背景画素pの背景帰属時色コストα・c(p,S)と、評価対象特徴が形状特徴である背景画素pの背景帰属時形状コストα・c(p,S)と、評価対象特徴が色特徴である人物画素pの対象物帰属時色コストα・c(p,T)と、評価対象特徴が形状特徴である人物画素pの対象物帰属時形状コストα・c(p,T)の和を表す。 That is, the first term on the right side of Equation (1) is the color cost α C · c C (p, S C ) at the time of background attribution of the background pixel p whose evaluation target feature is a color feature, and the evaluation target feature is a shape feature. Shape cost α S · c S (p, S S ) at the time of background attribution of the background pixel p and color cost α C · c C (p, T) at the time of object attribution of the person pixel p whose evaluation target feature is a color feature And the sum of the shape cost α S · c S (p, T) at the time of object attribution of the person pixel p whose evaluation target feature is a shape feature.

また式(1)の右辺第2項は、領域分割により切断されたn−linkすなわち人物画素と背景画素との境界に設定されたエッジコストc(p,q)の和を表す。 The second term on the right side of the equation (1) represents the sum of n-links cut by region division, that is, the edge cost c E (p, q) set at the boundary between the person pixel and the background pixel.

分割コスト算出部411は、初期領域を基準にして、監視画像の各画素に対し、当該画素の画像特徴が対象物領域及び背景領域それぞれに帰属することの尤もらしくなさ、すなわち尤もらしさの程度の低さを表すコスト値を画像特徴ごとに算出する。   The division cost calculation unit 411 uses the initial region as a reference, and for each pixel of the monitoring image, it is unlikely that the image feature of the pixel belongs to each of the object region and the background region, that is, the degree of likelihood. A cost value representing the low is calculated for each image feature.

具体的には分割コスト算出部411は、初期領域内外の色を基準に、監視画像から対象物の色特徴量(対象物色特徴)及び背景の色特徴量(背景色特徴)を抽出する。そして、対象物色特徴と各画素とを比較して当該画素が対象物領域に帰属することの尤もらしくなさを表す対象物帰属時色コストc(p,T)を算出し、これにαを乗じたα・c(p,T)を記憶部3のグラフ情報32に記憶させる。また、背景色特徴と各画素の色特徴とを比較して当該画素が背景領域に帰属することの尤もらしくなさを表す背景帰属時色コストを算出し、これにαを乗じたα・c(p,S)を記憶部3のグラフ情報32に記憶させる。 Specifically, the division cost calculation unit 411 extracts the color feature amount of the object (object color feature) and the background color feature amount (background color feature) from the monitoring image with reference to the colors inside and outside the initial region. Then, the object color feature is compared with each pixel to calculate a color cost c C (p, T) at the time of object assignment representing the likelihood that the pixel belongs to the object region, and α C Α C · c C (p, T) multiplied by is stored in the graph information 32 of the storage unit 3. Further, the pixel is calculated the background attributable during color costs representing a plausible lack of it attributable to the background area by comparing the color feature of each pixel and the background color characteristics, alpha C · multiplied by the alpha C to c C (p, S C ) is stored in the graph information 32 of the storage unit 3.

さらに分割コスト算出部411は、初期領域の形状を基準に各画素の位置が対象物領域内である確率と背景領域内である確率とを設定する。そして分割コスト算出部411は各画素の位置が対象物領域内である確率に基づいて当該画素が対象物領域に帰属することの尤もらしくなさを表す対象物帰属時形状コストc(p,T)を算出し、これにαを乗じたα・c(p,T)を記憶部3のグラフ情報32に記憶させる。また分割コスト算出部411は、各画素の位置が背景領域内である確率に基づいて当該画素が背景領域に帰属することの尤もらしくなさを表す背景帰属時形状コストを算出し、これにαを乗じたα・c(p,S)を記憶部3のグラフ情報32に記憶させる。 Further, the division cost calculation unit 411 sets a probability that the position of each pixel is in the object region and a probability that it is in the background region, based on the shape of the initial region. Then, the division cost calculation unit 411 represents the object belonging shape cost c S (p, T) indicating the likelihood that the pixel belongs to the object area based on the probability that the position of each pixel is in the object area. ) And α S · c S (p, T) obtained by multiplying this by α S is stored in the graph information 32 of the storage unit 3. Further, the division cost calculation unit 411 calculates a shape cost at the time of background attribution that represents the likelihood that the pixel belongs to the background region based on the probability that the position of each pixel is in the background region, and α S Α S · c S (p, S S ) multiplied by is stored in the graph information 32 of the storage unit 3.

また分割コスト算出部411は各隣接画素間に対してその輝度差に応じたエッジコストc(p,q)を算出して記憶部3のグラフ情報32に記憶させる。 Further, the division cost calculation unit 411 calculates an edge cost c E (p, q) corresponding to the luminance difference between the adjacent pixels and stores the calculated edge cost c E (p, q) in the graph information 32 of the storage unit 3.

以下、エッジコストc(p,q)の算出について説明する。 Hereinafter, calculation of the edge cost c E (p, q) will be described.

分割コスト算出部411は、画素pとその隣接画素qの間に設定したn−linkそれぞれに対して次式で表されるエッジコストc(p,q)を算出する。 The division cost calculation unit 411 calculates an edge cost c E (p, q) represented by the following expression for each n-link set between the pixel p and the adjacent pixel q.

Figure 0005872395
Figure 0005872395

ここで、Ipは画素pの画素値、Iqは隣接画素qの画素値、dist(p,q)は画素pの位置と隣接画素qの位置との間の距離を表す。βは調整用の定数であり、事前実験等を通じて適切な値が予め設定される。すなわち分割コスト算出部411は各隣接画素間に対して、互いの画素値が相違するほど小さく、互いの画素値が類似するほど大きなエッジコストc(p,q)を設定する。 Here, Ip represents the pixel value of the pixel p, Iq represents the pixel value of the adjacent pixel q, and dist (p, q) represents the distance between the position of the pixel p and the position of the adjacent pixel q. β is a constant for adjustment, and an appropriate value is set in advance through a preliminary experiment or the like. That is, the division cost calculation unit 411 sets an edge cost c E (p, q) that is smaller as the pixel values are different from each other and similar to each other.

以下、対象物シードの設定と対象物帰属時色コストc(p,T)の算出について説明する。 Hereinafter, the setting of the object seed and the calculation of the object belonging attribution color cost c C (p, T) will be described.

分割コスト算出部411は、監視画像における初期領域の内側の画素値から対象物の色特徴の基準とする対象物色特徴を抽出する。対象物領域を高精度に抽出するには、対象物色特徴は、対象物の一部である可能性が十分に高く、対象物を構成する色を網羅していることが望ましい。そこで、分割コスト算出部411は、初期領域の中心軸上の画素群を対象物シードと定め、当該対象物シードの画素値の正規化色ヒストグラムhを対象物色特徴として抽出する。 The division cost calculation unit 411 extracts an object color feature that serves as a reference for the color feature of the object from pixel values inside the initial region in the monitoring image. In order to extract the object region with high accuracy, the object color feature is sufficiently likely to be a part of the object, and it is desirable to cover the colors constituting the object. Therefore, the division cost calculation unit 411 determines a pixel group on the central axis of the initial region as an object seed, and extracts a normalized color histogram h O of the pixel value of the object seed as an object color feature.

図4には図3の初期領域121の中心軸上に設定した対象物シード200を例示している。対象物シード200は対象物領域か背景物領域かが曖昧な初期領域121の輪郭付近を含まないように設定されている。   FIG. 4 illustrates an object seed 200 set on the central axis of the initial region 121 of FIG. The object seed 200 is set so as not to include the vicinity of the outline of the initial area 121 where the object area or the background object area is ambiguous.

分割コスト算出部411は、以下に示す式(3)及び式(4)に従い対象物帰属時色コストc(p,T)を算出する。 The division cost calculation unit 411 calculates the color cost c C (p, T) at the time of object assignment according to the following expressions (3) and (4).

Figure 0005872395
Figure 0005872395

Figure 0005872395
Figure 0005872395

ここで、Ipは画素pの画素値、hは対象物シードの正規化色ヒストグラムであり、h(Ip)は画素値Ipが対象物の色である確率を表す。L(p|оbj)の値は画素pの色が対象物の色である確率が高いほど小さく、同確率が低いほど大きくなる。K(>1)は大きなコスト値を表す定数であり、十分に大きな値が予め設定される。 Here, Ip is the pixel value of the pixel p, h O is a normalized color histogram of the object seed, and h O (Ip) represents the probability that the pixel value Ip is the color of the object. The value of L C (p | оbj) decreases as the probability that the color of the pixel p is the color of the object is higher, and increases as the probability is lower. K (> 1) is a constant representing a large cost value, and a sufficiently large value is set in advance.

このように分割コスト算出部411は、各画素pとシンクTとの間に、当該画素pの色が対象物らしいほど低く、当該画素pの色が対象物らしくないほど高い対象物帰属時色コストc(p,T)を設定する。 As described above, the division cost calculation unit 411 has an object belonging color between each pixel p and the sink T that is so low that the color of the pixel p seems to be an object, and so high that the color of the pixel p does not seem to be an object. A cost c C (p, T) is set.

以下、背景シードの設定と背景帰属時色コストc(p,S)の算出について説明する。 Hereinafter, setting of the background seed and calculation of the color cost at the time of background attribution c C (p, S C ) will be described.

分割コスト算出部411は、監視画像における初期領域の外側の画素値から背景の色特徴の基準とする背景色特徴を抽出する。対象物領域を高精度に抽出するには、背景シードは、背景の一部である可能性が十分に高く、対象物との境界に存在する背景の色を網羅していることが望ましい。そこで、分割コスト算出部411は、初期領域を所定距離だけ離れて囲む外周部の画素群を背景シードと定め、当該背景シードの画素値の正規化色ヒストグラムhを背景色特徴として抽出する。具体的には、分割コスト算出部411は、初期領域を所定回数だけ膨張して膨張領域の周囲画素を背景シードと定める。膨張回数は初期領域の近似誤差より大きく定めることができ、例えば10回程度とすることができる。また、α拡張法を適用したグラフカット法を用いる本実施形態では、2段階でグラフカット法を実行する。この第1段階において色特徴により抽出できなかった対象物画素を第2段階で抽出するために分割コスト算出部411は第1段階にて得られた対象物画素を第2段階の背景シードに加える。 The division cost calculation unit 411 extracts a background color feature that serves as a reference for the background color feature from pixel values outside the initial region in the monitoring image. In order to extract the object region with high accuracy, it is highly likely that the background seed is a part of the background, and it is desirable to cover the background color existing at the boundary with the object. Therefore, dividing the cost calculation unit 411, defined as background seed pixel group of an outer peripheral portion surrounding off the initial region by a predetermined distance, extracting the normalized color histogram h B of the pixel values of the background seed as the background color characteristics. Specifically, the division cost calculation unit 411 expands the initial region a predetermined number of times and determines the surrounding pixels of the expanded region as the background seed. The number of expansions can be determined to be larger than the approximate error in the initial region, and can be, for example, about 10 times. In the present embodiment using the graph cut method to which the α expansion method is applied, the graph cut method is executed in two stages. In order to extract the object pixel that could not be extracted due to the color feature in the first stage in the second stage, the division cost calculation unit 411 adds the object pixel obtained in the first stage to the background seed in the second stage. .

図4には初期領域121の輪郭から10画素だけ離れた外周部に設定した背景シード201を例示している。背景シード201は対象物領域か背景物領域かが曖昧な初期領域121の輪郭付近を含まないように設定されている。   FIG. 4 exemplifies a background seed 201 set in the outer peripheral portion separated by 10 pixels from the outline of the initial region 121. The background seed 201 is set so as not to include the vicinity of the contour of the initial area 121 where the object area or the background object area is ambiguous.

分割コスト算出部411は、以下に示す式(5)及び式(6)に従い背景帰属時色コストc(p,S)を算出する。 The division cost calculation unit 411 calculates the background attribution color cost c C (p, S C ) according to the following formulas (5) and (6).

Figure 0005872395
Figure 0005872395

Figure 0005872395
Figure 0005872395

ここで、hは背景シードの正規化色ヒストグラムであり、h(Ip)は画素値Ipが背景領域の色である確率を表す。K,Ipは上述の通りである。L(p|bkg)の値は画素pの色が背景の色である確率が高いほど小さく、同確率が低いほど大きくなる。 Here, h B is a normalized color histogram of the background seed, and h B (Ip) represents the probability that the pixel value Ip is the color of the background region. K and Ip are as described above. The value of L C (p | bkg) decreases as the probability that the color of the pixel p is the background color is higher, and increases as the probability is lower.

このように分割コスト算出部411は、各画素pと色ソースSとの間に、当該画素pの色が背景らしいほど低く、当該画素pの色が背景らしくないほど高い背景帰属時色コストc(p,S)を設定する。 Dividing the cost calculation unit 411 thus is between each pixel p and the color source S C, low color of the pixel p is more likely background, higher background attributable during color cost color not like the background of the pixel p c C (p, S C ) is set.

以下、対象物帰属時形状コストc(p,T)の算出について説明する。 Hereinafter, calculation of the object belonging shape cost c S (p, T) will be described.

分割コスト算出部411は、初期領域の位置及び形状に基づいて各画素位置における対象物画素の存在確率ρを設定する。具体的には分割コスト算出部411は、対象物画素の存在確率ρとして初期領域の外側の画素に0、初期領域の内側で初期領域の輪郭からの距離が遠い画素ほど1に近づく値を設定する。対象物画素の存在確率ρの例を図4に示す。図4に示す存在確率ρのグラフの横軸は、図4の上部に示す初期領域121を含む画像にて一点鎖線で示すx軸方向の直線に沿った位置を画素数で表しており、縦軸がρである。この例ではρは対象物シード200で最大値である1となり、初期領域121の輪郭での値0へ向けて直線的に減少し、当該輪郭より外側では0となる。 The division cost calculation unit 411 sets the existence probability ρ O of the target pixel at each pixel position based on the position and shape of the initial region. Specifically, the division cost calculation unit 411 sets the object pixel existence probability ρ O to 0 for pixels outside the initial region, and approaches 1 for pixels farther away from the contour of the initial region inside the initial region. Set. An example of the existence probability ρ O of the object pixel is shown in FIG. The horizontal axis of the graph of the existence probability ρ O shown in FIG. 4 represents the position along the straight line in the x-axis direction indicated by a dashed line in the image including the initial region 121 shown in the upper part of FIG. The vertical axis is ρ O. In this example, ρ O becomes 1 which is the maximum value in the object seed 200, decreases linearly toward the value 0 in the contour of the initial region 121, and becomes 0 outside the contour.

分割コスト算出部411は、以下に示す式(7)及び式(8)に従いρを基にした対象物帰属時形状コストc(p,T)を算出する。 The division cost calculation unit 411 calculates the object belonging shape cost c S (p, T) based on ρ O according to the following expressions (7) and (8).

Figure 0005872395
Figure 0005872395

Figure 0005872395
Figure 0005872395

ここで、ρ(p)は画像中において画素pの位置が対象物領域内である確率を表す。Kは上述の通りである。L(p|оbj)の値は画素pの位置が対象物領域内である確率が高いほど小さく、同確率が低いほど大きくなる。 Here, ρ O (p) represents a probability that the position of the pixel p in the image is within the object region. K is as described above. The value of L S (p | оbj) decreases as the probability that the position of the pixel p is within the object region is higher, and increases as the probability is lower.

すなわち、分割コスト算出部411は、各画素pとシンクTとの間に、当該画素pの位置が対象物らしいほど低く、当該画素pの位置が対象物らしくないほど高い対象物帰属時形状コストc(p,T)を設定する。 In other words, the division cost calculation unit 411 has a shape cost at the time of object attribution that is so low that the position of the pixel p between the pixels p and the sink T seems to be an object and the position of the pixel p does not seem to be an object. c S (p, T) is set.

以下、背景帰属時形状コストc(p,S)の算出について説明する。 Hereinafter, calculation of the shape cost at the time of background attribution c S (p, S S ) will be described.

分割コスト算出部411は、初期領域の位置及び形状に基づいて各画素位置における背景画素の存在確率ρを設定する。具体的には分割コスト算出部411は、背景画素の存在確率ρとして背景シード201の内側の画素に0、背景シード201の外側で背景シード201からの距離が遠い画素ほど1に近づく値を設定する。背景画素の存在確率ρの例を図4に示す。図4に示す存在確率ρのグラフの横軸は、図4の上部に示す初期領域121を含む画像にて一点鎖線で示すx軸方向の直線に沿った位置を画素数で表しており、縦軸がρである。この例ではρは背景シード201から外側へ向けて直線的に増加する。 The division cost calculation unit 411 sets the background pixel existence probability ρ B at each pixel position based on the position and shape of the initial region. Specifically, the division cost calculation unit 411 sets the value of the background pixel existence probability ρ B to 0 for the pixels inside the background seed 201 and the values closer to 1 for the pixels farther away from the background seed 201 outside the background seed 201. Set. An example of the background pixel existence probability ρ B is shown in FIG. The horizontal axis of the graph of the existence probability ρ B shown in FIG. 4 represents the position along the straight line in the x-axis direction indicated by the alternate long and short dash line in the image including the initial region 121 shown in the upper part of FIG. the vertical axis is ρ B. In this example [rho B increases linearly outward from the background seeds 201.

分割コスト算出部411は、以下に示す式(9)及び式(10)に従いρを基にした背景帰属時形状コストc(p,S)を算出する。 The division cost calculation unit 411 calculates a background belonging-time shape cost c S (p, S S ) based on ρ B according to the following equations (9) and (10).

Figure 0005872395
Figure 0005872395

Figure 0005872395
Figure 0005872395

ここで、ρ(p)は画像中において画素pの位置が背景領域内である確率を表す。Kは上述の通りである。L(p|bkg)の値は画素pの位置が背景領域内である確率が高いほど小さく、同確率が低いほど大きくなる。 Here, ρ B (p) represents the probability that the position of the pixel p in the image is in the background area. K is as described above. The value of L S (p | bkg) decreases as the probability that the position of the pixel p is in the background region is higher, and increases as the probability is lower.

このように分割コスト算出部411は、各画素pとソースSとの間に、当該画素pの位置が背景らしいほど低く、当該画素pの位置が背景らしくないほど高い背景帰属時形状コストc(p,S)を設定する。 In this way, the division cost calculation unit 411 has a background belonging shape cost c S between each pixel p and the source S that is so low that the position of the pixel p seems to be background, and so high that the position of the pixel p does not seem to be background. (P, S S ) is set.

なお、図4では対象物画素の存在確率ρと背景画素の存在確率ρの値を初期領域121と背景シード201とに挟まれる周囲にて共に0とする例を示したが、図5のように初期領域121の境界の外側及び内側にρ及びρが0より大きな値となる範囲を設定してもよい。 FIG. 4 shows an example in which the values of the object pixel existence probability ρ O and the background pixel existence probability ρ B are both set to 0 around the initial region 121 and the background seed 201. As described above, ranges where ρ O and ρ B are larger than 0 may be set outside and inside the boundary of the initial region 121.

このように分割コスト算出部411が各コストを設定することにより監視画像を領域分割するためのグラフが完成する。   In this way, the division cost calculation unit 411 sets each cost, thereby completing a graph for dividing the monitoring image into regions.

エネルギー算出部412(評価値算出部)は、各画素の帰属領域及び各画素の評価対象特徴を仮決めした試行設定において各画素の設定と対応するコストを当該画素の帰属度として記憶部3から読み出し、これらを画像内にて総和して当該試行設定が表す領域分割のエネルギー(積算評価値)を算出する。具体的にはエネルギー算出部412は式(1)に従いエネルギーEを算出する。   The energy calculation unit 412 (evaluation value calculation unit) uses the cost corresponding to the setting of each pixel as the degree of attribution of the pixel in the trial setting in which the attribution region and the evaluation target feature of each pixel are provisionally determined from the storage unit 3. These are read out and summed up in the image to calculate the energy (integrated evaluation value) of area division represented by the trial setting. Specifically, the energy calculation unit 412 calculates energy E according to the equation (1).

試行設定は複数通り生成され、その生成は領域決定部413(領域分割決定部)が行う。つまり、エネルギー算出部412がエネルギーEを計算する際の式(1)における帰属領域設定A及び評価対象特徴の種別iは領域決定部413により都度仮決めされる。領域決定部413は複数通りの試行設定におけるエネルギーEを比較し、エネルギーEが最小となる試行設定における帰属領域設定を検出することで、各画素の評価対象特徴が当該画素の帰属領域に帰属することの尤もらしさが画像全体として最大となる試行設定を検出し、検出した試行設定における帰属領域を領域分割結果と決定する。領域決定部413は、決定した領域分割結果を異常姿勢判定部42に出力する。   A plurality of trial settings are generated, and the generation is performed by the region determination unit 413 (region division determination unit). That is, the region determination unit 413 temporarily determines the belonging region setting A and the evaluation target feature type i in the equation (1) when the energy calculation unit 412 calculates the energy E. The region determination unit 413 compares the energy E in a plurality of trial settings, and detects the belonging region setting in the trial setting that minimizes the energy E, whereby the evaluation target feature of each pixel belongs to the belonging region of the pixel. A trial setting in which the likelihood of this is maximized for the entire image is detected, and the belonging area in the detected trial setting is determined as a region division result. The region determination unit 413 outputs the determined region division result to the abnormal posture determination unit 42.

このように領域決定部413は、試行設定を変動させながら当該試行設定をエネルギー算出部412に入力してエネルギーを算出させる処理を繰り返して、エネルギーが最小となる試行設定を探索することにより、各画素の評価対象特徴と当該画素の帰属領域との尤もらしさが画像全体として最大となる領域分割結果を導出する。   In this way, the region determination unit 413 repeats the process of calculating the energy by inputting the trial setting to the energy calculation unit 412 while changing the trial setting, and searches for the trial setting that minimizes the energy. A region division result is derived in which the likelihood of the pixel evaluation target feature and the pixel's attribution region is maximized for the entire image.

こうすることで監視画像ごとに各素領域を評価するための評価対象特徴を適応的に選択した領域分割が可能となる。これにより対象物の各部位にてそれぞれに精度低下しにくい画像特徴を選択できるので、対象物と背景との関係の多様性に適応した高精度な領域分割を行うことができる。   By doing so, it is possible to divide the area by adaptively selecting the evaluation target feature for evaluating each elementary area for each monitoring image. As a result, it is possible to select image features that are unlikely to deteriorate in accuracy at each part of the object, and thus it is possible to perform high-precision area division adapted to the diversity of the relationship between the object and the background.

エネルギーが最小となる帰属領域及び評価対象特徴はα拡張法を適用したグラフカット法により効率的に決定することができる。処理の詳細は動作の説明にて後述する。   The attribution region and the evaluation target feature with the minimum energy can be efficiently determined by the graph cut method to which the α extension method is applied. Details of the processing will be described later in the description of the operation.

異常姿勢判定部42は、領域分割部41が抽出した各人物の人物領域の形状が異常事態の発生を示す異常姿勢であるか否かを判定し、人物領域のいずれかが異常姿勢と判定された場合に所定の異常信号を出力部5に出力する。具体的には、異常姿勢判定部42は各人物領域の形状と予め登録してある異常姿勢パターンとの類似度を算出して予め設定したしきい値と比較し、しきい値以上の類似度が算出された人物領域を異常姿勢であると判定し、そうでなければ異常姿勢でないと判定する。例えば、両手を挙げた姿勢の形状パターンを強盗事件の発生を示す異常姿勢パターンとして予め登録しておくことができる。   The abnormal posture determination unit 42 determines whether or not the shape of the person area of each person extracted by the region dividing unit 41 is an abnormal posture indicating the occurrence of an abnormal situation, and any of the person regions is determined to be an abnormal posture. A predetermined abnormality signal is output to the output unit 5. Specifically, the abnormal posture determination unit 42 calculates the degree of similarity between the shape of each person area and the abnormal posture pattern registered in advance and compares it with a preset threshold value. It is determined that the person area for which is calculated is an abnormal posture, otherwise it is determined that it is not an abnormal posture. For example, a posture shape pattern with both hands raised can be registered in advance as an abnormal posture pattern indicating the occurrence of a robbery case.

出力部5は異常姿勢判定部42から異常信号が入力されると当該異常信号を外部に出力する外部出力装置である。例えば、出力部5は、電話網あるいはインターネットなどの広域網を介して警備センターと接続された通信回路で構成され、警備センターに異常信号を送信することによって異常事態の発生を通報する。   The output unit 5 is an external output device that outputs an abnormal signal to the outside when an abnormal signal is input from the abnormal posture determination unit 42. For example, the output unit 5 includes a communication circuit connected to a security center via a telephone network or a wide area network such as the Internet, and notifies the occurrence of an abnormal situation by transmitting an abnormal signal to the security center.

[画像監視装置1の動作]
図6は画像監視装置1の監視動作の概略を示すフロー図である。図6を参照して画像監視装置1の動作を説明する。監視空間が無人であることを確認した管理者が装置に電源を投入すると、各部、各手段が初期化され動作を開始する(S1)。初期化の後は、撮像部2から制御部4へ新たな監視画像が入力されるたびに、ステップS2〜S7の処理がループ処理として繰り返される。
[Operation of the image monitoring apparatus 1]
FIG. 6 is a flowchart showing an outline of the monitoring operation of the image monitoring apparatus 1. The operation of the image monitoring apparatus 1 will be described with reference to FIG. When an administrator who confirms that the monitoring space is unmanned turns on the apparatus, each unit and each means are initialized and start operating (S1). After the initialization, every time a new monitoring image is input from the imaging unit 2 to the control unit 4, the processes in steps S2 to S7 are repeated as a loop process.

新たな監視画像が入力されると制御部4の人物追跡部40は、監視画像上の人物を追跡して監視画像上での当該人物の位置を特定する(S2)。人物追跡部40は新たな監視画像にて特定した人物位置を人物ID及びカメラIDと対応付けて記憶部3の追跡情報30に記憶させる。   When a new monitoring image is input, the person tracking unit 40 of the control unit 4 tracks the person on the monitoring image and specifies the position of the person on the monitoring image (S2). The person tracking unit 40 stores the person position specified by the new monitoring image in the tracking information 30 of the storage unit 3 in association with the person ID and the camera ID.

制御部4は、新たな監視画像上に人物が存在しているか否か、すなわち追跡情報30に新たな監視画像にて特定した人物位置が記憶されているか否かを確認する(S3)。人物が存在しなければ(ステップS3にてNO)、制御部4は以降の処理をスキップして処理をステップS1へ戻す。   The control unit 4 checks whether or not a person is present on the new monitoring image, that is, whether or not the person position specified by the new monitoring image is stored in the tracking information 30 (S3). If there is no person (NO in step S3), control unit 4 skips the subsequent processes and returns the process to step S1.

人物が存在していれば(ステップS3にてYES)、制御部4は新たな監視画像から得た追跡情報30を領域分割部41に入力し、領域分割部41は各人物の人物領域を抽出する(S4)。   If a person exists (YES in step S3), the control unit 4 inputs the tracking information 30 obtained from the new monitoring image to the area dividing unit 41, and the area dividing unit 41 extracts the person area of each person. (S4).

図7は人物領域抽出処理の概略のフロー図である。以下、図7を参照してステップS4の人物領域抽出処理を説明する。   FIG. 7 is a schematic flowchart of person area extraction processing. Hereinafter, the person region extraction process in step S4 will be described with reference to FIG.

α拡張法を適用したグラフカット法では、複数のソースを有するグラフを、複数のソースのうちの1つとシンクで構成されるグラフに分けて段階的にエネルギーの最小化を行う。この際に、ソース側のt−linkとシンク側のt−linkには異なる種類のコストを設定する。   In the graph cut method to which the α extension method is applied, a graph having a plurality of sources is divided into a graph composed of one of the plurality of sources and a sink, and energy is minimized in a stepwise manner. At this time, different types of costs are set for the t-link on the source side and the t-link on the sink side.

本実施形態では、図2に示したグラフを、図8に示す2つのグラフ400,401に分けてエネルギーの最小化を行う。図9はα拡張法による人物領域抽出処理での画素の帰属領域及び評価対象特徴の一例を説明する画像の模式図を示している。   In this embodiment, energy is minimized by dividing the graph shown in FIG. 2 into two graphs 400 and 401 shown in FIG. FIG. 9 is a schematic diagram of an image for explaining an example of the pixel attribution region and the evaluation target feature in the human region extraction processing by the α extension method.

以下、この処理の様子を説明する。   Hereinafter, this process will be described.

まず、領域分割部41の初期領域設定部410は、記憶部3から人物形状モデル31と、監視画像に対応するカメラIDのカメラパラメータとを読みだし、各人物の人物位置を基準にして仮想空間中に人物形状モデル31を配置し、配置した人物形状モデル31をカメラパラメータにより監視画像上に投影して各人物の初期領域を設定する(S100)。   First, the initial region setting unit 410 of the region dividing unit 41 reads the person shape model 31 and the camera parameter of the camera ID corresponding to the monitoring image from the storage unit 3, and uses the person's position of each person as a reference to create a virtual space. The person shape model 31 is placed therein, and the placed person shape model 31 is projected on the monitoring image by the camera parameter to set the initial area of each person (S100).

次に、領域分割部41の分割コスト算出部411は、各人物の初期領域からの距離に応じて各画素における対象物画素の存在確率ρと背景画素の存在確率ρをそれぞれ対象物形状特徴、背景形状特徴として算出する(S101)。 Next, the division cost calculation unit 411 of the region division unit 41 calculates the object pixel existence probability ρ O and the background pixel existence probability ρ B in each pixel according to the distance from the initial region of each person, respectively. It calculates as a feature and a background shape feature (S101).

続いて、分割コスト算出部411は式(2)に従って隣接画素の組み合わせごとのエッジコストc(p,q)を算出してグラフ情報32に記憶させる(S102)。 Subsequently, the division cost calculation unit 411 calculates the edge cost c E (p, q) for each combination of adjacent pixels according to the equation (2) and stores it in the graph information 32 (S102).

また、分割コスト算出部411は各人物の背景シードを設定して(S103)、人物ごとに背景シードに対する各画素の背景帰属時色コストを算出する(S104)。すなわち、分割コスト算出部411は各人物の初期領域の周辺部から正規化色ヒストグラムhを背景色特徴として抽出し、人物ごとに式(5)及び式(6)に従って画素ごとの背景帰属時色コストα・c(p,S)を算出してグラフ情報32に記憶させる。 Further, the division cost calculation unit 411 sets the background seed of each person (S103), and calculates the color cost at the time of background attribution of each pixel with respect to the background seed for each person (S104). That is, dividing the cost calculation unit 411 extracts the normalized color histogram h B as the background color characteristic from the periphery of the initial region of each person, when attribution background for each pixel according to the equation (5) and (6) for each person The color cost α C · c C (p, S C ) is calculated and stored in the graph information 32.

さらに、分割コスト算出部411はステップS101にて算出した人物ごとの対象物画素の存在確率ρそれぞれを用い、式(7)及び式(8)に従って画素ごとの対象物帰属時形状コストα・c(p,T)を算出してグラフ情報32に記憶させる(S105)。ここまでの処理によって図8のグラフ400、すなわち色ソースSを含み形状ソースSを含まない第1段階のグラフ400が生成される。 Further, the division cost calculating unit 411 uses the object pixel existence probability ρ O for each person calculated in step S101, and uses the object attribution shape cost α S for each pixel according to the equations (7) and (8). C S (p, T) is calculated and stored in the graph information 32 (S105). The processing up to this point generates the graph 400 of FIG. 8, that is, the first-stage graph 400 that includes the color source S C and does not include the shape source S S.

領域分割部41の領域決定部413は、グラフ情報32で定義されるグラフ400にMinimum Cut/Maximum Flowアルゴリズムを適用して最小のエネルギーにて当該グラフを対象物領域のノードと背景領域のノードに2分割する帰属領域設定A1を導出する(S106)。すなわち領域決定部413は帰属領域設定を微小変動させながら仮決めした当該帰属領域設定をエネルギー算出部412に入力して式(1)のエネルギーEを算出させる処理を繰り返してエネルギーEを最小化する帰属領域設定を探索し決定する。第1段階において領域決定部413はシンク側のt−linkに対象物帰属時形状コストを、またソース側のt−linkに背景帰属時色コストをそれぞれ設定して領域分割を行った。この設定により、領域決定部413は、帰属領域を対象物領域とする画素に対して評価特徴を色特徴とし(α拡張法におけるラベルαを色特徴のラベルCとすることに相当)、且つ帰属領域を背景画像とする画素に対して評価対象特徴を形状特徴とする試行設定を設定してエネルギーの比較を行ったことになる。   The region determining unit 413 of the region dividing unit 41 applies the Minimum Cut / Maximum Flow algorithm to the graph 400 defined by the graph information 32, and converts the graph into the object region node and the background region node with the minimum energy. The attribute region setting A1 to be divided into two is derived (S106). That is, the region determining unit 413 minimizes the energy E by repeating the process of calculating the energy E of the equation (1) by inputting the belonging region setting temporarily determined while slightly changing the belonging region setting to the energy calculating unit 412. Search and determine the belonging area setting. In the first stage, the region determination unit 413 performs region division by setting the object belonging shape cost to the sink side t-link and the background belonging color cost to the source t-link. With this setting, the region determination unit 413 sets the evaluation feature as a color feature (corresponding to the label α in the α expansion method as the label C of the color feature) and the attribution for the pixel having the belonging region as the target region. That is, energy is compared by setting a trial setting in which a feature to be evaluated is a shape feature for a pixel whose region is a background image.

図9(1)は第1段階での様子を表しており、帰属領域設定500は第1段階で導出された帰属状態A1の例である。後のステップS111にて、この段階で得られた対象物領域は最終的にそのまま対象物領域の一部として採用される(図9(1)の帰属領域設定501)。同対象物画素は評価対象特徴を色特徴に設定して選んだということになる(図9(1)の評価対象特徴設定状態502)。   FIG. 9A shows a state in the first stage, and the belonging area setting 500 is an example of the belonging state A1 derived in the first stage. In the subsequent step S111, the object area obtained at this stage is finally adopted as a part of the object area as it is (attributed area setting 501 in FIG. 9 (1)). This means that the object pixel is selected by setting the evaluation target feature as a color feature (evaluation target feature setting state 502 in FIG. 9A).

分割コスト算出部411はグラフ情報32のコストをリセットして第2段階に移行する。図9(2)は第2段階に移行した際の様子を示している。分割コスト算出部411は、ステップS106にて導出された各人物の対象物領域を第2段階のグラフ401における当該人物の背景シード(図9(2)にて帰属領域設定503で示す背景シードB)に加える。シードに加えた対象物領域の帰属は第2段階に影響せず、また変更されないことになる。各人物の対象物シードを設定して(S107)、人物ごとに対象物シードに対する各画素の対象物帰属時色コストを算出する(S108)。すなわち分割コスト算出部411は、各人物の初期領域の中央部から正規化色ヒストグラムhを対象物色特徴として抽出し、式(3)及び式(4)に従って画素ごとの対象物帰属時色コストα・c(p,T)を算出してグラフ情報32に記憶させる。 The division cost calculation unit 411 resets the cost of the graph information 32 and proceeds to the second stage. FIG. 9 (2) shows a state when the process moves to the second stage. The division cost calculation unit 411 sets each person's object area derived in step S106 to the background seed of the person in the second-stage graph 401 (background seed B indicated by the belonging area setting 503 in FIG. 9B). ) The attribution of the object area added to the seed does not affect the second stage and will not be changed. The object seed of each person is set (S107), and the color cost at the time of object assignment of each pixel with respect to the object seed is calculated for each person (S108). That is, the division cost calculation unit 411 extracts the normalized color histogram h O from the center of the initial region of each person as an object color feature, and the object belonging attribute color cost for each pixel according to Expressions (3) and (4). α C · c C (p, T) is calculated and stored in the graph information 32.

続いて、分割コスト算出部411はステップS101にて算出した人物ごとの背景画素の存在確率ρそれぞれを用い、式(9)及び式(10)に従って画素ごとの背景帰属時形状コストα・c(p,S)を算出してグラフ情報32に記憶させる(S109)。ここまでの処理によって図8のグラフ401、すなわち形状ソースSを含み色ソースSを含まない第2段階のグラフ401が生成される。 Subsequently, the division cost calculation unit 411 uses the existence probability ρ B of the background pixel for each person calculated in step S101, and uses the shape cost α S · at the time of background attribution for each pixel according to the equations (9) and (10). c S (p, S S ) is calculated and stored in the graph information 32 (S109). Graph 401 of Figure 8 by the processing up to this point, that the second stage of the graph 401 without the shape source S colors include S source S C is generated.

領域決定部413は、グラフ情報32で定義されるグラフ401にMinimum
Cut/Maximum Flowアルゴリズムを適用して最小のエネルギーにて当該グラフを対象物領域のノードと背景領域のノードに2分割する帰属領域設定A2を導出する(S110)。すなわち領域決定部413は帰属領域設定を微小変動させながら仮決めした当該帰属領域設定をエネルギー算出部412に入力して式(1)のエネルギーEを算出させる処理を繰り返してエネルギーEを最小化する帰属領域設定A2を探索し決定する。
The area determination unit 413 displays the minimum in the graph 401 defined by the graph information 32.
By applying the Cut / Maximum Flow algorithm, attributed area setting A2 is derived that divides the graph into a target area node and a background area node with a minimum energy (S110). That is, the region determining unit 413 minimizes the energy E by repeating the process of calculating the energy E of the equation (1) by inputting the belonging region setting temporarily determined while slightly changing the belonging region setting to the energy calculating unit 412. The attribution area setting A2 is searched and determined.

図9(3)は第2段階での様子を表しており、帰属領域設定504は、この第2段階で導出された帰属領域設定A2の例である。第2段階において領域決定部413はシンク側のt−linkに対象物帰属時色コストを、またソース側のt−linkに背景帰属時形状コストをそれぞれ設定して領域分割を行った。この設定により、領域決定部413は、帰属領域を対象物領域とする画素に対して評価特徴を形状特徴とし(α拡張法におけるラベルαを形状特徴のラベルSとすることに相当)、且つ帰属領域を背景画像とする画素に対して評価対象特徴を色特徴とする試行設定を設定してエネルギーの比較を行ったことになる。   FIG. 9 (3) shows a state in the second stage, and the belonging area setting 504 is an example of the belonging area setting A2 derived in the second stage. In the second stage, the region determination unit 413 performs region division by setting the color cost at the time of object assignment to the t-link on the sink side and the shape cost at the time of background attribution to the t-link on the source side. With this setting, the region determination unit 413 sets the evaluation feature as a shape feature (equivalent to setting the label α in the α expansion method as the shape feature label S) for the pixel having the belonging region as the object region, and the attribution That is, energy is compared by setting a trial setting in which the evaluation target feature is a color feature for a pixel whose region is a background image.

領域決定部413は、ステップS106にて得られた対象物画素とステップS110にて得られた対象物画素とを連結して最終的な対象物領域を決定し、それ以外の領域を背景領域として決定する(S111)。   The area determination unit 413 determines the final object area by connecting the object pixel obtained in step S106 and the object pixel obtained in step S110, and sets the other areas as background areas. Determine (S111).

図9(3)の帰属領域設定505は、最終的な帰属領域設定Aの例である。第2段階で得られた対象物画素は評価対象特徴を形状特徴に設定して選んだということになる(図9(3)の状態506)。なお、この段階で得られた背景シード以外の背景画素(状態506にて“S/C”で示す画素)の評価対象特徴は当該画素に設定された対象物帰属時色コストと対象物帰属時形状コストのうち最小値を与える画像特徴とすることができる。   The belonging area setting 505 in FIG. 9 (3) is an example of the final belonging area setting A. The object pixel obtained in the second stage is selected by setting the evaluation object feature as the shape feature (state 506 in FIG. 9 (3)). It should be noted that the evaluation target characteristics of the background pixels other than the background seed obtained at this stage (pixels indicated by “S / C” in the state 506) are the object belonging color color and the object belonging time set for the pixel. It can be an image feature that gives the minimum value of the shape cost.

以上の各段階において、領域決定部413は、帰属領域を対象物領域とする素領域に対して評価対象特徴を第1の種類の画像特徴とし、且つ帰属領域を背景領域とする素領域に対して評価対象特徴を第1の種類と異なる第2の種類の画像特徴とする試行設定を設定して積算評価値の比較を行った。このように異なる画像特徴を直接的に対比する設定を行うことによって各素領域にて評価すべき画像特徴を効率良く選択できるので、対象物と背景の関係の多様性に適応した高精度な領域分割を効率的に導出することができる。   In each of the above steps, the region determination unit 413 determines the evaluation target feature as the first type image feature for the elementary region having the belonging region as the target region, and the elementary region having the belonging region as the background region. Then, a trial setting that sets the evaluation target feature as a second type of image feature different from the first type is set, and the integrated evaluation values are compared. By making settings that directly contrast different image features in this way, it is possible to efficiently select the image features to be evaluated in each elementary region, so a highly accurate region adapted to the diversity of the relationship between the object and the background The division can be efficiently derived.

こうして領域分割部41は、各ノードにおいていずれか1つの画像特徴を評価対象特徴に選びながらエネルギーEを最小化する領域分割を決定する。   In this way, the area dividing unit 41 determines an area division that minimizes the energy E while selecting any one image feature as an evaluation target feature at each node.

以上の処理により各人物の人物領域が抽出されると、制御部4は図6のステップS5へ処理を進める。   When the person region of each person is extracted by the above processing, the control unit 4 advances the processing to step S5 in FIG.

再び図6を参照して画像監視処理の続きを説明する。   The continuation of the image monitoring process will be described with reference to FIG. 6 again.

制御部4の異常姿勢判定部42は、領域決定部413から入力された各人物の人物領域の形状と異常姿勢パターンとの類似度を算出して予め設定したしきい値と比較し、しきい値以上の類似度が算出された人物領域を異常姿勢であると判定し、そうでなければ異常姿勢でないと判定する(S5)。   The abnormal posture determination unit 42 of the control unit 4 calculates the similarity between the shape of the person area of each person input from the region determination unit 413 and the abnormal posture pattern, and compares it with a preset threshold value. It is determined that the person area for which the similarity equal to or greater than the value is calculated is an abnormal posture, and otherwise, it is determined that the person region is not an abnormal posture (S5).

異常姿勢判定部42は人物領域のいずれかが異常姿勢と判定された場合に(ステップS6にてYES)、所定の異常信号を生成して出力部5に当該信号を出力する(S7)。異常信号を入力された出力部5は警備センターに異常信号を送信し、通報を行う。他方、人物領域のいずれも異常姿勢と判定されなければ(ステップS6にてNO)、ステップS7の異常出力処理はスキップされる。   If any of the person regions is determined to be in an abnormal posture (YES in step S6), the abnormal posture determination unit 42 generates a predetermined abnormal signal and outputs the signal to the output unit 5 (S7). The output unit 5 to which the abnormal signal has been input transmits the abnormal signal to the security center and makes a report. On the other hand, if none of the person regions is determined to be in an abnormal posture (NO in step S6), the abnormal output process in step S7 is skipped.

以上の処理を終えると、制御部4は処理をステップS1に戻し、次の監視画像に対する処理が行われる。   When the above processing is completed, the control unit 4 returns the processing to step S1, and processing for the next monitoring image is performed.

[変形例]
(1)上記実施形態では1つ1つの画素を素領域として領域分割を行う例を示した。しかし、ノードに対応付ける素領域は画素以外であってもよい。例えば、互いに画素値が類似する画素を予めまとめてセグメント化し、各セグメントをノードに設定して領域分割を行うこともできる。
[Modification]
(1) In the above embodiment, an example is shown in which region division is performed using each pixel as a raw region. However, the elementary region associated with the node may be other than the pixel. For example, pixels having similar pixel values can be segmented together in advance, and each segment can be set as a node to perform region division.

この場合、各セグメントに対する色コストは、当該セグメントの代表画素値(画素値の平均値、中央値または最頻値)を用いて算出する、あるいは当該セグメントを構成する画素それぞれに対する色コストを算出してそれらの色コストの代表値(コストの平均値、中央値または最大値)を当該セグメントの色コストとする。   In this case, the color cost for each segment is calculated using the representative pixel value (average value, median value, or mode value) of the segment, or the color cost for each pixel constituting the segment is calculated. The representative value (average value, median value, or maximum value) of these color costs is used as the color cost of the segment.

また各セグメントに対する形状コストは、当該セグメントと初期領域との重なり度合いを用いて算出する、あるいは当該セグメントを構成する画素に対する存在確率の代表値(存在確率の平均値、中央値または最頻値)を当該セグメントの形状コストとする。   In addition, the shape cost for each segment is calculated using the degree of overlap between the segment and the initial region, or the representative value of the existence probability for the pixels constituting the segment (the average value, median value, or mode value of the existence probability) Is the shape cost of the segment.

このようにすることで領域分割の精度を低下させずにノードを減らすことができるので、精度維持と負荷減少を両立することができる。   By doing so, the number of nodes can be reduced without degrading the accuracy of area division, so that both accuracy maintenance and load reduction can be achieved.

(2)上記実施形態では画像特徴として色と形状とを用いる例を示したが、他の画像特徴を用いることもできる。例えば色と動き特徴量とを用いる。この場合、背景差分処理を行って各画素の背景差分値を動き特徴量とすることができる。また、オプティカルフロー分析を行って各画素の移動ベクトルの大きさを動き特徴量とすることもできる。   (2) In the above embodiment, an example in which color and shape are used as image features has been described, but other image features can also be used. For example, colors and motion feature quantities are used. In this case, the background difference process can be performed to set the background difference value of each pixel as the motion feature amount. In addition, the size of the movement vector of each pixel can be used as a motion feature amount by performing an optical flow analysis.

(3)上記実施形態ではグラフカット法によりエネルギーを最小化する領域分割結果を導出した。別の実施形態ではグラフカット法に代えてマルコフ連鎖モンテカルロ (Markov Chain Monte Carlo:MCMC) 法、信念伝播(Belief Propagation)法、ツリー重み再配分メッセージ伝達(Tree-Reweighted Message Passing:TRW)法を用いてエネルギーを最小化する領域分割結果を導出できる。   (3) In the above embodiment, a region division result for minimizing energy is derived by the graph cut method. In another embodiment, the Markov Chain Monte Carlo (MCMC) method, the Belief Propagation method, and the Tree-Reweighted Message Passing (TRW) method are used instead of the graph cut method. Thus, the region segmentation result that minimizes the energy can be derived.

(4)上記実施形態では、α拡張法の第1段階にて図8のグラフ400、第2段階にてグラフ401を生成してグラフカット法を行ったが、逆順とすることもできる。すなわち第1段階にて図8のグラフ401、第2段階にてグラフ400を生成してグラフカット法を行ってもよい。   (4) In the above embodiment, the graph 400 is generated in the first stage of the α expansion method and the graph 401 is generated in the second stage, and the graph cut method is performed. That is, the graph cut method may be performed by generating the graph 401 in FIG. 8 in the first stage and the graph 400 in the second stage.

(5)上記実施形態では、α拡張法により画像特徴を選択したが、α拡張法に代えてα−β交換(αβ-swap)法を利用することもできる。例えば、対象物領域の評価対象特徴をラベルαとし、背景領域の評価対象特徴の1つをラベルβとしてα−β交換法を適用することができる。上述の実施形態では画像特徴は色特徴と形状特徴との2種類であるので、ラベルαはそれらの一方であり、ラベルβはそれらの他方となる。   (5) In the above embodiment, the image feature is selected by the α expansion method, but an α-β exchange (αβ-swap) method can be used instead of the α expansion method. For example, the α-β exchange method can be applied with the evaluation target feature of the object region as a label α and one of the evaluation target features of the background region as a label β. In the above-described embodiment, since there are two types of image features, color features and shape features, the label α is one of them and the label β is the other of them.

(6)3種類以上の画像特徴を用いる場合にも本発明を適用することができ、その場合にも上述したα拡張法、α−β交換法、及びその他の方法を用いて領域分割結果を導出することができる。   (6) The present invention can also be applied to the case where three or more types of image features are used, and in this case as well, region division results can be obtained using the α expansion method, α-β exchange method, and other methods described above. Can be derived.

例えば、3種類の画像特徴A,B,Cを用いる場合、α拡張法は画像特徴A,B,Cを順次、ラベルαとして処理を繰り返す。すなわち、上述の画像特徴が2種類の場合には処理は2段階に行われたが、画像特徴が3種類の場合には3段階で行われる。   For example, when three types of image features A, B, and C are used, the α expansion method repeats the processing using the image features A, B, and C as labels α sequentially. That is, the processing is performed in two stages when there are two types of image features described above, but is performed in three stages when there are three types of image features.

また、α−β交換法では画像特徴A,B,Cにおいて指定可能なラベルα,βの全ての組み合わせについて処理が繰り返される。例えば、画像特徴Aを対象物領域の評価対象特徴とし、これをラベルαとする場合、画像特徴Bを背景領域の評価対象特徴とし、これをラベルβとする処理と、画像特徴Cを背景領域の評価対象特徴とし、これをラベルβとする処理とがそれぞれ行われる。   In the α-β exchange method, the process is repeated for all combinations of labels α and β that can be specified in the image features A, B, and C. For example, when the image feature A is an evaluation target feature of the object region and this is the label α, the image feature B is the background region evaluation target feature and this is the label β, and the image feature C is the background region. And a process of setting this as a label β.

(7)上記実施形態では、各画像特徴の特徴比率αを固定して領域分割を行ったが、別の実施形態では特徴比率αを動的に設定する。この場合、特徴比率αを複数通りに設定して各設定で領域分割を行い、各設定における領域分割結果を特徴比率に依存しない一律の基準にて評価して領域評価値(領域分割評価値)を算出し、領域評価値が最大の領域分割結果を採用することができる。   (7) In the above embodiment, the feature ratio α of each image feature is fixed and the region division is performed. However, in another embodiment, the feature ratio α is dynamically set. In this case, the feature ratio α is set in a plurality of ways, the region is divided by each setting, and the region division result in each setting is evaluated based on a uniform standard independent of the feature ratio, and the region evaluation value (region division evaluation value) And the area division result having the maximum area evaluation value can be adopted.

領域評価値としては次式で定義される領域評価値Vを用いることができる。   As the region evaluation value, the region evaluation value V defined by the following equation can be used.

Figure 0005872395
Figure 0005872395

Figure 0005872395
Figure 0005872395

Figure 0005872395
Figure 0005872395

ここで、1/Vは色に関する領域評価値、1/Vは形状に関する領域評価値である。 Here, 1 / V C is a region evaluation value relating to color, and 1 / V S is a region evaluation value relating to shape.

式(12)における総和対象とする画素pの集合Edgeは対象物の輪郭画素からなる集合であり、また、N(p)は対象物の輪郭画素に隣接する背景画素の集合、distは画素pとqとの距離である。γは調整用の定数であり、事前実験等を通じて適切な値が予め設定される。図10はN(p)を説明する図であり、同図の左側に対象物の輪郭画素を含む部分画像の模式図を示している。ここで、n−linkのコストは図2に示すように各画素の4近傍について算出している。これに対し、N(p)は図10に示すように対象物の輪郭画素の8近傍から求めるなど、n−linkのコストを算出したときよりも多くの隣接画素との相違を評価するのがよい。こうすることで上述したエネルギー算出部412における色特徴のエネルギーによる評価よりも厳しい領域評価値を算出でき、領域分割候補間の優劣をより厳密に評価することができる。   The set Edge of the pixels p to be summed in Expression (12) is a set of contour pixels of the object, N (p) is a set of background pixels adjacent to the contour pixels of the object, and dist is the pixel p. And the distance between q and q. γ is a constant for adjustment, and an appropriate value is set in advance through a preliminary experiment or the like. FIG. 10 is a diagram for explaining N (p), and a schematic diagram of a partial image including a contour pixel of an object is shown on the left side of FIG. Here, the cost of n-link is calculated for four neighborhoods of each pixel as shown in FIG. On the other hand, N (p) is obtained from the vicinity of the contour pixel of the object as shown in FIG. 10, and the difference from the adjacent pixels is evaluated more than when the n-link cost is calculated. Good. By doing so, it is possible to calculate a region evaluation value that is stricter than the evaluation by the energy of the color feature in the energy calculation unit 412 described above, and it is possible to more strictly evaluate the superiority or inferiority between the region division candidates.

式(13)におけるMλは領域分割候補における対象物領域と初期領域とで画素位置が一致する画素数であり、Mは初期領域の画素数、Mは領域分割候補の画素数である。初期領域との一致画素数Mλが増えると1/Vは高くなる。つまり、1/Vは初期領域に対する対象物領域のマッチング率である。ただし1/Mの項により、対象物領域が単に大きいだけ(例えば対象物領域が初期領域を包含する状態)で1/Vが不当に高くなることを抑制している。 In Formula (13), M λ is the number of pixels whose pixel positions match in the object region and the initial region in the region division candidate, M 0 is the number of pixels in the initial region, and M S is the number of pixels in the region division candidate. . The number match pixels of the initial region M lambda is increased when 1 / V S is higher. That is, 1 / V S is the matching rate of the object region with respect to the initial region. The term, however 1 / M S, only simply large object area (e.g., object region encompasses state early region) 1 / V S in is prevented from becoming unduly high.

また、この場合、特徴比率αを定数として扱い、λ=α/αとおけば特徴比率の制御を1変数にて行うことができる。すなわち、λを変えることで、各画像特徴を領域分割に寄与させる度合についての画像特徴相互間の比を変えることができる。例えば、領域分割部41に、寄与比λを複数通りに設定する寄与比設定部を設ける。そして、エネルギー算出部412は、画像特徴についての各帰属評価値を寄与比λで重み付けして画像内で総和し積算評価値を算出し、領域決定部413は、寄与比ごとに積算評価値に基づく探索を行って領域分割結果を求める。そして、寄与比に依存しない所定基準により各寄与比での領域分割結果である帰属状態の尤もらしさを評価して領域評価値を算出し、当該領域評価値に基づいていずれかの寄与比での領域分割結果を選択する。 In this case, if the feature ratio α C is treated as a constant and λ = α S / α C , the feature ratio can be controlled with one variable. That is, by changing λ, it is possible to change the ratio between image features with respect to the degree to which each image feature contributes to the region division. For example, the region dividing unit 41 is provided with a contribution ratio setting unit that sets a plurality of contribution ratios λ. Then, the energy calculation unit 412 calculates the integrated evaluation value by weighting each attribution evaluation value for the image feature by the contribution ratio λ and summing it in the image, and the region determination unit 413 converts the contribution evaluation value into the integrated evaluation value for each contribution ratio. Based on the search, the region division result is obtained. Then, an area evaluation value is calculated by evaluating the likelihood of the belonging state, which is a result of area division in each contribution ratio, according to a predetermined criterion that does not depend on the contribution ratio, and based on the area evaluation value, Select the region division result.

このように、特徴比率を動的に決定することによって、対象物と背景の状況に適応して色特徴量と形状特徴量を領域分割に寄与させる率を適切に調整する効果がさらに高まるので、領域分割をより高精度に行うことが可能になる。   In this way, by dynamically determining the feature ratio, the effect of appropriately adjusting the rate of contributing the color feature amount and the shape feature amount to the region division in accordance with the situation of the object and the background is further enhanced. Region division can be performed with higher accuracy.

(8)上記実施形態において初期領域は初期領域設定部410により自動設定される例を示したが、本発明の領域分割装置を静止画からの領域分割処理に適用する場合、初期領域設定部410にポインティングデバイス等を含めて構成し、人手により初期領域を設定するのが好適である。   (8) In the above embodiment, the initial region is automatically set by the initial region setting unit 410. However, when the region dividing device of the present invention is applied to region dividing processing from a still image, the initial region setting unit 410 is used. It is preferable that the initial region is manually set by including a pointing device or the like.

1 画像監視装置、2 撮像部、3 記憶部、4 制御部、5 出力部、30 追跡情報、31 人物形状モデル、32 グラフ情報、40 人物追跡部、41 領域分割部、42 異常姿勢判定部、100 監視画像、101 人物、110 仮想空間、111 床面、112 人物位置、113 人物モデル、114 カメラ、115 撮像面、120 投影画像、121 初期領域、200 対象物シード、201 背景シード、410 初期領域設定部、411 分割コスト算出部、412 エネルギー算出部、413 領域決定部。   DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus, 2 Imaging part, 3 Storage part, 4 Control part, 5 Output part, 30 Tracking information, 31 Person shape model, 32 Graph information, 40 Person tracking part, 41 Area division part, 42 Abnormal posture determination part, 100 surveillance image, 101 person, 110 virtual space, 111 floor surface, 112 person position, 113 person model, 114 camera, 115 imaging surface, 120 projected image, 121 initial region, 200 object seed, 201 background seed, 410 initial region Setting unit, 411 division cost calculation unit, 412 energy calculation unit, 413 region determination unit.

Claims (6)

所定の対象物を背景と共に撮像した画像において、それぞれが少なくとも1つの画素からなる素領域ごとに当該素領域を対象物領域と背景領域とのいずれかに帰属させることにより、前記画像を領域分割する領域分割装置であって、
前記素領域それぞれに対して当該素領域が帰属する帰属領域と複数種類の画像特徴のうち当該素領域を評価するための一部の種類の評価対象特徴とを仮決めした試行設定において、前記素領域それぞれの前記評価対象特徴が前記試行設定にて仮決めされた帰属領域に帰属することの尤もらしさの程度を表す帰属度を前記画像内にて総和して積算評価値を算出する評価値算出部と、
複数通りの前記試行設定を設定し、前記評価値算出部により算出される前記各試行設定における前記積算評価値を比較し、前記画像全体での前記尤もらしさを最大化する前記試行設定における帰属領域を領域分割結果と決定する領域分割決定部と、
を備えたことを特徴とする領域分割装置。
In an image obtained by imaging a predetermined object together with a background, the image is divided into regions by assigning the elementary region to either the object region or the background region for each elementary region composed of at least one pixel. An area dividing device,
In the trial setting in which the attribution region to which the elementary region belongs and some types of evaluation target features for evaluating the elementary region among the plurality of types of image features are provisionally determined for each of the elementary regions, Evaluation value calculation for calculating the integrated evaluation value by summing the degree of likelihood representing the likelihood of the evaluation target feature of each area belonging to the attribution area temporarily determined in the trial setting in the image And
Setting the plurality of trial settings, comparing the integrated evaluation values in the trial settings calculated by the evaluation value calculation unit, and maximizing the likelihood of the entire image, the attribution region in the trial settings A region division determination unit for determining the region division result as
An area dividing apparatus comprising:
前記領域分割決定部は、前記帰属領域を前記対象物領域とする前記素領域に対して前記評価対象特徴を第1の種類の前記画像特徴とし、且つ前記帰属領域を前記背景領域とする前記素領域に対して前記評価対象特徴を前記第1の種類とは異なる第2の種類の前記画像特徴とする前記試行設定を設定して前記積算評価値の前記比較を行うこと、を特徴とする請求項1に記載の領域分割装置。 The region division determination unit sets the evaluation target feature as the first type of image feature for the elementary region having the belonging region as the target region, and uses the belonging region as the background region. claims, characterized in that, to perform the comparison of the accumulated evaluation value by setting the trial settings to the image feature of the second type different from said first type to said evaluation feature for the region Item 2. The area dividing device according to Item 1 . 前記領域分割装置は、前記帰属度としてコストを用い、前記積算評価値で与えられるエネルギーを最小化するグラフカット法により領域分割を行うものであって、
前記領域分割決定部は、前記複数種類の画像特徴を順次、前記第1の種類の画像特徴として設定し、当該画像特徴をラベルαとするα拡張法により前記エネルギーを最小化すること、
を特徴とする請求項2に記載の領域分割装置。
The area dividing device uses a cost as the degree of attribution, and performs area division by a graph cut method that minimizes energy given by the integrated evaluation value,
The region division determination unit sequentially sets the plurality of types of image features as the first type of image features, and minimizes the energy by an α expansion method using the image features as labels α.
The area dividing device according to claim 2.
前記領域分割装置は、前記帰属度としてコストを用い、前記積算評価値で与えられるエネルギーを最小化するグラフカット法により領域分割を行うものであって、
前記領域分割決定部は、前記複数種類の画像特徴のうちの2つからなる組み合わせを順次、前記第1及び第2の種類の画像特徴の組として設定し、当該第1の種類の画像特徴をラベルαとし当該第2の種類の画像特徴をラベルβとするα−β交換法により前記エネルギーを最小化すること、
を特徴とする請求項2に記載の領域分割装置。
The area dividing device uses a cost as the degree of attribution, and performs area division by a graph cut method that minimizes energy given by the integrated evaluation value,
The region division determination unit sequentially sets a combination of two of the plurality of types of image features as a set of the first and second types of image features, and the first type of image features is set. Minimizing the energy by an α-β exchange method with a label α and the second type of image feature as a label β;
The area dividing device according to claim 2.
前記複数種類の画像特徴は、前記素領域の色及び位置であることを特徴とする請求項1から請求項4のいずれか1つに記載の領域分割装置。   5. The area dividing device according to claim 1, wherein the plurality of types of image features are colors and positions of the elementary areas. さらに、前記複数種類の画像特徴それぞれの前記帰属度を前記積算評価値に寄与させる寄与度を複数通りに設定する寄与度設定部を有し、
前記評価値算出部は、前記寄与度ごとに、前記画像特徴についての前記各帰属度を前記寄与度で重み付けて前記画像内で総和して前記積算評価値を算出し、
前記領域分割決定部は、前記寄与度ごとに前記領域分割結果を求め、前記寄与度に依存しない一律の基準により前記各寄与度における前記領域分割結果の尤もらしさを評価して領域分割評価値を算出し、当該領域分割評価値が最も高い前記領域分割結果を前記複数の寄与度について統一した領域分割結果と決定すること、
を特徴とする請求項1から請求項5のいずれか1つに記載の領域分割装置。
And a contribution setting unit that sets a plurality of contributions that contribute to the integrated evaluation value of the degree of attribution of each of the plurality of types of image features.
The evaluation value calculation unit calculates, for each contribution, the integrated evaluation value by weighting the contributions of the image features with the contributions and summing them up in the image,
The region division determination unit obtains the region division result for each contribution, evaluates the likelihood of the region division result at each contribution according to a uniform criterion independent of the contribution, and obtains a region division evaluation value. Calculating and determining the region division result having the highest region division evaluation value as a region division result unified for the plurality of contributions;
The area dividing device according to claim 1, wherein:
JP2012147990A 2012-06-29 2012-06-29 Region dividing device Active JP5872395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012147990A JP5872395B2 (en) 2012-06-29 2012-06-29 Region dividing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012147990A JP5872395B2 (en) 2012-06-29 2012-06-29 Region dividing device

Publications (2)

Publication Number Publication Date
JP2014010717A JP2014010717A (en) 2014-01-20
JP5872395B2 true JP5872395B2 (en) 2016-03-01

Family

ID=50107342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147990A Active JP5872395B2 (en) 2012-06-29 2012-06-29 Region dividing device

Country Status (1)

Country Link
JP (1) JP5872395B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6269323B2 (en) * 2014-05-30 2018-01-31 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system, and program
CN104219518B (en) * 2014-07-31 2018-09-18 小米科技有限责任公司 Light measuring method and device
US9674454B2 (en) 2014-07-31 2017-06-06 Xiaomi Inc. Light metering methods and devices
KR101766740B1 (en) * 2015-03-19 2017-08-09 한국전자통신연구원 Object Segmentation Apparatus and Method Using Graph Cut Based on Region
JP2020170408A (en) * 2019-04-04 2020-10-15 キヤノン株式会社 Image processing device, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5155250B2 (en) * 2009-05-29 2013-03-06 セコム株式会社 Object detection device
JP2011034178A (en) * 2009-07-30 2011-02-17 Sony Corp Apparatus and method for image processing, and program
JP5505164B2 (en) * 2010-07-23 2014-05-28 ソニー株式会社 Image processing apparatus and method, and program

Also Published As

Publication number Publication date
JP2014010717A (en) 2014-01-20

Similar Documents

Publication Publication Date Title
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP5404918B2 (en) Moving locus calculating method and apparatus, and region dividing method
CN108509896B (en) Trajectory tracking method and device and storage medium
US8437549B2 (en) Image processing method and image processing apparatus
JP7263216B2 (en) Object Shape Regression Using Wasserstein Distance
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
JP5872395B2 (en) Region dividing device
JP5147761B2 (en) Image monitoring device
JP2007310707A (en) Apparatus and method for estimating posture
CN110782483A (en) Multi-view multi-target tracking method and system based on distributed camera network
CN107833239B (en) Optimization matching target tracking method based on weighting model constraint
JP2021060989A (en) Multimodal dense correspondence imaging system
CN108876820A (en) A kind of obstruction conditions based on average drifting move down object tracking method
CN116229189B (en) Image processing method, device, equipment and storage medium based on fluorescence endoscope
JP4969291B2 (en) Moving object tracking device
JP5872401B2 (en) Region dividing device
Liu et al. Geometrized transformer for self-supervised homography estimation
JP2012181710A (en) Object tracking device, method and program
JP7334083B2 (en) Classification reliability calculation device, region dividing device, learning device, classification reliability calculation method, learning method, classification reliability calculation program, and learning program
JP2005351814A (en) Detector and detecting method
Souza et al. Automatic landmark selection for active shape models
JP7420146B2 (en) Camera calibration device, camera calibration method, and camera calibration program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP6082607B2 (en) Object feature extraction device, object region extraction device, and object tracking device
KR20170058779A (en) Method and Apparatus for Image Segmentation Based on Multiple Random Walk

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160113

R150 Certificate of patent or registration of utility model

Ref document number: 5872395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250