JP2019106631A - Image monitoring device - Google Patents
Image monitoring device Download PDFInfo
- Publication number
- JP2019106631A JP2019106631A JP2017238178A JP2017238178A JP2019106631A JP 2019106631 A JP2019106631 A JP 2019106631A JP 2017238178 A JP2017238178 A JP 2017238178A JP 2017238178 A JP2017238178 A JP 2017238178A JP 2019106631 A JP2019106631 A JP 2019106631A
- Authority
- JP
- Japan
- Prior art keywords
- person
- group
- determination
- image
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012806 monitoring device Methods 0.000 title claims description 19
- 230000009471 action Effects 0.000 claims abstract description 100
- 238000001514 detection method Methods 0.000 claims abstract description 87
- 238000012544 monitoring process Methods 0.000 claims abstract description 85
- 238000000926 separation method Methods 0.000 claims abstract description 45
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000000694 effects Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 abstract description 9
- 238000000034 method Methods 0.000 description 74
- 230000008569 process Effects 0.000 description 74
- 230000036544 posture Effects 0.000 description 55
- 230000006399 behavior Effects 0.000 description 38
- 238000012545 processing Methods 0.000 description 38
- 206010042635 Suspiciousness Diseases 0.000 description 27
- 238000004891 communication Methods 0.000 description 17
- 210000000707 wrist Anatomy 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 210000003128 head Anatomy 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域において、不審度の高い受け渡しを行った可能性のある不審者を効率的に監視可能な画像監視装置を提供する。【解決手段】人物追跡手段50は、画像取得手段30が所定の監視領域を撮影して順次取得した監視画像に基づいて監視領域に出現した複数の人物を追跡し、グループ検出手段51は、複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離以下である近接位置関係を維持した人物のグループを検出する。そして、別行動判定手段53は、グループの人物が近接判定距離よりも長く定められた離間判定距離を超える離間位置関係となった場合に当該グループに別行動が発生したと判定し、不審者判定手段54は、この別行動の発生が判定されたグループの人物を不審者と判定する。【選択図】図2PROBLEM TO BE SOLVED: To efficiently monitor a suspicious person who may have delivered with a high degree of suspicion in a monitoring area where an unspecified number of people gather and contact each other exclusively for welcoming. I will provide a. SOLUTION: A person tracking means 50 tracks a plurality of people appearing in a surveillance area based on surveillance images sequentially acquired by an image acquisition means 30 taking a picture of a predetermined monitoring area, and a plurality of group detection means 51. Among the persons in the above, a group of persons who maintain a close positional relationship in which the distance between persons is equal to or less than the predetermined proximity determination distance within a predetermined suspicious behavior determination time is detected. Then, the separate action determination means 53 determines that another action has occurred in the group when the person in the group has a separation position relationship longer than the proximity determination distance and exceeds the predetermined separation determination distance, and determines a suspicious person. The means 54 determines a person in the group for which the occurrence of this other action is determined to be a suspicious person. [Selection diagram] Fig. 2
Description
本発明は、監視領域を撮像した画像から、受け渡し行為等を行った可能性のある不審者を検知する画像監視装置に関する。 The present invention relates to an image monitoring apparatus for detecting a suspicious person who may have performed an act of delivery or the like from an image obtained by imaging a monitoring area.
昨今、空港の到着ロビーのように不特定多数の人物が集まる監視領域においてテロに対する監視の強化が急務とされている。そのような監視領域で監視すべき項目のひとつに危険物の受け渡し行為が挙げられる。 Recently, there is an urgent need to strengthen surveillance against terrorism in a surveillance area where an unspecified number of people gather, such as an airport arrival lobby. One of the items to be monitored in such a surveillance area is the act of delivering dangerous goods.
従来、不特定多数の人物が集まる監視領域を撮影して画像解析することにより受け渡し行為を自動検出することで監視効率の向上を図っていた。 Conventionally, monitoring efficiency has been improved by automatically detecting passing behavior by imaging and analyzing a monitoring area in which a large number of unspecified persons gather.
例えば、特許文献1に記載の画像監視装置においては、異なる時刻に撮影された同一の人物の像を比較して基準値以上の大きさを有する相違領域が検出された場合に当該人物に所持物の有無の変化が生じたと判定し、所持物の所持状態から非所持状態に変化した所持物消失人物と所持物の非所持状態から所持状態に変化した所持物出現人物との距離が予め定めた距離範囲内である場合に受け渡し行為があったと判定していた。
For example, in the image monitoring device described in
また、例えば、特許文献2に記載の画像監視システムにおいては、撮影された人物の像と予め登録したカバン等の物品の画像または物品の特徴量とを照合して当該人物が登録された物品を所持しているか否かを判定し、所持物品が消失した人物と所持物品が出現した人物との距離が予め定めた距離範囲内である場合に受け渡し行為があったと判定していた。または、当該システムにおいては、撮影された画像から所持物品を受け渡している最中の人物の姿勢の特徴が検出された場合に受け渡し行為があったと判定していた。
Also, for example, in the image monitoring system described in
しかしながら、到着ロビーのように不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域では、不審度の低い受け渡しが頻繁に検出されてしまい、監視効率が低下する問題があった。 However, in the monitoring area where an unspecified large number of people gather like an arrival lobby and contact between people occurs exclusively for meeting, the delivery with low degree of suspiciousness is frequently detected, resulting in the problem of a reduction in monitoring efficiency. there were.
例えば、到着ロビーでは、到着した人物と出迎える人物の間で土産物の授受が頻繁に生じ得る。また、到着ロビーでは、到着した人物の労をねぎらって、出迎える人物が到着した人物のカバンを運ぶ行為も頻繁に生じ得る。 For example, in the arrival lobby, souvenirs may frequently be exchanged between the arriving person and the welcoming person. Also, in the arrival lobby, there may be frequent acts of carrying a bag of the person who has arrived, aiming for the labor of the person who has arrived.
本発明は、上記問題を鑑みてなされたものであり、不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域において、不審度の高い受け渡しを行った可能性のある不審者を効率的に監視可能な画像監視装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and it is possible that delivery with a high degree of suspiciousness is performed in a monitoring area in which an unspecified large number of people gather and contact between persons occurs exclusively for meeting. An object of the present invention is to provide an image monitoring apparatus capable of efficiently monitoring a suspicious person.
かかる目的を達成するために本発明は、所定の監視領域を撮影した監視画像を順次取得する画像取得手段と、前記監視画像に基づいて前記監視領域に出現した複数の人物を追跡する人物追跡手段と、前記複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離以下である近接位置関係を維持した人物のグループを検出するグループ検出手段と、前記グループの人物が前記近接判定距離よりも長く定められた離間判定距離を超える離間位置関係となった場合に当該グループに別行動が発生したと判定する別行動判定手段と、前記別行動の発生が判定されたグループの人物を不審者と判定する不審者判定手段と、を備えたことを特徴とする画像監視装置を提供する。 In order to achieve the above object, according to the present invention, there is provided an image acquisition means for sequentially acquiring a surveillance image obtained by photographing a predetermined surveillance area, and a person tracking means for tracking a plurality of persons appearing in the surveillance area based on the surveillance image. And group detection means for detecting, from among the plurality of persons, a group of persons maintaining a proximity positional relationship whose inter-person distance is equal to or less than a predetermined proximity determination distance within a predetermined suspicious activity determination time period; When another person in the group is in the separated position relationship in which the distance determination distance is longer than the proximity determination distance, another action determination unit determines that another action has occurred in the group, and the occurrence of the other action is An image monitoring apparatus comprising: a suspicious person determination unit that determines a person of a determined group as a suspicious person.
また、さらに、前記監視領域内の互いに異なる進入口に対応する複数の進入口領域を予め記憶している監視領域情報記憶手段、を備え、前記グループ検出手段は、出現した位置が異なる前記進入口領域である人物を含んだ前記グループを検出することが好適である。 Furthermore, monitoring area information storage means storing in advance a plurality of entrance areas corresponding to different entrances in the monitoring area, the group detection means is characterized in that the entrances having different positions appear. It is preferable to detect the group including a person who is a region.
また、前記グループ検出手段は、前記不審行動判定時間の範囲内で前記近接位置関係を維持した人物について、当該近接位置関係となる直前の移動方向差を算出し、当該移動方向差が所定の別方向判定角度を超える場合に前記グループを検出することが好適である。 In addition, the group detection means calculates, for a person who maintains the proximity position relationship within the range of the suspicious activity determination time, a movement direction difference immediately before becoming the proximity position relationship, and the movement direction difference is a predetermined difference. It is preferable to detect the group when the direction determination angle is exceeded.
また、前記監視画像における前記近接位置関係を維持していた人物の人物画像を、予め取得した受け渡し姿勢の画像特徴と比較して、当該人物の姿勢が前記受け渡し姿勢であるか否かを判定する姿勢判定手段、をさらに備え、前記グループ検出手段は、前記受け渡し姿勢が判定された人物のグループを検出することが好適である。 Further, the person image of the person maintaining the proximity position relationship in the monitoring image is compared with the image feature of the delivery posture obtained in advance to determine whether or not the posture of the person is the delivery posture. It is preferable to further include an attitude determination unit, wherein the group detection unit detects a group of persons for which the delivery attitude has been determined.
また、前記グループ検出手段は、前記不審行動判定時間の範囲内で前記近接位置関係を維持した人物について、当該近接位置関係を維持していた時の移動距離を算出し、当該移動距離が所定の静止判定距離以下である場合に前記グループを検出することが好適である。 Further, the group detection means calculates, for a person who maintains the proximity position relationship within the range of the suspicious activity determination time, a movement distance when the proximity position relationship is maintained, and the movement distance is a predetermined value. It is preferable to detect the group when it is equal to or less than the stationary determination distance.
また、前記別行動判定手段は、前記グループの人物が前記離間位置関係を継続した離間時間を計測し、前記離間時間が所定の別行動判定時間を超えた場合に当該グループに前記別行動が発生したと判定することが好適である。 Further, the separate behavior determination means measures a separation time in which a person of the group continues the separation positional relationship, and the separate behavior occurs in the group when the separation time exceeds a predetermined separate behavior determination time. It is preferable to determine that the
また、前記別行動判定手段は、前記グループの人物が前記離間位置関係を維持したまま前記監視領域から消失した場合に当該グループに前記別行動が発生したと判定することが好適である。 Further, it is preferable that the separate action determination unit determines that the separate action has occurred in the group when the person in the group disappears from the monitoring area while maintaining the separated positional relationship.
また、前記別行動判定手段は、前記離間位置関係となったグループについて、前記近接位置関係から当該離間位置関係となるまでの人物の移動方向差を算出し、当該移動方向差が所定の別行動判定角度を超える場合に前記別行動が発生したと判定することが好適である。 Further, the separate behavior determining means calculates, for the group having the separated positional relationship, a movement direction difference of a person from the close positional relationship to the separated positional relationship, and the movement direction difference is a predetermined separate behavior. It is preferable to determine that the separate action has occurred when the determination angle is exceeded.
また、前記不審者判定手段は、前記人物の前記監視領域における滞在時間を計測し、前記別行動の発生が判定されたグループの人物の前記滞在時間が所定の短期滞在判定時間以下である場合に当該人物を不審者と判定することが好適である。 Further, the suspicious person determination means measures the stay time of the person in the monitoring area, and the stay time of the person of the group whose occurrence of the another action is determined is equal to or less than a predetermined short stay determination time. It is preferable to determine the person as a suspicious person.
本発明によれば、出迎えや単なる並進をした人物と区別して不審な受け渡しを行った可能性のある不審者を判定できるため、不特定多数の人物が集まり且つ専ら出迎えのために人物同士の接触が生じる監視領域において、不審者を効率的に監視できる。 According to the present invention, since it is possible to determine a suspicious person who may have made a suspicious delivery by distinguishing it from a person who has made a meeting or a mere translation, a large number of unspecified persons gather and contact between the persons exclusively for a meeting. In the monitoring area where a problem occurs, a suspicious person can be efficiently monitored.
以下、本発明の実施形態として、空港内の到着ロビーが撮影された監視画像から不審者を検出して、検出結果を監視員に対して表示する画像監視装置1の例を説明する。すなわち本実施形態における監視領域は到着ロビーである。
Hereinafter, as an embodiment of the present invention, an example of the
<画像監視装置1の構成>
図1は画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は、撮影部2、通信部3、記憶部4、画像処理部5、および表示部6からなる。
<Configuration of
FIG. 1 is a block diagram showing a schematic configuration of the
撮影部2は、監視カメラであり、通信部3を介して画像処理部5と接続され、監視領域を所定の時間間隔で撮影して監視画像を順次出力する撮影手段である。例えば、撮影部2は、隣り合う監視カメラとの共有視野を有して連鎖配置された複数の監視カメラである。これらの監視カメラは、それぞれ監視領域内や監視領域近傍の天井、柱、壁、ポールなどに当該監視領域を俯瞰する視野に固定された状態で設置され、予めキャリブレーションされる。撮影部2は、監視領域をフレーム周期1秒で撮影し、可視のカラー画像を生成する。以下、フレーム周期で刻まれる時間を時刻と称する。なお、撮影部2を単一のカメラで構成してもよいし、カラー画像の代わりにモノクロ画像を生成してもよい。
The photographing
通信部3は、通信回路であり、その一端が画像処理部5に接続され、他端が同軸ケーブルまたはLAN(Local Area Network)、インターネットなどの通信網を介して撮影部2および表示部6と接続される。通信部3は、撮影部2から監視画像を取得して画像処理部5に入力し、画像処理部5から入力された検出結果を表示部6に出力する。
The
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、画像処理部5と接続されて画像処理部5との間でこれらの情報を入出力する。
The storage unit 4 is a memory device such as a read only memory (ROM) or a random access memory (RAM), and stores various programs and various data. The storage unit 4 is connected to the
画像処理部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。画像処理部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理手段・制御手段として動作し、各種データを記憶部4に記憶させ、読み出す。また、画像処理部5は、通信部3を介して撮影部2および表示部6とも接続され、通信部3経由で撮影部2から取得した監視画像を解析することにより不審者を検出し、検出結果を通信部3経由で表示部6に表示させる。
The
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、通信部3を介して画像処理部5と接続され、画像処理部5による検出結果を表示する表示手段である。監視員は表示された検出結果を視認して不審者に対する対処の必要性を判断し、必要に応じて対処員を急行させる等の対処を行う。
The
<画像監視装置1の機能>
図2は画像監視装置1の機能を示す機能ブロック図である。通信部3は画像取得手段30および不審者情報出力手段31等として機能し、記憶部4は人物情報記憶手段40、監視領域情報記憶手段41およびグループ情報記憶手段42等として機能する。画像処理部5は、人物追跡手段50、グループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54等として機能する。
<Function of
FIG. 2 is a functional block diagram showing the functions of the
画像取得手段30は、撮影手段である撮影部2から監視画像を順次取得して、取得した監視画像を人物追跡手段50、姿勢判定手段52および不審者情報出力手段31に順次出力する。
The
以下、図2〜図7を参照して各手段について説明する。 Each means will be described below with reference to FIGS.
人物情報記憶手段40は、監視画像に写る各人物についての情報である人物情報を記憶する。具体的には、人物情報記憶手段40は、各人物の人物情報として、人物追跡手段50によって監視画像から抽出された当該人物の人物画像、当該人物画像が抽出された位置(人物位置)が列挙された人物位置履歴、監視画像において当該人物の人物画像を特徴づける色ヒストグラムなどの人物特徴量などを当該人物の人物IDと対応付けて記憶する。人物位置履歴には少なくとも出現位置と現在位置が含まれる。 The personal information storage means 40 stores personal information which is information about each person shown in the monitoring image. Specifically, the person information storage means 40 enumerates, as person information of each person, a person image of the person extracted from the monitoring image by the person tracking means 50, and a position (person position) at which the person image is extracted. The stored person position history, person feature quantities such as a color histogram characterizing the person image of the person in the monitoring image, and the like are stored in association with the person ID of the person. The person position history includes at least the appearance position and the current position.
また、人物情報記憶手段40は、各人物の人物情報として、さらに各人物の人物IDと対応付けて当該人物に関するグループ検出手段51、別行動判定手段53および不審者判定手段54の中間データを記憶する。 Further, the personal information storage means 40 stores intermediate data of the group detection means 51, the separate action determination means 53 and the suspicious person determination means 54 related to the person as the personal information of each person in association with the person ID of each person. Do.
図5は人物情報のうちの中間データを例示したものであり、図5(a)は或る時刻tにおいて追跡中の人物A〜Eの中間データ200を、図5(b)はその30時刻後の中間データ201を、それぞれ示している。
FIG. 5 exemplifies the intermediate data of the person information, and FIG. 5 (a) shows
出現位置は、グループ検出手段51が生成する中間データであり、各人物が出現した監視領域内の進入口に対応する。本実施形態において出現位置には、初期値である空欄、「入国ゲート」、「入退室エリア」のいずれかが設定される。
The appearance position is intermediate data generated by the
滞在時間は、不審者判定手段54が生成する中間データであり、各人物が監視領域内に滞在している時間を表す。 The stay time is intermediate data generated by the suspicious person determination means 54, and represents the time during which each person is staying in the monitoring area.
静止時間は、グループ検出手段51が生成する中間データであり、各人物が静止とみなせる状態となっていた時間を表す。
The stationary time is intermediate data generated by the
直近移動方向は、別行動判定手段53が生成する中間データであり、各人物の最新の移動方向を表す。本実施形態において、移動方向は、監視領域を模したXYZ座標系の仮想三次元空間におけるX軸方向を0度として反時計回りに増加する角度で表す。
The latest movement direction is intermediate data generated by the separate
人物追跡手段50は、画像取得手段30から順次入力される監視画像を解析することにより監視領域に出現した複数の人物を追跡して各人物の人物情報を生成し、生成した人物情報を人物情報記憶手段40に記憶させる。
The
具体的には、人物追跡手段50は、入力された監視画像に背景差分処理を施して人物領域を検出し、監視画像から人物領域内の画像を切り出して人物画像を抽出する。また、人物追跡手段50は、当該人物画像から特徴量を抽出して人物情報記憶手段40に記憶されている人物特徴量との類似度を算出するとともに、当該人物画像の代表点を人物位置として算出する。 Specifically, the human tracking means 50 performs background subtraction processing on the input monitoring image to detect a human region, extracts an image within the human region from the monitoring image, and extracts a human image. Further, the person tracking means 50 extracts the feature amount from the person image and calculates the degree of similarity with the person feature amount stored in the person information storage means 40, and sets the representative point of the person image as the person position. calculate.
人物位置は例えば各人物の最下端(足元)の三次元位置である。例えば、撮影部2をキャリブレーションされた複数の監視カメラで構成する場合、各監視カメラから抽出した人物画像を世界座標系に逆投影して得られる視体積に三次元人物モデルを当てはめることで頭部中心位置を決定することができる。人物位置は人物の重心、最上端または頭部中心など他の代表点とすることもできる。また人物位置は、監視画像の平面座標系(すなわち人物画像の代表点)で表してもよい。
The position of the person is, for example, the three-dimensional position of the lowermost end (foot) of each person. For example, when the
人物画像から抽出した特徴量との類似度が予め定めた同定閾値を超える人物特徴量が記憶されていない場合、人物追跡手段50は、新たな人物IDを発行し、人物画像から抽出した特徴量を人物特徴量として当該人物IDと対応付けて人物情報記憶手段40に記憶させるとともに、当該人物IDと対応付けて人物画像および人物位置を人物情報記憶手段40に記憶させる。なお、撮影部2を複数の監視カメラで構成する場合は、例えば、人物から最も近い監視カメラにて抽出した人物画像を記憶させればよい。
When the person feature amount whose similarity with the feature amount extracted from the person image exceeds a predetermined identification threshold is not stored, the
一方、人物画像から抽出した特徴量との類似度が同定閾値を超える人物特徴量が記憶されている場合、人物追跡手段50は、当該人物画像を当該人物特徴量が示す人物のものと同定する。人物追跡手段50は、人物画像を、同定した人物の人物IDおよび人物位置と紐づけて人物情報記憶手段40に記憶させる。また、人物追跡手段50は同定した人物の人物特徴量を人物画像から抽出した特徴量で更新する。
On the other hand, when a person feature whose similarity with the feature extracted from the person image exceeds the identification threshold is stored, the
また、人物追跡手段50は、いずれの人物画像とも同定されなかった人物特徴量を、監視領域外に移動して追跡を終えた人物のものであるとして人物情報記憶手段40から削除する。 Also, the person tracking means 50 deletes the person feature amount that has not been identified as any person image from the person information storage means 40 as being of the person who has moved to the outside of the monitoring area and finished tracking.
監視領域情報記憶手段41は、監視領域内の互いに異なる進入口を表す第一進入口領域および第二進入口領域と含んだ監視領域情報を予め記憶している。例えば、到着ロビーを監視領域とする本実施形態において、第一進入口領域が表す第一進入口は入国ゲートであり、第二進入口領域が表す第二進入口はそれ以外の扉、通路およびエスカレータの乗降口などである。監視領域は出迎えられる者と出迎える者とが専ら接触し、出迎えられる者は少なくとも第一進入口領域から出現した人物の中に含まれ、出迎える者は少なくとも第二進入口領域から出現した人物の中に含まれると推定できる。 The monitoring area information storage means 41 stores in advance monitoring area information including a first entrance area and a second entrance area representing different entrances in the monitoring area. For example, in the present embodiment in which the arrival lobby is the surveillance area, the first entrance represented by the first entrance area is the entry gate, and the second entrance represented by the second entrance area is the other door, aisle, and the like. It is the entrance of the escalator. The surveillance area is a contact between the person to be met and the person to be met, and the person to be greeted is at least included among the persons emerging from the first entrance area, and the person to be met is at least among the persons emerging from the second entrance area. It can be estimated that it is included in
例えば、人物位置を人物の最下端の三次元位置で表す本実施形態においては、第一進入口領域および第二進入口領域のそれぞれは、監視領域を模した仮想三次元空間における基準面上(床面上)の領域として設定される。図3はXYZ座標系で表される仮想三次元空間の基準面を模式的に表したものであり、基準面上に設定された第一進入口領域101、第二進入口領域102,103を例示している。
For example, in the present embodiment in which the position of the person is represented by the three-dimensional position of the lowermost end of the person, each of the first entrance area and the second entrance area is on the reference plane in the virtual three-dimensional space Set as the area of the floor surface). FIG. 3 schematically shows a reference plane of a virtual three-dimensional space represented by an XYZ coordinate system, and the
なお、人物位置を他の代表点とする場合は仮想三次元空間における三次元領域としてもよく、人物位置を監視画像の平面座標系の代表点とする場合は当該平面座標系の二次元領域とすることができる。 Note that when the position of the person is another representative point, it may be a three-dimensional area in the virtual three-dimensional space, and when the position of the person is a representative point of the plane coordinate system of the monitoring image, the two-dimensional area of the plane coordinate system can do.
グループ情報記憶手段42は、人物の組み合わせに関する情報を記憶する。本実施形態においてグループ情報記憶手段42には、追跡中の人物の全ペアに関し、グループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54による検出結果や判定結果の他に、これら各手段による中間データを記憶する。そのため、グループとして検出された人物のペアに関する情報の他に、未だグループとして検出されていない人物ペアの情報を含んで記憶するが、便宜上これらをグループ情報と称する。 The group information storage means 42 stores information on a combination of persons. In the present embodiment, the group information storage means 42 relates to all the pairs of persons under tracking, other than the detection results and the judgment results by the group detection means 51, the posture judgment means 52, the another action judgment means 53 and the suspicious person judgment means 54. The intermediate data by these means are stored. Therefore, in addition to the information on the pair of persons detected as the group, the information on the person pair not yet detected as the group is included and stored, but these are referred to as group information for convenience.
図6は図5の人物情報に対応するグループ情報300を例示している。
FIG. 6 illustrates the
人物ペアは、追跡中の人物のペアであり、人物IDの組み合わせで表される。 The person pair is a pair of persons being tracked, and is represented by a combination of person IDs.
近接時間は、グループ検出手段51が生成する中間データであり、各人物ペアが近接していた時間を表す。
The proximity time is intermediate data generated by the
姿勢フラグは、姿勢判定手段52が生成する判定結果のデータであり、各人物ペアの姿勢が受け渡し姿勢と判定された場合は1、そうでない場合は0が設定される。 The posture flag is data of the determination result generated by the posture determination means 52, and is set to 1 when the posture of each person pair is determined to be the delivery posture, and 0 otherwise.
グループフラグは、グループ検出手段51が生成する検出結果のデータであり、各人物ペアがグループとして検出された場合は1、そうでない場合は0が設定される。
The group flag is data of the detection result generated by the
離間時間は、別行動判定手段53が生成する中間データであり、各人物ペアが離間していた時間を表す。離間時間はグループとして検出された人物ペアについてのみ計測される。 The separation time is intermediate data generated by the separate action determination means 53, and represents the time when each person pair is separated. The separation time is measured only for the person pair detected as a group.
別行動状態は、別行動判定手段53が生成する判定結果のデータであり、各人物ペアについて、確度の高い別行動が判定された場合は「あり」、確度の低い別行動が判定された場合は「警告」、そうでない場合は「なし」が設定される。別行動状態はグループとして検出された人物ペアについてのみ判定される。 The separate action state is data of the determination result generated by the separate action determination means 53, and "Yes" when another action with high accuracy is determined for each person pair, and another action with low accuracy is determined Is set to "Warning", otherwise it is set to "None". Another behavioral state is determined only for the person pair detected as a group.
不審度は、不審者判定手段54が生成する判定結果のデータであり、各人物ペアを構成する人物が不審者の可能性があると判定された場合は1以上の整数、そうでなければ0が設定される。本実施形態において不審度の値域は0〜2である。不審者の可能性があると判定された場合、不審者である確度が高いほど大きな値が設定される。 The suspiciousness degree is data of the judgment result generated by the suspicious person judging means 54, and it is an integer of 1 or more when it is judged that there is a possibility of a person who constitutes each person pair being a suspicious person, 0 otherwise Is set. In the present embodiment, the range of the degree of suspiciousness is 0-2. When it is determined that there is a possibility of a suspicious person, the larger the certainty of being a suspicious person, the larger the value is set.
グループ検出手段51は、複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離D1以下である近接位置関係を維持した人物のグループを不審者の可能性があるグループとして検出し、検出したグループの情報をグループ情報記憶手段42に記憶させる。 The group detection means 51 can be a group of persons of the person who maintained the proximity position relationship between the plurality of persons whose distance between the persons is equal to or less than the predetermined proximity judgment distance D1 within the predetermined suspicious behavior judgment time period. The information is detected as a group having sex and the information of the detected group is stored in the group information storage means 42.
具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報とグループ情報記憶手段42に記憶されているグループ情報とを参照して、各時刻において追跡中である人物の組み合わせ(人物ペア)ごとに人物位置の間の距離(人物間距離)を算出してD1と比較することで近接位置関係であるか否かを判定し、近接位置関係であると判定された人物ペアごとに近接位置関係であると判定され続けた時間(近接時間)を計測して群行動判定時間T1および短期接触判定時間T2と比較し、近接時間がT1を超えており且つT2以下であるグループを検出する。
Specifically, the
つまり、T1よりも長い時間、D1以下の距離に近接し続けていた人物同士は、単にすれ違った人物同士ではなく、会話や受け渡しなどの相手への関与があった人物同士であるとし、さらに、T2以下の短い時間だけ、D1以下の距離に近接し続けていた人物同士は、長時間人目に触れることを避けて接触した人物同士であるとし、これらの人物を不審者の可能性があるグループとして検出する。群行動判定時間T1は例えば歩いてすれ違う人物同士がD1以下の距離に近接してからD1を超える距離に離間するまでの典型的な所要時間にマージンを加えた長さに予め設定しておくことができ、短期接触判定時間T2は例えば受け渡しのみに要する時間にマージンを加えた長さに予め設定しておくことができ、近接判定距離D1は例えば腕2本分の長さにマージンを加えた距離に予め設定しておくことができる。 That is, it is assumed that the persons who continued to be close to the distance of D1 or less for a longer time than T1 are not simply the persons passing each other but the persons having the involvement in the other party such as conversation or delivery. Persons who continued to be close to the distance of D1 or less for a short time of T2 or less are those who have been in contact with each other, avoiding contact with the eyes for a long time, and these persons are groups that have the possibility of suspicious persons As detected. The group action determination time T1 is set, for example, in advance to a typical required time for the passing people to walk away from each other to a distance less than D1 and then to a distance exceeding D1 plus a margin. The short-term contact determination time T2 can be set in advance to, for example, the length of time required only for delivery plus a margin, and the proximity determination distance D1 is, for example, the length for two arms plus a margin The distance can be set in advance.
ここで、時間と距離だけで検出したグループには、たまたま並進しているだけの人物も含まれ得る。そこで、たまたま並進しているだけの人物をグループとして検出しないよう、グループ検出手段51は、出現した位置に対応する進入口領域が異なる人物とを含んだグループを検出する。具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報と監視領域情報記憶手段41に記憶されている監視領域情報とを参照し、各人物の出現位置を第一進入口領域および第二進入口領域の座標と比較することによって、当該人物の出現位置が第一進入口領域であるか、第二進入口領域であるかを判定する。そして、グループ検出手段51は、不審行動判定時間の範囲内で人物間距離が近接判定距離D1以下である近接位置関係を維持した人物の組み合わせのうち、出現位置が第一進入口領域である人物と出現位置が第二進入口領域である人物の組み合わせをグループとして検出する。
Here, a group detected only by time and distance may include a person who is merely translating by chance. Therefore, the
また、相手への関与があった人物同士であることの確度を高めるために、両者が立ち止まったことをグループ検出の条件とすることもできる。すなわち、グループ検出手段51は、不審行動判定時間の範囲内で近接位置関係を維持した人物について、当該近接位置関係を維持していた時の移動距離を算出し、当該移動距離が所定の静止判定距離D0以下である場合にグループを検出する。なお、近接位置関係を維持した時間の全てにおいてD0以下の移動距離である必要はなく、所定の静止判定時間T3だけD0以下の移動距離であれば相手への関与があった人物同士であることを確認できる。
In addition, in order to increase the certainty of being persons who have been involved in the other party, it is possible to set that both have stopped as a condition for group detection. That is, the
具体的には、グループ検出手段51は、人物情報記憶手段40に記憶されている人物情報を参照し、近接位置関係であると判定された人物の人物位置から当該人物の近接位置関係が判定されている間の移動距離を算出してD0と比較し、移動距離がD0以下であった時間(静止時間)を計測してT3と比較する。静止判定距離D0は例えば人ひとりの幅程度の距離とすることができ、静止判定時間T3は例えば群行動判定時間T1と同程度の時間に予め設定しておくことができる。そして、グループ検出手段51は、不審行動判定時間の範囲内で人物間距離が近接判定距離D1以下である近接位置関係を維持した、出現位置が異なる進入口領域である人物の組み合わせのうち、T3よりも長い時間に移動距離がD0以下である人物を含む組み合わせをグループとして検出する。
Specifically, the
そして、グループ検出手段51は、グループ情報における、グループとして検出された人物ペアのグループフラグに1、グループとして検出されていない人物ペアのグループフラグに0を設定する。また、グループ検出手段51は、検出処理の中間結果として、人物情報における各人物の出現位置、静止時間を人物情報記憶手段40との間で適宜入出力し、グループ情報における各人物ペアの近接時間をグループ情報記憶手段42との間で入出力する。
Then, the group detection means 51
また、受け渡しがあった人物同士であることの確度を高めるために、両者が立ち止まったことに加えて、或いは両者が立ち止まったことに代えて、受け渡しの姿勢をとったことをグループ検出の条件としてもよい。 In addition, in order to increase the certainty of the persons who had the delivery, in addition to the two having stopped, or in place of the two having stopped, taking the posture of the delivery as a condition of the group detection It is also good.
そのために、姿勢判定手段52は、監視画像のうちのグループの人物が近接位置関係を維持していた時の監視画像を、予め取得した受け渡し姿勢の画像特徴と比較して、当該人物の姿勢が受け渡し姿勢であるか否かを判定し、判定結果をグループ情報記憶手段42に記憶させる。そして、グループ検出手段51は、この判定結果を参照してグループの検出を行う。
Therefore, the posture determination means 52 compares the monitoring image when the person in the group in the monitoring image maintains the close positional relationship with the image feature of the delivery posture acquired in advance, and the posture of the person is It is determined whether or not it is a delivery attitude, and the determination result is stored in the group
具体的には、まず、姿勢判定手段52は、人物情報記憶手段40に記憶されている人物情報を参照し、近接位置関係であると判定された人物の人物画像から複数の部位を検出する。すなわち、姿勢判定手段52は、予め頭、右肩、右肘、右手首、左肩、左肘、左手首、右臀部、右膝、右足首、左臀部、左膝、左足首の各画像および各画像間の位置関係を学習した部位識別器であって記憶部4に記憶させている部位識別器に、近接位置関係であると判定された人物の人物画像を入力して、当該人物画像における部位の配置を特定する。 Specifically, first, the posture determination means 52 detects a plurality of parts from the person image of the person determined to be in the close positional relationship, with reference to the person information stored in the person information storage means 40. That is, the posture determination means 52 has images of the head, right shoulder, right elbow, right wrist, left shoulder, left elbow, left wrist, right hip, right knee, right ankle, left hip, left knee, left ankle and each image in advance. A human body image of a person determined to be in a close positional relationship is input to a part classifier that is a part classifier that has learned the positional relationship between images and stored in the storage unit 4, and a part in the human image Identify the placement of
次に、姿勢判定手段52は、特定した配置における右手および左手の部位形状モデルの位置を検出する。検出された位置は各人物の人物領域におけるローカルな位置である。姿勢判定手段52は、各人物の人物画像における右手および左手の位置に、当該人物の人物画像の代表位置である人物位置を加えて監視領域におけるグローバルな右手および左手の位置を算出する。なお、人物画像中の人物領域と複数の部位の形状モデルとの形状マッチングによって各部位の位置を検出してもよい。 Next, the posture determination means 52 detects the positions of the right-hand and left-hand part shape models in the specified arrangement. The detected position is a local position in the person area of each person. The posture determination means 52 adds the position of the person who is the representative position of the person image of the person to the positions of the right hand and left hand in the person image of each person to calculate the position of the global right hand and left hand in the monitoring area. The position of each part may be detected by shape matching between a person area in a person image and a shape model of a plurality of parts.
続いて、姿勢判定手段52は、近接位置関係であると判定された人物の間で監視領域における右手および左手の位置の組み合わせの距離を算出して、算出した距離の中から最小の距離を人物間での手の距離として求める。 Subsequently, the posture determination means 52 calculates the distance of the combination of the position of the right hand and the left hand in the monitoring area among the persons determined to be in the close positional relationship, and selects the minimum distance from among the calculated distances. Calculated as the distance between hands.
そして、姿勢判定手段52は、近接位置関係であると判定された人物の組み合わせについて、当該人物間での手の距離が予め定めた閾値D3以下である場合に、人物の組み合わせの姿勢が受け渡し姿勢であると判定して、グループ情報記憶手段42の姿勢フラグを1に更新する。なお、姿勢フラグの初期値は0であり、1に更新されなかった人物の組み合わせの姿勢フラグは0に維持される。また閾値D3はカバンの幅程度の長さに予め設定しておくことができる。
Then, the posture determination means 52 determines that the posture of the combination of persons is the delivery posture when the distance of the hand between the persons is less than or equal to a predetermined threshold D3 for the combination of the persons determined to be in the close positional relationship. The posture flag of the group
図7は、カバンを受け渡している人物AとCの人物画像510,520に対する姿勢判定処理の例を示している。図中の丸印は検出された部位の位置を示している。この例では、姿勢判定手段52によって、左側の人物Aの人物画像510から右手首511および左手首512が検出され、右側の人物Cの人物画像520から右手首521および左手首522が検出されている。そして、姿勢判定手段52は、これらのうち左手首512と右手首521の間の距離を人物間での手の距離として算出し、当該距離がD3以下であることから人物AとCの姿勢は受け渡し姿勢であると判定し、図6のグループ情報における人物ペア「A,C」の姿勢フラグの値を1に更新する。
FIG. 7 shows an example of the posture determination process for
グループ検出手段51によって検出されるグループには、不審者グループのみならず単なる出迎えのグループも含まれている。別行動判定手段53は、検出されたグループを構成する人物がその後に別行動をとったか否かを判定することにより、別行動をとる不審グループと、別行動をとらないことが多い出迎えのグループの区別を可能にする。 The groups detected by the group detection means 51 include not only suspicious person groups but also simple pick-up groups. The separate action determination means 53 determines whether or not the persons who make up the detected group have taken another action after that, and thus a suspicious group taking another action and a group of a meeting who often does not take another action. To distinguish between
そのために別行動判定手段53は、少なくとも、グループの人物が近接判定距離D1よりも長く定められた離間判定距離D2を超える離間位置関係となった場合に当該グループに別行動が発生したと判定し、判定結果をグループ情報記憶手段42に記憶させる。具体的には、別行動判定手段53は、人物情報記憶手段40に記憶されている人物情報とグループ情報記憶手段42に記憶されているグループ情報とを参照して、各時刻においてグループフラグに1が設定されている人物ペアごとに人物間距離を算出してD2と比較することで当該人物ペアが離間位置関係であるか否かを判定する。例えば、離間判定距離D2は近接判定距離D1の3倍程度の長さなどとすることができる。
Therefore, the separate
図5には、或る時刻tにおける人物情報の中間データ200を例示している。また、図3には、図5で示した時刻tまでに、人物A〜Eを追跡して得られた人物位置を結んだ移動軌跡110〜114を模式的に示している。また、図6には、時刻tから30時刻後のグループ情報300を例示している。
FIG. 5 illustrates
これらを基にグループ検出手段51によるグループ検出の例を説明する。
An example of group detection by the
図5の中間データ200および図3の移動軌跡110,112に示したように、人物Aの出現位置は入国ゲート101、人物Cの出現位置は入退室エリア102であり、互いに異なる。人物AとCは、時刻tにおいてD1以下の距離に近接し、図6のグループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物AとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「A,C」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「A,C」は検出条件を満たすものとされ、グループとして検出された。
As shown in the
また、中間データ200および移動軌跡111に示したように、人物Bの出現位置は入国ゲート101であり、人物Cの出現位置とは異なる。人物BとCは、時刻tにおいてD1以下の距離に近接し、グループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物BとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「B,C」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「B,C」は検出条件を満たすものとされ、グループとして検出された。
Further, as shown in the
また、中間データ200および移動軌跡113,114に示したように、人物Dの出現位置は入国ゲート101であり、人物Eの出現位置は入退室エリア103であり、互いに異なる。人物DとEは、時刻tにおいてD1以下の距離に近接し、グループ情報300の近接時間に示したようにその後10時刻の間、近接位置関係が維持された。また、中間データ200の静止時間に示したように近接位置関係が維持されている間に、少なくとも人物BとCは5時刻の間静止していた。さらにはグループ情報300に示したように人物ペア「D,E」が受け渡し姿勢をとったことが判定されて当該ペアの姿勢フラグに1が設定された。これらのデータから人物ペア「D,E」は検出条件を満たすものとされ、グループとして検出された。
Further, as shown in the
ここで、不審者ではない出迎えのグループであっても、グループの中のひとりの歩みが遅れてグループの中の別のひとりがそれに気づかずに短時間だけ先に進んでしまうことが生じ得る。このような場合の誤報を防止するために別行動判定手段53は離間の際の移動方向および/または離間時間を確認することが好適である。 Here, even if it is a group that is not a suspicious person, it may happen that one step in the group is delayed and another one in the group moves ahead for a short time without noticing it. In order to prevent a false alarm in such a case, it is preferable that the separate behavior judging means 53 confirm the moving direction and / or the separation time at the time of separation.
すなわち、別行動判定手段53は、離間位置関係となったグループについて、近接位置関係から当該離間位置関係となるまでの人物の移動方向差を算出し、当該移動方向差が所定の別行動判定角度rを超える場合に別行動が発生したと判定する。 That is, the separate action determination means 53 calculates the movement direction difference of the person from the proximity position relation to the separation position relation for the group having the separation position relation, and the movement direction difference is a predetermined another action determination angle If it exceeds r, it is determined that another action has occurred.
また、別行動判定手段53は、グループの人物が離間位置関係を継続した離間時間を計測し、離間時間が所定の別行動判定時間T4を超えた場合に当該グループに別行動が発生したと判定する。 Further, the separate action determination means 53 measures the separation time in which a person in the group continues the separation positional relationship, and determines that the separate action has occurred in the group when the separation time exceeds the predetermined separate action determination time T4. Do.
具体的には、別行動判定手段53は、人物情報とグループ情報とを参照して、各時刻においてグループフラグに1が設定されている人物ペアごとに、人物間距離がD2を超えたときの両者の直近移動方向の差を離間時の移動方向差として算出して別行動判定角度rと比較するとともに、人物間距離がD2を超えている時間を離間時間として計測してT4と比較し、移動方向差がrを超え、且つ離間時間がT4を超えた場合に当該人物ペアに別行動が発生したと判定する。別行動判定角度rは例えば90度とすることができ、離間時間は例えば数秒程度の長さとすることができる。 Specifically, the separate action determination means 53 refers to the person information and the group information, and the distance between persons exceeds D2 for each person pair whose group flag is set to 1 at each time. The difference between the most recent movement direction of the two is calculated as the movement direction difference at the time of separation and compared with another behavior determination angle r, and the time when the distance between persons exceeds D2 is measured as the separation time and compared with T4. When the movement direction difference exceeds r and the separation time exceeds T4, it is determined that another action has occurred in the person pair. The separate action determination angle r may be, for example, 90 degrees, and the separation time may be, for example, several seconds.
なお、上記説明では、移動方向差がrを超え且つ離間時間がT4を超えることを条件としたが、一方のみの成立を条件とし、移動方向差がrを超えた場合に別行動が発生したと判定してもよいし、離間時間がT4を超えた場合に別行動が発生したと判定してもよい。また、2以上の条件成立を管理して成立した条件別にランク付けしてもよい。 In the above description, although the moving direction difference exceeds r and the separation time exceeds T4, another action occurs when the moving direction difference exceeds r on condition that only one of the moving conditions is satisfied. It may be determined that the other action has occurred when the separation time exceeds T4. Further, two or more conditions may be managed and ranked according to the satisfied conditions.
本実施形態では、移動方向差がrを超え且つ離間時間がT4を超えた場合と、離間時間がT4を超えた場合に別行動が発生したと判定し、前者を後者よりも確信度が高い状態として管理する。 In this embodiment, it is determined that another action has occurred when the movement direction difference exceeds r and the separation time exceeds T4, and when the separation time exceeds T4, the former has higher confidence than the latter. Manage as a state.
そして、別行動判定手段53は、グループ情報における、移動方向差がrを超え且つ離間時間がT4を超えた人物ペアの別行動状態に「あり」、離間時間がT4を超えた且つ移動方向差が未だrを超えていない人物ペアの別行動状態に「警告」、それ以外の人物ペアの別行動状態に「なし」を設定する。また、別行動判定手段53は、判定処理の中間結果として、人物情報における各人物の離間時間を人物情報記憶手段40との間で適宜入出力し、グループ情報における各人物ペアの直近移動方向をグループ情報記憶手段42との間で入出力する。
Then, the separate
不審者判定手段54は、少なくとも別行動判定手段53による判定結果を参照して、別行動の発生が判定されたグループの人物を不審者と判定し、不審者の情報(不審者情報)を生成して不審者情報出力手段31に出力する。 The suspicious person determination means 54 determines that the person in the group in which the occurrence of another action is determined is a suspicious person with reference to at least the determination result by the separate action determination means 53, and generates information (suspicious person information) of the suspicious person Then, the information is output to the suspicious person information output means 31.
具体的には、不審者判定手段54は、グループ情報記憶手段42に記憶されたグループ情報を参照し、別行動状態が「あり」または「警告」である人物ペアを構成する人物を不審者と判定して、グループ情報記憶手段42のグループ情報における当該人物ペアの不審度に1以上の値を設定する。このとき、不審者判定手段54は、別行動状態が「警告」である場合よりも「あり」である場合の方が不審者である確度が高いとして、「警告」である場合の不審度を1、「あり」である場合の不審度を2に設定する。 Specifically, the suspicious person determination means 54 refers to the group information stored in the group information storage means 42, and sets a person who constitutes a pair of persons whose other action state is "Yes" or "Warning" with the suspicious person. It determines and sets one or more values to the suspiciousness degree of the said person pair in the group information of the group information storage means 42. At this time, the suspicious person determination means 54 determines that the degree of suspiciousness is “warning”, assuming that the likelihood of being a suspicious person is higher when the other behavior state is “yes” than when the other action state is “warning”. 1. Set the suspiciousness degree when it is "Available" to 2.
ここで、受け渡しを行う不審者は人目を避けるために監視領域の滞在時間を短く済ませる傾向があると考えられる。そこで、不審者判定手段54は、人物の前記監視領域における滞在時間を計測し、別行動の発生が判定されたグループの人物の滞在時間が所定の短期滞在判定時間T5以下である場合に当該人物を不審者と判定することもできる。短期滞在判定時間T5は例えば事前の実験等を通じて得られた監視領域の平均滞在時間よりも短い時間に予め設定される。 Here, it is considered that the suspicious person performing the delivery tends to shorten the stay time of the monitoring area in order to avoid the eyes. Therefore, the suspicious person determination means 54 measures the stay time of the person in the monitoring area, and the stay time of the person of the group whose occurrence of another action is determined is the predetermined short stay determination time T5 or less. Can also be determined as a suspicious person. The short-term stay determination time T5 is preset to a time shorter than the average stay time of the monitoring area obtained through, for example, prior experiments.
或いは、滞在時間の短さに応じて不審者である確度を高めることも好適である。この場合、例えば、不審者判定手段54は、別行動状態が「あり」である人物ペアを構成するいずれかの人物の滞在時間がT5以下である場合に当該ペアの不審度を3に設定し、別行動状態が「あり」である人物ペアを構成する人物の滞在時間がいずれもT5を超えている場合に当該ペアの不審度を2に設定する。また、例えば、不審者判定手段54は、さらに別行動状態が「警告」である人物ペアを構成するいずれかの人物の滞在時間がT5以下である場合に当該ペアの不審度を2に設定し、別行動状態が「警告」である人物ペアを構成する人物の滞在時間がいずれもT5を超えている場合に当該ペアの不審度を1に設定する。 Alternatively, it is also preferable to increase the certainty of being a suspicious person according to the short stay time. In this case, for example, the suspicious person determination means 54 sets the suspiciousness degree of the pair to 3 when the stay time of any of the persons who make up the person pair whose separate action state is “A” is equal to or less than T5. The suspiciousness degree of the pair is set to 2 when the stay time of the person who constitutes the person pair whose other action state is "yes" exceeds T5. Further, for example, the suspicious person determination means 54 sets the suspiciousness degree of the pair to 2 when the stay time of any of the persons constituting the person pair whose another action state is “warning” is T5 or less. The suspiciousness degree of the pair is set to 1 when the stay time of the persons constituting the person pair whose other action state is "warning" exceeds T5 in any case.
また、不審者判定手段54は、不審度が1以上である人物グループを構成する人物の人物情報を基に、監視員が当該人物の行動等を視認可能な不審者情報を生成して、不審者情報出力手段31に出力する。例えば、不審者情報は、監視画像、該当する人物ペアの不審度、および該当する人物の人物画像を合成した画像とすることができる。 In addition, the suspicious person determination means 54 generates suspicious person information in which the monitoring person can visually recognize the action of the person based on the person information of the persons constituting the person group having a degree of suspiciousness of 1 or more. It is outputted to the person information output means 31. For example, the suspicious person information can be an image obtained by combining the monitoring image, the suspiciousness degree of the corresponding person pair, and the person image of the corresponding person.
不審者情報出力手段31は、不審者判定手段54から入力された不審者情報を通信網を介して表示部6に伝送する。そして、不審者情報は、表示部6によって表示され、監視員により視認される。
The suspicious person
図5には、或る時刻tの30時刻後における人物情報の中間データ201を例示している。また、図4には、時刻tからその30時刻後までに、人物A〜Eを追跡して得られた人物位置を結んだ移動軌跡210〜214を模式的に示している。また、図6には、時刻tから30時刻後のグループ情報300を例示している。
FIG. 5 exemplifies the
これらを基に別行動判定手段53による別行動判定処理と不審者判定手段54による不審者判定の例を説明する。 Based on these, an example of another behavior determination processing by the other behavior determination means 53 and a suspicious person determination by the suspicious person determination means 54 will be described.
グループ情報300に示したように、グループフラグに1が設定された人物ペア「A,C」、「B,C」および「D,E」がグループとして検出されている。
As shown in the
そのうちの人物ペア「A,C」は、移動軌跡210,211に示したように離間時の移動方向差が大きく、グループ情報300の離間時間に示したように15時刻の間、離間位置関係を継続している。これらのデータから人物ペア「A,C」には別行動が発生したと判定され、別行動状態に「あり」が設定された。そして、別行動状態が「あり」に設定されたことを受けて、人物ペア「A,C」の不審度が2に設定された。
Among them, the person pair “A, C” has a large movement direction difference at the time of separation as shown by the
人物ペア「B,C」は、移動軌跡211,212から分かるように離間時の移動方向差が大きいが、グループ情報300に示したように離間時間は未だ5時刻である。これらのデータから人物ペア「B,C」には別行動が発生したと判定され、未だ離間時間が短いため別行動状態に「警告」が設定された。そして、別行動状態が「警告」に設定されたことを受けて、人物ペア「B,C」の不審度が1に設定された。
The person pair “B, C” has a large movement direction difference at the time of separation as seen from the
人物ペア「D,E」は、移動軌跡213,214から分かるように離間時の移動方向差が小さいため、別行動の発生が判定されない。そのため、人物ペア「D,E」の別行動状態は「なし」のままとなり、人物ペア「B,C」の不審度は0のままとなる。
Since the movement direction difference at the time of separation is small as the person pair “D, E” can be seen from the
図8〜図12のフローチャートを参照して画像監視装置1の動作を説明する。
The operation of the
画像監視装置1の管理者は監視領域が無人であることを確認して画像監視装置1を起動する。起動後、撮影部2は監視領域を所定時間間隔で撮影して監視画像を順次出力する。通信部3は画像取得手段30として動作し、監視画像は画像取得手段30を介して画像処理部5に順次入力される。
The administrator of the
画像処理部5では監視画像が取得されるたびに図8のステップS1〜S5の処理が繰り返される。
The
画像取得手段30を介して監視画像が取得されると(S1)、画像処理部5が人物追跡手段50等として動作するとともに記憶部4が人物情報記憶手段40等として動作し、監視画像中の各人物を追跡する(S2)。
When a surveillance image is acquired via the image acquisition unit 30 (S1), the
図9を参照してステップS2の人物追跡処理を説明する。人物追跡処理の過程においては、画像処理部5がグループ検出手段51、姿勢判定手段52、別行動判定手段53および不審者判定手段54としても動作するとともに、記憶部4が監視領域情報記憶手段40およびグループ情報記憶手段42としても動作し、適宜、グループ検出や別行動判定、不審者判定のための情報生成が行われる。
The person tracking process of step S2 will be described with reference to FIG. In the process of person tracking processing, the
まず、人物追跡手段50は、監視画像と背景画像との差分処理により監視画像から人物画像を抽出して人物位置(現在位置)を特定する(S211)。また、ステップS211において人物追跡手段50は、適宜、背景画像の更新を行う。なお、起動直後から所定時間が経過するまで、ステップS211において人物追跡手段50は入力された監視画像を平均化するなどして背景画像を生成し、記憶部4に記憶させる処理を行うだけで、ステップS212〜S226の処理を省略する。
First, the person tracking means 50 extracts a person image from the surveillance image by differential processing between the surveillance image and the background image, and identifies the person position (current position) (S211). In addition, in step S211, the
次に、人物追跡手段50は、人物画像のそれぞれから特徴量を抽出して、人物情報記憶手段40に記憶している追跡中の人物(追跡人物)の人物特徴量と比較して人物画像の人物IDを特定することで、人物の対応付けを行う(S212)。このとき、人物追跡手段50は、いずれの追跡人物とも対応づかない人物画像には新規の人物IDを付与する。
Next, the person tracking means 50 extracts the feature amount from each of the person images, and compares it with the person feature amount of the person (tracking person) being tracked stored in the person information storage means 40 By specifying the person ID, the person is associated (S212). At this time, the
続いて、人物追跡手段50は、新規の人物(新規人物)を含めた追跡人物を順次注目人物に設定してステップS213〜S226のループ処理を実行する。
Subsequently, the
追跡人物のループ処理において、まず、人物追跡手段50は、注目人物が新規人物であるか否かを確認する(S214)。人物情報記憶手段40に記録がなければ新規人物である。注目人物が新規人物であれば(ステップS214にてyes)、処理をステップS215に進める。 In the loop process of the tracking person, first, the human tracking means 50 checks whether the noted person is a new person (S214). If there is no record in the person information storage means 40, it is a new person. If the focused person is a new person (yes in step S214), the process proceeds to step S215.
ステップS215においては新規人物の人物情報とグループ情報の追記が行われる。すなわち、人物追跡手段50は、ステップS212で付与した注目人物の人物ID、ステップS211で抽出した人物画像、ステップS212で抽出した人物特徴量を有する人物情報を人物情報記憶手段40に追加記憶させる。また、グループ検出手段51は注目人物の人物IDとその他の追跡人物の人物IDとを組み合わせた新規の人物ペアのグループ情報をグループ情報記憶手段42に追加記憶させる。
In step S215, the addition of the person information of the new person and the group information is performed. That is, the person tracking means 50 causes the person information storage means 40 to additionally store the person ID of the notable person given in step S212, the person image extracted in step S211, and the person information having the person feature amount extracted in step S212. Further, the
続くステップS216においては新規人物の人物情報とグループ情報が初期化される。すなわち、グループ検出手段51はステップS215で追記された人物情報における出現位置を空欄、静止時間を0に更新する。また、グループ検出手段51はステップS215で追記されたグループ情報における近接時間を0、グループフラグを0に更新する。また、姿勢判定手段52は当該グループ情報における姿勢判定フラグを0に更新する。また、別行動判定手段53は、当該人物情報における直近移動方向を空欄に更新し、当該グループ情報における離間時間を0、別行動状態を「なし」に更新する。また、不審者判定手段54は当該人物情報における滞在時間を0に更新し、当該グループ情報における不審度を0に更新する。
In the subsequent step S216, personal information and group information of the new person are initialized. That is, the
続くステップS217において、グループ検出手段51は注目人物の現在位置を、監視領域情報記憶手段41に記憶されている監視領域情報と比較して、注目人物の出現位置が第一進入口領域であるか第二進入口領域であるかを判定し、判定結果を人物情報記憶手段40に記憶させる。本実施形態では、第一進入口領域であれば「入国ゲート」、第二進入口領域であれば「入退室エリア」という文字列が記憶される。
In the subsequent step S217, the
ステップS217の判定を終えると処理はステップS226に進められる。 When the determination in step S217 is finished, the process proceeds to step S226.
一方、注目人物が新規人物でない場合(ステップS214にてno)、処理はステップS218に進められる。 On the other hand, if the noted person is not a new person (NO in step S214), the process proceeds to step S218.
ステップS218において人物追跡手段50およびグループ検出手段51は注目人物が消失(すなわち監視領域外に移動)したか否かを確認する。消失した場合(ステップS218にてyes)、人物追跡手段50が注目人物の人物情報を人物情報記憶手段40から削除するとともに、グループ検出手段51が注目人物を含む人物ペアのグループ情報をグループ情報記憶手段42から削除して(S225)、処理はステップS226に進められる。
In step S218, the
他方、注目人物が消失していない場合(ステップS218にてno)、処理はステップS219に進められる。 On the other hand, if the noted person has not disappeared (NO in step S218), the process proceeds to step S219.
ステップS219において、グループ検出手段51は、人物情報記憶手段40に記憶されている注目人物の1時刻前の人物位置と、ステップS211で特定した注目人物の現在位置から移動距離を算出して静止判定距離D0と比較する。移動距離がD0以下である場合(ステップS219にてyes)、グループ検出手段51は人物情報記憶手段40に記憶されている注目人物の静止時間を1時刻だけインクリメントする(S220)。他方、移動距離がD0を超えている場合(ステップS219にてno)、グループ検出手段51は人物情報記憶手段40に記憶されている注目人物の静止時間を0にリセットして(S221)処理をステップS222に進める。
In step S219, the
続くステップS222において、不審者判定手段54は、人物情報記憶手段40に記憶されている注目人物の滞在時間を1時刻だけインクリメントする。 In the subsequent step S222, the suspicious person determination means 54 increments the stay time of the noted person stored in the person information storage means 40 by one time.
続くステップS223において、別行動判定手段53は、人物情報記憶手段40に記憶されている注目人物の1時刻前の人物位置と、ステップS211で特定した注目人物の現在位置から移動方向を算出して、算出した移動方向を人物情報記憶手段40における注目人物の直近移動方向に上書き記憶させる。
In the following step S223, the separate action determination means 53 calculates the movement direction from the person position one time before the attention person stored in the person information storage means 40 and the current position of the attention person specified in step S211. The calculated moving direction is overwritten and stored in the nearest moving direction of the noted person in the person
続くステップS224において、人物追跡手段50は、ステップS211で特定した注目人物の現在位置を人物情報記憶手段40における注目人物の現在位置に上書き記憶させる。 In the following step S224, the person tracking means 50 overwrites and stores the current position of the noted person specified in step S211 in the current position of the noted person in the person information storage means 40.
続くステップS226において人物追跡手段50は新規人物を含めた追跡人物の全てを注目人物として処理し終えたか否かを確認する。未処理の追跡人物がある場合(ステップS226にてno)、処理はステップS213に戻されて次の追跡人物の処理が行われる。他方、全ての追跡人物を処理し終えた場合(ステップS226にてyes)、処理は図8のステップS3へと進められる。 In the subsequent step S226, the person tracking means 50 confirms whether or not all of the chase persons including the new person have been processed as the target person. If there is an unprocessed chase person (No in step S226), the process returns to step S213, and the process of the next chase person is performed. On the other hand, if all the tracking persons have been processed (YES in step S226), the process proceeds to step S3 in FIG.
ステップS3においては、人物追跡処理によって更新された人物情報およびグループ情報を基にしてグループ検出処理が行われる。 In step S3, a group detection process is performed based on the person information and the group information updated by the person tracking process.
図10を参照してステップS3のグループ検出処理を説明する。グループ検出処理の過程においては、画像処理部5がグループ検出手段51および姿勢判定手段52として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。
The group detection process of step S3 will be described with reference to FIG. In the process of group detection processing, the
グループ検出手段51は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS311〜S323のループ処理を実行する。
The
人物ペアのループ処理において、まず、グループ検出手段51は、注目ペアのグループフラグが0であるか否かを確認する(S312)。グループフラグが0であれば注目ペアが不審者のグループの可能性があるか否かが未定であるとして(ステップS312にてyes)、処理をステップS313に進める。他方、グループフラグが1である場合(ステップS312にてno)、ステップS313〜S322は省略されて処理はステップS323に進められる。
In the loop processing of a person pair, first, the
ステップS313において、グループ検出手段51は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の出現位置を比較する。両者の出現した進入口が異なる場合(ステップS313にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS314に進める。他方、出現した進入口が同一である場合(ステップS313にてno)、ステップS314〜S322は省略されて処理はステップS323に進められる。
In step S313, the
ステップS314においてグループ検出手段51は注目ペアを構成する人物それぞれの静止時間を静止判定時間T3と比較する。両者の静止時間が共にT3を超えている場合(ステップS314にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS315に進める。他方、静止時間の一方がT3以下であった場合(ステップS314にてno)、ステップS315〜S322は省略されて処理はステップS323に進められる。
In step S314, the
ステップS315において、グループ検出手段51は、注目ペアを構成する人物の現在位置から人物間距離を算出して人物間距離を近接判定距離D1と比較する。人物間距離がD1以下である場合(ステップS315にてyes)、グループ検出手段51はグループ情報記憶手段42に記憶されている注目ペアの近接時間を1時刻だけ増加させて(S316)、処理をステップS317に進める。他方、人物間距離がD1を超えている場合(ステップS315にてno)、ステップS316〜S322は省略されて処理はステップS323に進められる。
In step S315, the
ステップS317において、姿勢判定手段52は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の現在位置と人物画像から注目ペアの姿勢が受け渡し姿勢であるか否かを判定する。注目ペアの姿勢が受け渡し姿勢である場合(ステップS317にてyes)、姿勢判定手段52は、グループ情報記憶手段42に記憶されている注目ペアの姿勢フラグを1に更新する(S318)。他方、注目ペアの姿勢が受け渡し姿勢でなかった場合(ステップS317にてno)、ステップS318の処理は省略される。 In step S317, the posture determination means 52 reads out the personal information of each of the persons constituting the attention pair from the person information storage means 40, and determines whether the posture of the attention pair is the delivery attitude from the current position of both and the person image. judge. If the posture of the attention pair is the delivery posture (yes in step S317), the posture determination means 52 updates the posture flag of the attention pair stored in the group information storage means 42 to 1 (S318). On the other hand, when the posture of the attention pair is not the delivery posture (NO in step S317), the process of step S318 is omitted.
ステップS319〜S321において、グループ検出手段51は、グループ情報記憶手段42から注目ペアのグループ情報を改めて読み出すとともに、人物情報記憶手段40から注目ペアを構成する人物それぞれの人物情報を改めて読み出して、これらの情報を基に注目ペアが不審者のグループの可能性があるか否かを判定する。
In steps S319 to S321, the
ステップS319においてグループ検出手段51は注目ペアの姿勢フラグが1であるか否かを確認する。姿勢フラグが1である場合(ステップS319にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS320に進める。他方、姿勢フラグが0である場合(ステップS319にてno)、ステップS320〜S322は省略されて処理はステップS323に進められる。
In step S319, the
ステップS320においてグループ検出手段51は注目ペアの近接時間を群行動判定時間T1と比較する。近接時間がT1を超えている場合(ステップS320にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして処理をステップS321に進める。他方、近接時間がT1以下である場合(ステップS320にてno)、ステップS321,S322は省略されて処理はステップS323に進められる。
In step S320, the
ステップS321においてグループ検出手段51は注目ペアの近接時間を短期接触判定時間T2と比較する。近接時間がT2以下である場合(ステップS321にてyes)、グループ検出手段51は、不審者のグループの可能性があるとして、グループ情報記憶手段42に記憶されている注目ペアのグループフラグを1に更新する(S322)。他方、近接時間がT2を超えている場合(ステップS321にてno)、不審者のグループである可能性は無いとしてステップS322は省略されて処理はステップS323に進められる。
In step S321, the
ステップS323においてグループ検出手段51はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS323にてno)、処理はステップS311に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS323にてyes)、処理は図8のステップS4へと進められる。
In step S323, the
ステップS4においては、グループ検出処理によって検出されたグループの人物に別行動が発生したか否かを判定する別行動判定処理が行われる。 In step S4, another action determination process is performed to determine whether another action has occurred for the person in the group detected by the group detection process.
図11を参照してステップS4の別行動判定処理を説明する。別行動判定処理の過程においては、画像処理部5が別行動判定手段53として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。
Another action determination process of step S4 will be described with reference to FIG. In the process of the separate action determination process, the
別行動判定手段53は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS411〜S422のループ処理を実行する。
The separate
人物ペアのループ処理において、まず、別行動判定手段53は、注目ペアのグループフラグが1であるか否かを確認する(S412)。グループフラグが1であれば(ステップS412にてyes)、処理をステップS413に進める。他方、グループフラグが0であれば判定対象でないとして(ステップS412にてno)、処理をステップS422に進める。 In the loop processing of the person pair, the separate behavior determination means 53 first confirms whether the group flag of the attention pair is 1 (S412). If the group flag is 1 (yes in step S412), the process proceeds to step S413. On the other hand, if the group flag is 0, it is not determined (No in step S412), and the process proceeds to step S422.
また、別行動判定手段53は、注目ペアの別行動状態が「なし」または「警告」であるかを確認する(S413)。別行動状態が「なし」または「警告」であれば判定対象であるとして(ステップS413にてyes)、処理をステップS414に進める。他方、別行動状態が「あり」であれば判定済みであるとして(ステップS413にてno)、処理をステップS422に進める。
Further, the other-
ステップS414において、別行動判定手段53は、注目ペアを構成する人物それぞれの人物情報を人物情報記憶手段40から読み出し、両者の現在位置から人物間距離を算出して人物間距離を離間判定距離D2と比較する。人物間距離がD2を超えている場合(ステップS414にてyes)、別行動判定手段53はグループ情報記憶手段42に記憶されている注目ペアの離間時間を1時刻だけ増加させて(S417)、処理をステップS418に進める。他方、人物間距離がD2以下である場合は別行動が発生していないとして(ステップS414にてno)、別行動判定手段53はグループ情報記憶手段42における注目ペアの離間時間を0にリセットするとともに(S415)、同ペアの別行動状態に「なし」を設定して(S416)、処理をステップS422に進める。
In step S414, the separate action determination means 53 reads out the personal information of each of the persons constituting the pair of interest from the personal information storage means 40, calculates the inter-person distance from the current position of both, and determines the inter-person distance as the separation determination distance D2. Compare with. When the inter-person distance exceeds D2 (yes in step S414), the separate
ステップS418において、別行動判定手段53は、ステップS417で更新した注目ペアの離間時間を別行動判定時間T4と比較する。離間時間がT4を超えている場合は別行動が発生しているとして(ステップS418にてyes)、処理をステップS419に進める。他方、離間時間がT4以下である場合は別行動が発生していないとして(ステップS418にてno)、ステップS419〜S421は省略されて処理はステップS422に進められる。 In step S418, the another behavior determination means 53 compares the separation time of the attention pair updated in step S417 with the other behavior determination time T4. If the separation time exceeds T4, another process is generated (YES in step S418), and the process proceeds to step S419. On the other hand, if the separation time is equal to or less than T4, another action is not generated (NO in step S418), steps S419 to S421 are omitted, and the process proceeds to step S422.
ステップS419において、別行動判定手段53は、注目ペアを構成する人物の間で直近移動方向の差である移動方向差を算出して移動方向差を別方向判定角度rと比較する。移動方向差がrを超えている場合は別行動発生の確信度の高い状態であるとして(ステップS419にてyes)、別行動判定手段53はグループ情報記憶手段42における注目ペアの別行動状態に「あり」を設定して(S421)、処理をステップS422に進める。他方、移動方向差がr以下である場合は別行動発生の可能性がある状態が続いているとして(ステップS419にてno)、別行動判定手段53はグループ情報記憶手段42における注目ペアの別行動状態に「警告」を設定して(S420)、処理をステップS422に進める。
In step S419, the another
ステップS422において別行動判定手段53はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS422にてno)、処理はステップS411に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS422にてyes)、処理は図8のステップS5へと進められる。 In step S422, the other-action determination means 53 confirms whether all the person pairs included in the group information have been processed as a target pair. If there is an unprocessed person pair (No in step S422), the process returns to step S411 to process the next person pair. On the other hand, if all the pairs of persons have been processed (YES in step S422), the process proceeds to step S5 in FIG.
ステップS5においては、別行動判定処理の結果に基づいて不審者を判定する不審者判定処理が行われる。 In step S5, a suspicious person determination process of determining a suspicious person based on the result of the separate action determination process is performed.
図12を参照してステップS5の不審者判定処理を説明する。不審者判定処理の過程においては、画像処理部5が不審者判定手段54として動作するとともに、記憶部4が人物情報記憶手段40およびグループ情報記憶手段42として動作する。
The suspicious person determination process of step S5 will be described with reference to FIG. In the process of the suspicious person determination process, the
不審者判定手段54は、グループ情報記憶手段42からグループ情報を読み出し、グループ情報に含まれている人物ペアを順次注目ペアに設定してステップS511〜S518のループ処理を実行する。
The suspicious
人物ペアのループ処理において、不審者判定手段54は、グループ情報における注目ペアの別行動状態を確認する(S512,S515)。 In the loop processing of the person pair, the suspicious person determination means 54 confirms another behavior state of the noted pair in the group information (S512, S515).
注目ペアの別行動状態が「あり」である場合(ステップS512にてyes)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を2に更新する(S514)。 When the another behavior state of the noted pair is "present" (yes in step S512), the suspicious person determination means 54 updates the suspiciousness degree of the noted pair in the group information storage means 42 of the noted pair to 2 (S514) .
そして、別行動状態が「警告」または「なし」である場合(ステップS512にてno)、不審者判定手段54は、処理をステップS515に進める。 Then, if the separate action state is “warning” or “none” (NO in step S512), the suspicious person determination means 54 advances the process to step S515.
他方、注目ペアを構成する人物の滞在時間がいずれもT5を超えている場合(ステップS513にてno)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を0に更新し(S517)、処理をステップS518に進める。 On the other hand, when the stay time of the persons constituting the noted pair exceeds T5 in any case (no in step S513), the suspicious person judging means 54 determines the suspiciousness degree of the noted pair in the group information storage means 42 of the noted pair. It is updated to 0 (S517), and the process proceeds to step S518.
ステップS515において不審者判定手段54は注目ペアの別行動状態を再び確認する。注目ペアの別行動状態が「警告」である場合(ステップS515にてyes)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を1に更新し(S516)、処理をステップS518に進める。 In step S515, the suspicious person determination means 54 again confirms another behavior state of the noted pair. When the another behavior state of the noted pair is "warning" (yes in step S515), the suspicious person determination means 54 updates the suspiciousness degree of the noted pair in the group information storage means 42 of the noted pair to 1 (S516) The process then proceeds to step S518.
他方、注目ペアの別行動状態が「なし」である場合(ステップS515にてno)、不審者判定手段54は、注目ペアのグループ情報記憶手段42における注目ペアの不審度を0に更新し(S517)、処理をステップS518に進める。 On the other hand, when the another behavior state of the noticed pair is "none" (No in step S515), the suspicious person judging means 54 updates the suspiciousness degree of the noticed pair in the group information storage means 42 of the noticed pair to 0 ( S517), the process proceeds to step S518.
ステップS518において不審者判定手段54はグループ情報に含まれている全ての人物ペアを注目ペアとして処理し終えたか否かを確認する。未処理の人物ペアがある場合(ステップS518にてno)、処理はステップS511に戻されて次の人物ペアの処理が行われる。他方、全ての人物ペアを処理し終えた場合(ステップS518にてyes)、処理は図8のステップS6へと進められる。 In step S518, the suspicious person determination means 54 confirms whether or not all the pairs of persons included in the group information have been processed as a target pair. If there is an unprocessed person pair (No in step S518), the process returns to step S511 to process the next person pair. On the other hand, if all of the person pairs have been processed (YES in step S518), the process proceeds to step S6 in FIG.
ステップS6において、不審者判定手段54は、改めてグループ情報記憶手段42のグループ情報を参照し、不審度が1以上であるグループの有無を確認する。 In step S6, the suspicious person determination means 54 refers again to the group information in the group information storage means 42, and confirms the presence or absence of a group whose suspiciousness degree is 1 or more.
不審度が1以上であるグループがある場合(ステップS6にてyes)、不審者情報の生成および出力が行われる(S7)。 If there is a group whose suspiciousness degree is 1 or more (yes in step S6), generation and output of suspicious person information are performed (S7).
ステップS7において、不審者判定手段54は、不審度が1以上である人物ペアを構成する人物の人物情報を人物情報記憶手段40から読み出す。そして、不審者判定手段54は、人物ごとに当該各人物が属する人物ペアの不審度を表す文字列、と当該各人物の人物画像を合成した不審者画像を生成する。さらに、不審者判定手段54は、これら1または複数の不審者画像を監視画像に並べて合成した画像を不審者情報として生成し、通信部3に出力する。
In step S7, the suspicious person determination means 54 reads out, from the person information storage means 40, the person information of the person who constitutes the person pair whose degree of suspiciousness is one or more. Then, the suspicious person determination means 54 generates a suspicious person image in which a character string indicating the degree of suspiciousness of the person pair to which each person belongs belongs for each person and the person image of each person. Further, the suspicious person determination means 54 generates an image obtained by arranging and combining the one or a plurality of suspicious person images in the monitoring image as suspicious person information, and outputs the image to the
不審者情報を入力された通信部3は不審者情報出力手段31として動作し、不審者情報を表示部6に伝送する。表示部6は不審情報を監視員が視認可能に表示する。
The
他方、不審度が1以上であるグループがない場合(ステップS6にてno)、ステップS7は省略される。このとき、画像処理部5は監視画像をそのまま通信部3に出力して表示部6に伝送させ、表示部6に監視画像を表示させてもよい。
On the other hand, when there is no group whose degree of suspiciousness is 1 or more (No in step S6), step S7 is omitted. At this time, the
以上の処理を終えると処理は再びステップS1に戻される。 When the above process is completed, the process returns to step S1.
<変形例>
(1)上記実施形態においては、空港内の到着ロビーを監視領域とする例を示したが、バスの到着ロビー、駅の改札前、通路の合流地点など、人と人とが専ら異方向から到来して合流する領域に適用可能である。
<Modification>
(1) In the above embodiment, an example is shown in which the arrival lobby in the airport is used as a monitoring area. However, people and people are exclusively from different directions, such as the arrival lobby of the bus, the station before the ticket gate, and the junction of the passage. It is applicable to the area which arrives and joins.
(2)上記実施形態およびその変形例においては、2種類の進入口領域を設定する例を示したが、三叉路の各通路上に進入口領域を設定する等、3種類以上の進入口領域を設定してもよい。 (2) In the above embodiment and its modification, an example in which two types of entrance areas are set is shown, but three or more types of entrance areas may be set, such as setting entrance areas on each passage of the trifurcation. It may be set.
(3)上記実施形態およびその各変形例においては、グループ検出手段51が群行動判定時間T1を下限値とし短期接触判定時間T2を上限値とする不審行動判定時間の範囲内で近接位置関係を維持した人物のグループを検出する例を示したが、上限値を省略し、近接時間が群行動判定時間T1を超える範囲を不審行動判定時間の範囲としてもよい。
(3) In the above embodiment and each variation, the
(4)上記実施形態およびその各変形例においては、グループ検出手段51が出現位置に基づいて異方向から到来した人物のグループを検出する例を示したが、出現位置に代わる検出指標として人物の移動方向を用いることもできる。
その場合、グループ検出手段51が、上述した別行動判定手段53と同様にして、不審行動判定時間の範囲内で近接位置関係を維持した人物について、当該近接位置関係となる直前の移動方向差を算出し、当該移動方向差が所定の別方向判定角度を超える場合にグループを検出する。
(4) In the above-described embodiment and each of the modifications, an example is shown in which the
In that case, the group detection means 51, similar to the separate action determination means 53 described above, for the person whose proximity position relationship is maintained within the range of the suspicious activity determination time, the movement direction difference immediately before the proximity position relationship The group is calculated when the movement direction difference exceeds a predetermined other direction determination angle.
(5)上記実施形態およびその各変形例においては、別行動判定手段53が近接位置関係から離間位置関係となるまでの人物の移動方向差に基づいて別行動の発生を検出する例を示したが、移動方向差に代わる検出指標として監視領域からの消失を用いることもできる。
その場合、別行動判定手段53は、グループの人物が離間位置関係を維持したまま監視領域から消失した場合に当該グループに別行動が発生したと判定する。
(5) In the above-described embodiment and each of the modifications, an example is shown in which the separate
In that case, the separate
(6)上記実施形態およびその各変形例においては、人物追跡手段50が人物位置履歴として出現位置と最新位置を記録し、グループ検出手段51、別行動判定手段53、不審者判定手段54が逐次的に人物位置履歴を参照して各種処理を行う例を示した。さらなる変形例においては、撮影手段が撮影時刻を付加して監視画像を出力して、人物追跡手段50が人物位置履歴として出現位置から最新位置までの人物位置と撮影時刻の組を記録し、グループ検出手段51、別行動判定手段53および不審者判定手段54が適宜に人物位置履歴をさかのぼることによって各種処理を行ってもよい。この場合、例えば、直前移動方向を3時刻以上の移動方向の平均とすることができる。また、この場合、例えば、不審者判定手段54は不審者情報に不審度が1以上の人物についての移動軌跡を加えて出力することもできる。
(6) In the above embodiment and each of the modifications, the
(7)上記実施形態およびその各変形例においては、グループ検出手段51が、近接位置関係の維持に加えて、出現位置か移動方向差の条件、受け渡し姿勢の条件および静止時間の条件を満足する人物のグループを検出する例を示したが、グループ検出手段51は、出現位置の条件、移動方向差の条件、受け渡し姿勢の条件および静止時間の条件を省略して検出してもよいし、出現位置の条件、移動方向差の条件、受け渡し姿勢の条件および静止時間の条件のうちのひとつの条件を用いて検出してもよいし、出現位置の条件と移動方向差の条件を同時使用しない範囲で出現位置の条件、移動方向差の条件、受け渡し姿勢の条件、静止時間の条件のうちの2以上の条件を組み合わせて検出してもよい。
(7) In the above-described embodiment and each of the modifications, the
1・・・画像監視装置
2・・・撮影部
3・・・通信部
30・・・画像取得手段
31・・・不審者情報出力手段
4・・・記憶部
40・・・人物情報記憶手段
41・・・監視領域情報記憶手段
42・・・グループ情報記憶手段
5・・・画像処理部
50・・・人物追跡手段
51・・・グループ検出手段
52・・・姿勢判定手段
53・・・別行動判定手段
54・・・不審者判定手段
6・・・表示部
1 ...
Claims (9)
前記監視画像に基づいて前記監視領域に出現した複数の人物を追跡する人物追跡手段と、
前記複数の人物の中から、所定の不審行動判定時間の範囲内で人物間距離が所定の近接判定距離以下である近接位置関係を維持した人物のグループを検出するグループ検出手段と、
前記グループの人物が前記近接判定距離よりも長く定められた離間判定距離を超える離間位置関係となった場合に当該グループに別行動が発生したと判定する別行動判定手段と、
前記別行動の発生が判定されたグループの人物を不審者と判定する不審者判定手段と、
を備えたことを特徴とする画像監視装置。 An image acquisition unit that sequentially acquires surveillance images obtained by imaging a predetermined surveillance area;
Person tracking means for tracking a plurality of persons appearing in the monitoring area based on the monitoring image;
Group detection means for detecting, from among the plurality of persons, a group of persons maintaining a proximity positional relationship whose inter-person distance is equal to or less than a predetermined proximity determination distance within a predetermined suspicious activity determination time range;
Another action determination means for determining that another action has occurred in the group when the separated position relationship in which the person in the group exceeds the separation determination distance longer than the proximity determination distance;
A suspicious person judging means for judging a person in a group, for which the occurrence of the another action is judged to be a suspicious person,
An image monitoring apparatus comprising:
前記グループ検出手段は、出現した位置が異なる前記進入口領域である人物を含んだ前記グループを検出する、請求項1に記載の画像監視装置。 And monitoring area information storage means for storing in advance a plurality of entrance areas corresponding to different entrances in the monitoring area.
The image monitoring apparatus according to claim 1, wherein the group detection unit detects the group including a person who is the entrance area different in the appearing position.
前記グループ検出手段は、前記受け渡し姿勢が判定された人物のグループを検出する、請求項1から請求項3のいずれかひとつに記載の画像監視装置。 Posture determination that determines whether the posture of the person is the delivery posture by comparing the person image of the person who maintained the proximity position relationship in the monitoring image with the image feature of the delivery posture obtained in advance Means, and
The image monitoring apparatus according to any one of claims 1 to 3, wherein the group detection unit detects a group of persons whose transfer posture has been determined.
The suspicious person determination means measures a stay time of the person in the monitoring area, and the stay time of the person of the group whose occurrence of the another action is determined is equal to or less than a predetermined short stay determination time The image monitoring device according to any one of claims 1 to 8, wherein it is determined that the person is a suspicious person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017238178A JP6994375B2 (en) | 2017-12-12 | 2017-12-12 | Image monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017238178A JP6994375B2 (en) | 2017-12-12 | 2017-12-12 | Image monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019106631A true JP2019106631A (en) | 2019-06-27 |
JP6994375B2 JP6994375B2 (en) | 2022-01-14 |
Family
ID=67062086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017238178A Active JP6994375B2 (en) | 2017-12-12 | 2017-12-12 | Image monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6994375B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020167662A (en) * | 2019-03-29 | 2020-10-08 | キヤノン株式会社 | Information processing device, information processing system, method, and program |
JP2021071794A (en) * | 2019-10-29 | 2021-05-06 | キヤノン株式会社 | Main subject determination device, imaging device, main subject determination method, and program |
CN113347387A (en) * | 2020-02-18 | 2021-09-03 | 株式会社日立制作所 | Image monitoring system and image monitoring method |
EP3901820A2 (en) | 2020-04-21 | 2021-10-27 | Hitachi, Ltd. | Event analysis system and event analysis method |
JPWO2021246078A1 (en) * | 2020-06-05 | 2021-12-09 | ||
CN113887372A (en) * | 2021-09-27 | 2022-01-04 | 厦门汇利伟业科技有限公司 | Target aggregation detection method and computer-readable storage medium |
CN114494350A (en) * | 2022-01-28 | 2022-05-13 | 北京中电兴发科技有限公司 | Personnel gathering detection method and device |
WO2022158201A1 (en) * | 2021-01-22 | 2022-07-28 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
JP7449211B2 (en) | 2020-09-28 | 2024-03-13 | 京セラ株式会社 | Systems, electronic devices, control methods for electronic devices, and programs |
JP7585624B2 (en) | 2020-06-03 | 2024-11-19 | 日本電気株式会社 | DETECTION APPARATUS, DETECTION METHOD, AND DETECTION PROGRAM |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003087771A (en) * | 2001-09-07 | 2003-03-20 | Oki Electric Ind Co Ltd | Monitoring system and monitoring method |
JP2006092396A (en) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | Apparatus for detecting lone person and person in group |
JP2008252519A (en) * | 2007-03-30 | 2008-10-16 | Hitachi Kokusai Electric Inc | Image processing apparatus |
JP2011248548A (en) * | 2010-05-25 | 2011-12-08 | Fujitsu Ltd | Content determination program and content determination device |
-
2017
- 2017-12-12 JP JP2017238178A patent/JP6994375B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003087771A (en) * | 2001-09-07 | 2003-03-20 | Oki Electric Ind Co Ltd | Monitoring system and monitoring method |
JP2006092396A (en) * | 2004-09-27 | 2006-04-06 | Oki Electric Ind Co Ltd | Apparatus for detecting lone person and person in group |
JP2008252519A (en) * | 2007-03-30 | 2008-10-16 | Hitachi Kokusai Electric Inc | Image processing apparatus |
JP2011248548A (en) * | 2010-05-25 | 2011-12-08 | Fujitsu Ltd | Content determination program and content determination device |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020167662A (en) * | 2019-03-29 | 2020-10-08 | キヤノン株式会社 | Information processing device, information processing system, method, and program |
JP7446806B2 (en) | 2019-03-29 | 2024-03-11 | キヤノン株式会社 | Information processing device, method and program |
JP2021071794A (en) * | 2019-10-29 | 2021-05-06 | キヤノン株式会社 | Main subject determination device, imaging device, main subject determination method, and program |
US12165358B2 (en) | 2019-10-29 | 2024-12-10 | Canon Kabushiki Kaisha | Main subject determining apparatus, image capturing apparatus, main subject determining method, and storage medium |
JP7525990B2 (en) | 2019-10-29 | 2024-07-31 | キヤノン株式会社 | Main subject determination device, imaging device, main subject determination method, and program |
JP7355674B2 (en) | 2020-02-18 | 2023-10-03 | 株式会社日立製作所 | Video monitoring system and video monitoring method |
CN113347387A (en) * | 2020-02-18 | 2021-09-03 | 株式会社日立制作所 | Image monitoring system and image monitoring method |
JP2021132267A (en) * | 2020-02-18 | 2021-09-09 | 株式会社日立製作所 | Video monitoring system and video monitoring method |
EP3901820A2 (en) | 2020-04-21 | 2021-10-27 | Hitachi, Ltd. | Event analysis system and event analysis method |
US11721092B2 (en) | 2020-04-21 | 2023-08-08 | Hitachi, Ltd. | Event analysis system and event analysis method |
JP7585624B2 (en) | 2020-06-03 | 2024-11-19 | 日本電気株式会社 | DETECTION APPARATUS, DETECTION METHOD, AND DETECTION PROGRAM |
JP7392850B2 (en) | 2020-06-05 | 2023-12-06 | 日本電気株式会社 | Image processing device, image processing method, and program |
WO2021246078A1 (en) * | 2020-06-05 | 2021-12-09 | 日本電気株式会社 | Image processing device, image processing method, and program |
JPWO2021246078A1 (en) * | 2020-06-05 | 2021-12-09 | ||
JP7449211B2 (en) | 2020-09-28 | 2024-03-13 | 京セラ株式会社 | Systems, electronic devices, control methods for electronic devices, and programs |
WO2022158201A1 (en) * | 2021-01-22 | 2022-07-28 | ソニーグループ株式会社 | Image processing device, image processing method, and program |
CN113887372A (en) * | 2021-09-27 | 2022-01-04 | 厦门汇利伟业科技有限公司 | Target aggregation detection method and computer-readable storage medium |
CN114494350B (en) * | 2022-01-28 | 2022-10-14 | 北京中电兴发科技有限公司 | Personnel gathering detection method and device |
CN114494350A (en) * | 2022-01-28 | 2022-05-13 | 北京中电兴发科技有限公司 | Personnel gathering detection method and device |
Also Published As
Publication number | Publication date |
---|---|
JP6994375B2 (en) | 2022-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019106631A (en) | Image monitoring device | |
CN111383421B (en) | Privacy protection fall detection method and system | |
US10007850B2 (en) | System and method for event monitoring and detection | |
JP6898165B2 (en) | People flow analysis method, people flow analyzer and people flow analysis system | |
Kwolek et al. | Fuzzy inference-based fall detection using kinect and body-worn accelerometer | |
US10740906B2 (en) | Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method | |
US11270562B2 (en) | Video surveillance system and video surveillance method | |
AU2015203771B2 (en) | A method and apparatus for surveillance | |
Sokolova et al. | A fuzzy model for human fall detection in infrared video | |
CN108724178B (en) | Method and device for autonomous following of specific person, robot, device and storage medium | |
Poonsri et al. | Improvement of fall detection using consecutive-frame voting | |
Poonsri et al. | Fall detection using Gaussian mixture model and principle component analysis | |
JP2022191288A (en) | Information processing equipment | |
Pramerdorfer et al. | Fall detection based on depth-data in practice | |
CN107886677A (en) | A kind of the elderly's gait household monitoring system based on Kinect | |
JP6851221B2 (en) | Image monitoring device | |
Hsu et al. | Development of a vision based pedestrian fall detection system with back propagation neural network | |
CN113384267A (en) | Fall real-time detection method, system, terminal equipment and storage medium | |
Gruenwedel et al. | Low-complexity scalable distributed multicamera tracking of humans | |
US20230206639A1 (en) | Non-transitory computer-readable recording medium, information processing method, and information processing apparatus | |
Rothmeier et al. | Comparison of Machine Learning and Rule-based Approaches for an Optical Fall Detection System | |
WO2021241293A1 (en) | Action-subject specifying system | |
WO2020241034A1 (en) | Monitoring system and monitoring method | |
US20210166057A1 (en) | Vision system for object detection, recognition, classification and tracking and the method thereof | |
Virgona et al. | Socially constrained tracking in crowded environments using shoulder pose estimates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6994375 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |