JP2021117768A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2021117768A JP2021117768A JP2020011045A JP2020011045A JP2021117768A JP 2021117768 A JP2021117768 A JP 2021117768A JP 2020011045 A JP2020011045 A JP 2020011045A JP 2020011045 A JP2020011045 A JP 2020011045A JP 2021117768 A JP2021117768 A JP 2021117768A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- person
- distance
- processing apparatus
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 59
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 32
- 230000009471 action Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 19
- 238000010191 image analysis Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 19
- 238000004364 calculation method Methods 0.000 abstract description 6
- 238000004458 analytical method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
Images
Landscapes
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
情報処理装置、情報処理方法、及びプログラムに関する。 Information processing equipment, information processing methods, and programs.
従来、ネットワークカメラ(以下、カメラと呼ぶ)に映った不特定多数の人物を解析し、不審な行動をしている人物を見つけた場合に警備員又は店員へと通知を行う映像解析システムが開発されている。特許文献1では、保育所の1室に監視領域を設定し、監視領域の境界線を横切って入退場する人数を、人物の体格から大人か子供かを区別しながら数え、子供1人の状態であれば要注意の状態であるとして発報する手法が開示されている。 Conventionally, a video analysis system has been developed that analyzes an unspecified number of people reflected on a network camera (hereinafter referred to as a camera) and notifies a security guard or a clerk when a person who is suspicious is found. Has been done. In Patent Document 1, a monitoring area is set in one room of a nursery school, and the number of people entering and exiting across the boundary of the monitoring area is counted while distinguishing between an adult and a child based on the physique of the person, and the state of one child. If so, a method of reporting that it is in a state of caution is disclosed.
カメラ映像の映像解析によって、人目を避けて物陰に移動するなどの不審行動を検出して通知を行う処理は、人物検出と比較すると処理の負荷が高く、映像内の人物が増えると多くの計算リソースが必要となる。 The process of detecting and notifying suspicious behavior such as moving to the shadow while avoiding the eyes by image analysis of the camera image has a higher processing load than the person detection, and many calculations are performed when the number of people in the image increases. Resources are needed.
本発明は、情報処理装置の処理負荷を低減することを目的とする。 An object of the present invention is to reduce the processing load of the information processing apparatus.
本発明の目的を達成するために、例えば、一実施形態に係る情報処理装置は以下の構成を備える。すなわち、撮像画像中の対象物の位置を取得する第1の取得手段と、第1の前記対象物と第2の前記対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する第2の取得手段と、前記重み付き距離に基づいて、前記第1の対象物が前記第2の対象物とは別の一人行動を行っているかどうかを判定する第1の判定手段と、を備えることを特徴とする。 In order to achieve the object of the present invention, for example, the information processing apparatus according to one embodiment has the following configurations. That is, the information indicating the position of the obstacle existing between the first object and the second object is taken into consideration with the first acquisition means for acquiring the position of the object in the captured image. Based on the second acquisition means for acquiring the weighted distance between the first object and the second object and the weighted distance, the first object is the second object. It is characterized by comprising a first determination means for determining whether or not a person is acting alone.
情報処理装置の処理負荷を低減する。 Reduce the processing load of the information processing device.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.
[実施形態1]
図1は、本実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。本実施形態に係る情報処理装置101は、撮像画像中の人物と他の人物との、人物の可動領域を考慮した重み付き距離を取得し、取得した重み付き距離に基づいてその人物が一人行動を行っているかどうかを判定する。そのために、情報処理装置101は、撮像部111、録画部112、映像蓄積部113、マップ生成部121、記録部122、検出部131、経路生成部132、経路蓄積部133、算出部134、一人行動判定部135、及び入出力部141を有する。情報処理装置101の各機能部は1つ又は複数のサーバによって実現され、各々がLAN151を介して接続されてもよい。また、一人行動とは、人目を避けた不審な行動(不審行動)である可能性のある行動であるものとし、その判定における処理などの詳細は後述する。
[Embodiment 1]
FIG. 1 is a block diagram showing an example of the functional configuration of the information processing apparatus according to the present embodiment. The
撮像部111は、複数のカメラから構成され、画像又は映像(以下、映像とする)の撮像を行う。録画部112は、撮像部111と接続され、撮像部111から取得した映像をLAN151を経由して映像蓄積部113へと送信する。映像蓄積部113は、録画部112から受信した映像を格納する。
The
マップ生成部121は、後述する経路蓄積部133に格納された人物の行動情報に基づいて、各撮像部の撮像範囲における人物間の、人物の可動領域を考慮した重み付き距離を表す距離マップを生成する。そのために、マップ生成部121は、人物の行動情報に基づいて、撮像画像内の部分領域ごとに設定される重みを表す重みマップを生成してもよい。その場合、マップ生成部121は、生成した重みマップと人物の座標とに基づいて、人物ごとに距離マップを生成することができる。重みマップ及び距離マップに関する詳細は、図4〜図8を参照して後述する。人物の行動情報は、画像内で検出された各人物の行動に関する情報であり、特に限定はされないが、以下においては所定時間内における単位時間ごとの人物の位置の情報(詳細は図6において後述する)が用いられるものとする。記録部122は、マップ生成部121が生成した距離マップを格納する。
The
検出部131は、映像蓄積部113に格納された映像の1フレームずつから人物を検出する。経路生成部132は、検出部131による検出結果から、検出された各人物の移動経路データを生成し、経路蓄積部133へと送信する。以下においては、移動経路データとは、映像の各フレームにおける時刻と検出された各人物のXY座標とを表すものとする。経路蓄積部133は、経路生成部132から受信した移動経路データを格納する。算出部134は、マップ生成部121が生成した距離マップに基づいて、経路蓄積部133に格納された移動経路データに含まれる人物の位置の情報を参照することにより、検出された複数の人物間の重み付き距離を取得する。一人行動判定部135は、算出部134が取得した重み付き距離に基づいて、検出された人物が一人行動を行っているかどうかを判定する。以下においては簡単のため、このような判定を一人行動判定と呼ぶものとする。入出力部141は、一人行動を行ったと判定された人物の通知などのユーザ(例えば警備員)への出力、又は映像再生指示などのユーザからの入力を受け付ける。
The
図2は、本実施形態に係るハードウェア構成の一例を示すブロック図である。HDD202又はROM203は、映像データ又は解析済みデータの閲覧、及び各種設定などの操作を実行するオペレーティングシステム(OS)上で動作するアプリケーションプログラムを格納する。CPU205は、OSとアプリケーションプログラムとをHDD202又はROM203から読み出してRAM204へとロードして実行し、様々な処理を進行させて各操作を実現する。アプリケーションプログラムは、コンピュータに接続されている入力装置207からユーザの入力を取得する。また、アプリケーションプログラムは、出力装置206に対して各種情報を出力し、処理結果を表示させる。さらに、アプリケーションプログラムは、通信装置208を介してネットワークに接続された他のコンピュータ、サーバ、又はデバイスなどと通信を行う。これらのハードウェアの構成要素は、バス201で互いに接続されていて、アプリケーションプログラムから操作できるように構成されていてもよい。
FIG. 2 is a block diagram showing an example of the hardware configuration according to the present embodiment. The HDD 202 or
図3は、小売店に設置されたカメラ映像に映った一人行動の一例を説明するための図である。図3では、小売店のカメラの映像301内に、4人の人物A〜D(311〜314)と商品棚321及び322とが映り、人物B312が物陰に移動し不審な行動を行っている。この図においては、画面右を向く人物A311は、人物D314を近くで視認することができるが、人物B312及び人物C313はそれぞれ商品棚321及び322によって視界を阻まれるため視認することができない。同様に、画面左を向く人物C313と人物D314は、後ろを振り向いたとしても商品棚323によって視界を阻まれるため人物B312を視認することができない。顔の向きを考慮しない場合は、2者間の視認を行う主従が逆転しても視認できるか否かは変わらないため、人物B312は、映像内の他の人物から視認されることがなく、他の人物を視認することもできない位置にいることになる。
FIG. 3 is a diagram for explaining an example of one-person behavior reflected in a camera image installed in a retail store. In FIG. 3, four persons A to D (311 to 314) and
ここでは、一人行動判定を行うために用いられる、重み付き距離である論理距離の考え方を導入する。図4は、図3での人物の位置を模式化した図である。以下においては簡単のため、人物の顔の向きは考慮せず、人物を丸記号で図示するものとする。図4において示される論理距離を表す値、及び3色の部分領域の色分けの数は、説明のための便宜的な値であり、特にこれらに限定されるわけではなく、詳細な説明は後述する。また、以下の図4〜図8は同じ映像に対して処理を行った結果を示す図であり、共通する参照番号を有する対象は同じ対象を表すものとする。 Here, we introduce the concept of logical distance, which is a weighted distance, which is used to judge one-person behavior. FIG. 4 is a diagram schematically showing the position of the person in FIG. In the following, for the sake of simplicity, the orientation of the person's face is not considered, and the person is illustrated with a circle symbol. The values representing the logical distances shown in FIG. 4 and the number of color-coded subregions of the three colors are convenient values for explanation, and are not particularly limited thereto, and detailed description will be described later. .. Further, FIGS. 4 to 8 below are diagrams showing the results of processing the same video, and objects having a common reference number represent the same object.
映像401では、人物A〜D(411〜414)の位置が示され、2者間の論理距離の値と共に直線でそれぞれが結ばれている。また図4では、その領域において障害物が存在する可能性を表すために3色の色分けが行われ、障害物が存在する可能性が低い低エリア421、障害物が存在する可能性が中程度の中エリア422、障害物が存在する可能性が高い高エリア423が示されている。さらに、低エリア421、中エリア422、及び高エリア423は、それぞれ障害物が存在する可能性が高いほど大きい値となるように重みが設定されており、この重みが論理距離を算出する際に用いられる。この例においては、2者間の線分の各エリアの長さの値と、各エリアの重みの値と、をそれぞれ積算することにより、論理距離が算出される。このような処理によれば、障害物の存在を考慮した重み付きの論理距離を算出することができる。例えば、人物C413と人物D414とは、距離が近く、2者間の直線が低エリア421のみを通過するため、論理距離は低い値となり、ここでは0.1となる。また、人物A411と人物D414とは、距離は遠いが、2者間の直線が低エリア421を中心に通過するため、論理距離は比較的低い値となり、ここでは0.5となる。一方で、人物B412と人物D414とは、距離は近いものの、2者間の直線が中エリア422及び高エリア423を横切るため、論理距離は上述の2つよりも高い値となり、ここでは3.2となる。
In the
図5は、映像における4人の人物の移動経路を重ねて図示した模式図の一例である。画面501では、人物Aは移動経路511に沿って右から左へと移動している。同様に、人物B、C、及びDは、それぞれ移動経路512、513、及び514に沿って移動している。各人物は商品棚521及び522を避けて移動しており、これらの移動経路は単位時間ごとの人物の座標を直線で結んだ形で表されている。
FIG. 5 is an example of a schematic diagram in which the movement paths of four people in the video are superimposed and illustrated. On
図6は、所定時間内において人物が存在した座標をプロットした図の一例である。所定時間(例えば、1時間)において映像内に映った複数の人物の移動経路の座標を単位時間(例えば、1秒や0.1秒)ごとにプロットすると、人が滞留する場所又は人が立ち入らない場所などを、プロットした点の密度の濃淡から読み取る事ができる。特に、この例においては空白となる場所と障害物の位置とが概ね一致しており、楕円で示した空白の領域611と612とがそれぞれ商品棚521と522とに対応する。
FIG. 6 is an example of a diagram in which the coordinates of the presence of a person within a predetermined time are plotted. When the coordinates of the movement paths of a plurality of people reflected in the image at a predetermined time (for example, 1 hour) are plotted for each unit time (for example, 1 second or 0.1 second), the place where the person stays or the person enters. It is possible to read the places where there is no such place from the density of the plotted points. In particular, in this example, the blank areas and the positions of the obstacles are substantially the same, and the
図7は、人物の移動経路から得られる、人物の可動領域を考慮した部分領域ごとの重みを示す重みマップの一例である。この図においては映像が横8縦6にメッシュ分割された例が示されているが、画像領域の分割数は特にこれに限定されるわけではなく、例えば映像は横16縦9に分割されていてもよい。また、図7における位置は(x,y)で表されるものとし、例えば人物Aの位置711は(3,2)で表される。この時、位置(x,y)における重みw(x,y)は、以下の式wで表される。
w(x,y)=1/(1+9×n(x,y)/max) 式(w)
FIG. 7 is an example of a weight map obtained from a movement path of a person and showing weights for each partial area in consideration of the movable area of the person. In this figure, an example in which the image is divided into 8 horizontal and 6 vertical meshes is shown, but the number of divisions of the image area is not particularly limited to this. For example, the image is divided into 16 horizontal and 9 vertical. You may. Further, the position in FIG. 7 is represented by (x, y), and for example, the
w (x, y) = 1 / (1 + 9 × n (x, y) / max) Equation (w)
ここで、n(x,y)は位置(x,y)のメッシュ内に含まれる点の数を示すものとする。また、maxは、x=1,2,…,8、及びy=1,2、…,6の値域を取る場合における、最も大きいn(x,y)の値を表す。人物A,C、及びDがいる位置711、713、及び714は、点が多い場所、すなわち人物が良く通る場所であるので0.1の重みを有しており、一方で人物Bの位置712は、人通りが少ない場所であるため0.4の重みを有している。
Here, n (x, y) indicates the number of points included in the mesh at the position (x, y). Further, max represents the largest value of n (x, y) in the case of taking the range of x = 1, 2, ..., 8, and y = 1, 2, ..., 6. The
また、マップ生成部121は、生成した重みマップに対して、撮像領域の奥行きを考慮した重みの補正を行ってもよい。すなわち、画像内の人の頭の大きさから画像上の奥行きを推定し、撮像装置から遠い位置のメッシュに割り当てられている重みが大きくなるように、生成した重みマップを補正してもよい。そのために、マップ生成部121は、撮像装置から遠い位置を撮像範囲として捉えているメッシュほど重みが大きくなりやすいように設定された補正用重みマップを生成することができる。次いで、マップ生成部121は、生成した補正用重みマップの有する重みを、図7のように生成された重みマップに対してメッシュごとに加算することにより、重みマップを補正してもよい。
Further, the
図8は、人物Aの位置811(3,2)を起点とした各位置への論理距離を表す距離マップの一例である。ここでは、位置(x1,y1)から位置(x2,y2)への論理距離を、d[(x1,y1),(x2,y2)]で表すものとする。すなわち、図8に示される距離マップ801は、d[(3,2),(x2,y2)](x2=1,2、…,8、y2=1,2、…,6)で表される2次元配列である。例えば、人物Aの位置811から人物Bの位置812への論理距離はd[(3,2),(8,4)]であり、ここでは2.1となる。同様に、人物Cの位置813への論理距離はd[(3,2),(4,5)]であり、ここでは2.2となり、人物Dの位置814への論理距離はd[(3,2),(5,5)]であり、ここでは0.5となる。同様に、人物Bの位置812からの論理距離は、d[(8,4),(x2,y2)](x2=1,2,…,8、y2=1,2,…,6)で表される2次元配列である。このように、起点と終点の全ての組合せから4次元配列を事前に計算することができ、距離マップd[(x1,y1),(x2,y2)]を参照することで即座に2位置間の論理距離を得ることができる。この距離マップの配列の大きさは高々2304(=8*6*8*6)であり、一人行動判定部135は、この距離マップを情報処理装置101上で容易に参照しながら一人行動判定を行うことができる。
FIG. 8 is an example of a distance map showing the logical distance to each position starting from the position 811 (3, 2) of the person A. Here, the logical distance from the position (x1, y1) to the position (x2, y2) is represented by d [(x1, y1), (x2, y2)]. That is, the
図9は、情報処理装置101が行う処理の一例を示すフローチャートである。ステップS901でマップ生成部121は、経路蓄積部133に格納された、所定時間内の全ての人物の移動経路データを取得する。ステップS902でマップ生成部121は、撮像画像を等間隔に分割したメッシュと前記移動経路データとを照合し、メッシュごとに人物が存在した回数を数える。ステップS903でマップ生成部121は、メッシュごとに人物が存在した回数を0.1から1.0の間で正規化した重みマップを生成する。ステップS904でマップ生成部121は、前記重みマップから全てのメッシュ間の距離を算出し、次いで距離マップを生成する。
FIG. 9 is a flowchart showing an example of processing performed by the
このような構成によれば、人物の可動領域を考慮した人物間の論理距離を取得することができる。このように取得した論理距離を用いることにより、その人物に関する一人行動判定を行うことができる。したがって、詳細は後述する実施形態2で説明するが、低負荷の処理である一人行動判定によって高付加の処理である不審行動判定を行う対象を減らすことで、情報処理装置におけるシステム負荷を低減することができる。 According to such a configuration, it is possible to acquire the logical distance between the persons in consideration of the movable area of the person. By using the logical distance acquired in this way, it is possible to determine the behavior of one person regarding the person. Therefore, although the details will be described in the second embodiment described later, the system load in the information processing apparatus is reduced by reducing the number of objects for which the suspicious behavior determination, which is a high-addition processing, is performed by the one-person behavior determination, which is a low-load processing. be able to.
[実施形態2]
図11は、実施形態2に係る情報処理装置の機能構成の一例を示すブロック図である。本実施形態に係る情報処理装置1101は、映像内の各人物に対して、実施形態1と同様に生成された距離マップを用いて一人行動判定を行い、一人行動を行っていると判定された人物に対して不審行動を行っているかどうかの判定を行う。つまり、事前に行う低負荷の画像解析処理(一人行動判定)によって一人行動を行う人物を抽出し、抽出された人物に対してのみ高負荷の画像解析処理(不審行動判定)を行う。情報処理装置1101は、不審行動判定部1136を有することを除き実施形態1の情報処理装置101と同様の構成を有し、さらに図2に示されるような同様のハードウェア構成を有するため、重複する説明は省略する。
[Embodiment 2]
FIG. 11 is a block diagram showing an example of the functional configuration of the information processing apparatus according to the second embodiment. The
不審行動判定部1136は、一人行動判定部135によって一人行動を行っていると判定された全ての人物に対して、映像蓄積部113に格納されている映像から、不審行動を行っているかどうかの判定を行う。ここで各人物が不審行動を行っているかどうかの判定方法は特に限定されない。不審行動判定部1136は、例えば、物陰に隠れた、ポケットに手を入れた、周囲を窺った、ブラックリストと照合されたなどの条件を満たす人物を、不審行動を行った人物であると判定してもよい。また簡単のため、以下においてはこのような判定を不審行動判定と呼ぶものとする。入出力部141は、不審行動を行ったと判定された人物への威嚇、若しくは不審行動を行ったと判定された人物の通知などのユーザ(例えば警備員)への出力を行ってもよく、映像再生指示などのユーザからの入力を受け付けてもよい。ここで、人物への威嚇とは、例えば、万引き行為を働こうとしている来店客に対して「お探しの商品がございましたら店員へお声掛けください」などの音声を再生し、情報処理装置によって始終監視されていると知らせることを指す。
The suspicious
図12は、本実施形態に係る情報処理装置1101が行う処理の一例を示すフローチャートである。ステップS1201で検出部131は、リアルタイム映像の特定時刻の画像から、公知の手法によって全ての人物を検出する。ステップS1202で一人行動判定部135は、一人行動を行っている人物を全て抽出する後述のサブルーチンを起動する。サブルーチンの処理に後続するステップS1203で不審行動判定部1136は、ステップS1202で抽出された一人行動を行っている人物から、まだ不審行動判定を行っていない人物を1人選択する。ステップS1204で不審行動判定部1136は、ステップS1203で選択した人物に対して不審行動判定の処理を行う。ステップS1205で不審行動判定部1136は、その人物が不審行動を行っていたと判定された場合は処理をステップS1206へと進め、不審行動を行っていなかったと判定された場合は処理をステップS1207へと進める。ステップS1206で不審行動判定部1136は、不審人物への威嚇又はユーザ(例えば、店員)への通知などの指示を入出力部141へ送信する。ステップS1207で不審行動判定部1136は、ステップS1202で抽出された一人行動を行っている人物の全てに対して不審行動判定を行ったかどうかを判断し、全てに対して行っていれば処理を終了し、そうでなければ処理をステップS1203へと戻す。
FIG. 12 is a flowchart showing an example of processing performed by the
ステップS1202から呼び出されるサブルーチンのステップS1211で一人行動判定部135は、画像内に検出された人物から、まだ一人行動判定を行っていない人物を一人選択する。ステップS1212で一人行動判定部135は、ステップS1211で選択した人物と画像内の他の全ての人物との論理距離を、距離マップ上の各人物に対応する位置を参照することで取得する。ステップS1213で一人行動判定部135は、S1212で取得された全ての論理距離が所定の閾値以上であるかどうかを判定し、全て閾値以上であれば処理をステップS1214へと進め、全てが閾値以上でなければ処理をステップS1215へと進める。ここで閾値として設定される値は特に限定されず、適宜所望の値が用いられるものとする。ステップS1214で一人行動判定部135は、選択した人物に対して一人行動を行っていたというフラグを付与し、処理をステップS1215へと進める。ステップS1215で一人行動判定部135は、画像内に検出された人物全てに対して一人行動判定を行ったかどうかを判断する。全てに対して一人行動判定を行っていれば処理はサブルーチンの呼び出し元に戻ってステップS1203へと進み、そうでなければ処理はステップS1211へと戻る。
In step S1211 of the subroutine called from step S1202, the one-person
[従来システムとの処理負荷の違い]
以下、図10を参照して、従来システムと本発明とによる不審行動判定の映像解析における処理負荷の差を説明する。図10は、小売店に設置されたカメラの映像に映った来店客を示す図の一例である。図10においては、(A)は来店客が少ない場合、(B)及び(C)は来店客が多い場合を表しており、(A)及び(B)は従来システムによる映像解析の例を、(C)は本開示による映像解析の例を示している。人物検出された人物は、不審行動判定を行うための映像解析が、図10(A)及び(B)においては従来システムによって、並びに図10(C)においては不審行動判定部1136によって行われる。人物検出は処理負荷が低いが不審行動判定の映像解析の処理負荷は高いことが多く、従来システムによって同時に実行できる不審行動判定の映像解析の対象数は制限されることがあるが、ここではその上限を5人と仮定して説明を行う。
[Difference in processing load from the conventional system]
Hereinafter, the difference in processing load in the video analysis of suspicious behavior determination between the conventional system and the present invention will be described with reference to FIG. FIG. 10 is an example of a diagram showing a customer who is reflected in an image of a camera installed in a retail store. In FIG. 10, (A) represents a case where the number of customers is small, (B) and (C) represent a case where the number of customers is large, and (A) and (B) are examples of video analysis by the conventional system. (C) shows an example of the image analysis according to the present disclosure. For the person detected, the video analysis for determining the suspicious behavior is performed by the conventional system in FIGS. 10A and 10B, and by the suspicious
図10(A)において、映像1001には人物が4人映っており、人物1002に対して検出枠1003が付与されている。ここでは4人の人物全てに検出枠が付与されており、その全てに対して不審行動判定の映像解析が行われる。一方で図10(B)においては、映像1021には人物が10人映っているが、例えば人物1022のような、検出枠が付与されていない人物が存在する。これは、検出枠の付与数が映像解析の上限数である5人に達したために、人物検出がその時点で打ち切られたからである。このように、全ての対象物に対して処理負荷が高い処理を行おうとすると、本来は映像解析を行うべき不審人物を見落としてしまう可能性がある。
In FIG. 10A, four people are shown in the
次に、一人行動をしている人物に対してのみ不審行動判定を行う本開示の例について説明する。図10(C)においては、映像1041には、映像1021と同様に10人の人物が映っている。この場合、情報処理装置101は、一人行動を行っているかの判定により人物1042及び人物1043の二人の人物に検出枠を付与し、次いでこの二人に対して不審行動判定の映像解析を行う。このような処理によれば、処理負荷が低い一人行動の判定によって人物を絞り込み、処理負荷が高い不審行動判定の映像解析の回数を減らすことができる。
Next, an example of the present disclosure in which the suspicious behavior determination is performed only for a person who is acting alone will be described. In FIG. 10C, the
また、実施形態1に係るマップ生成部121は、所定時間内の人物の移動経路(単位時間ごとの位置)に基づいて重みマップを生成するものとしたが、重みマップの生成手段は特にこれには限定されない。マップ生成部121は、障害物の位置を取得し、取得した障害物の位置に基づいて重みマップを生成してもよい。障害物の位置を取得する方法は特に限定されず、例えばユーザが手作業で入力してもよく、三次元センサーによって測定されてもよく、人工知能による物体検出で検出されてもよく、店内に配置された二次元バーコードを読み取ることによって取得されてもよい。
Further, the
また、マップ生成部121は、不審行動判定を行うシステムの稼働前に距離マップを生成するが、距離マップが生成されるタイミングは特にこれには限定されず、所定の条件に基づいて距離マップを更新してもよい。例えば、マップ生成部121は、距離マップを、所定の時間間隔で更新してもよく、解析を行う映像を取得する撮像装置の位置、姿勢、又は設定の変更が行われた場合に更新してもよく、映像内の人物を除いた背景領域の変化に応じて更新してもよい。すなわち、システム稼働中の一定時間ごとに更新してもよく、システム稼働中にカメラの画角が変化した時に更新してもよく、システム稼働中に店内の配置が変化した時に更新してもよい。また、マップ生成部121は、夜間などの処理負荷が低い時に定期的に距離マップを更新してもよい。
Further, the
また、記録部122が格納する距離マップの数は特に限定されない。記録部122が複数生成された距離マップを格納する場合に、一人行動判定部135は、検出を行う画像が撮像された時刻、曜日、若しくは季節、又は実施されているイベントなどの状況に応じて、参照する距離マップを使い分けてもよい。
Further, the number of distance maps stored in the
また、一人行動判定部135は、映像内の1画像を対象として上述のステップS1211〜S1215の処理を行うものとして説明されたが、一人行動判定を行うフレーム数は特にこれには限定されない。一人行動判定部135は、例えば、ステップS1212で行われる論理距離の取得処理を、ステップS1201で用いた画像の前後の一連の数フレームにおける画像に関して行い、その数フレーム中で最短又は最長の論理距離を用いて後続する各処理を行ってもよい。
Further, although the one-person
さらに、ステップS1201では検出部131が画像から人物を検出し、後続する処理ではここで検出された人物を対象として映像解析が行われたが、処理の対象となる人物は特にこれに限定されるわけではない。例えば、検出部131は、画角外に移動した人物の位置、又は障害物の陰に隠れた人物の位置を、前後のフレームにおける移動経路に基づいて推測してもよい。このような場合、ステップS1201で検出された人物に対する後続の処理が、ここで推測された位置に対しても行われる。このような処理によれば、映像の範囲外へと移動した人物について、又は検出失敗によってデータが欠落した人物についても、一人行動を行っているかどうかの判定を行いやすくすることができる。
Further, in step S1201, the
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.
101:情報処理装置、111:撮像部、112:録画部、113:映像蓄積部、121:マップ生成部、122:記録部、131:検出部、132:経路生成部、133:経路蓄積部、134:算出部、135:一人行動判定部、141:入出力部、151:LAN 101: Information processing device, 111: Imaging unit, 112: Recording unit, 113: Video storage unit, 121: Map generation unit, 122: Recording unit, 131: Detection unit, 132: Route generation unit, 133: Route storage unit, 134: Calculation unit, 135: One-person behavior judgment unit, 141: Input / output unit, 151: LAN
Claims (20)
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する第2の取得手段と、
前記重み付き距離に基づいて、前記第1の対象物が前記第2の対象物とは別の一人行動を行っているかどうかを判定する第1の判定手段と、
を備えることを特徴とする、情報処理装置。 The first acquisition means for acquiring the position of the object in the captured image, and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. A second acquisition method for acquiring the weighted distance,
Based on the weighted distance, a first determining means for determining whether or not the first object is performing a solo action different from the second object, and
An information processing device characterized by being equipped with.
前記第2の取得手段は、前記第1の対象物と前記第2の対象物との間の線分の各前記部分領域における長さと、各部分領域に設定された重みと、に基づいて前記重み付き距離を取得することを特徴とする、請求項1又は2に記載の情報処理装置。 Further, a third acquisition means for acquiring a weight map representing the weight set for each partial region in the captured image is provided.
The second acquisition means is based on the length of the line segment between the first object and the second object in each of the partial regions and the weight set in each partial region. The information processing apparatus according to claim 1 or 2, wherein the weighted distance is acquired.
前記第2の取得手段は、前記第1の対象物を含む第1の部分領域と、前記第2の対象物を含む第2の部分領域と、に対応する前記重み付き距離を前記距離マップから取得することを特徴とする、請求項1乃至8の何れか一項に記載の情報処理装置。 Further comprising a generation means for generating a distance map representing a weighted distance from one subregion to another in the captured image.
The second acquisition means obtains the weighted distance corresponding to the first partial region including the first object and the second partial region including the second object from the distance map. The information processing apparatus according to any one of claims 1 to 8, wherein the information processing apparatus is to be acquired.
前記第2の取得手段は、前記複数生成された距離マップから状況に応じて選択される前記距離マップにおける、前記第1の部分領域と前記第2の部分領域とに対応する前記重み付き距離を取得することを特徴とする、請求項9に記載の情報処理装置。 The generation means generates a plurality of the distance maps,
The second acquisition means obtains the weighted distance corresponding to the first partial region and the second partial region in the distance map selected according to the situation from the plurality of generated distance maps. The information processing apparatus according to claim 9, wherein the information processing apparatus is to be acquired.
前記第1の取得手段は、前記対象物の位置として前記推測した対象物の位置を取得することを特徴とする、請求項1乃至14の何れか一項に記載の情報処理装置。 Further provided with an inferring means for estimating the position of the object which is not detected in the captured image,
The information processing apparatus according to any one of claims 1 to 14, wherein the first acquisition means acquires the position of the estimated object as the position of the object.
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する第2の取得手段と、
前記重み付き距離に基づいて、前記第1の対象物を、画像解析処理の対象にするか否かを判定する第1の判定手段と、
を備えることを特徴とする、情報処理装置。 The first acquisition means for acquiring the position of the object in the captured image, and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. A second acquisition method for acquiring the weighted distance,
Based on the weighted distance, a first determining means for determining whether or not the first object is to be subjected to image analysis processing, and
An information processing device characterized by being equipped with.
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する工程と、
前記重み付き距離に基づいて、前記第1の対象物が前記第2の対象物とは別の一人行動を行っているかどうかを判定する工程と、
を備えることを特徴とする、情報処理方法。 The process of acquiring the position of the object in the captured image and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. The process of getting the weighted distance and
A step of determining whether or not the first object is acting alone differently from the second object based on the weighted distance.
An information processing method characterized by being provided with.
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する工程と、
前記重み付き距離に基づいて、前記第1の対象物を、画像解析処理の対象にするか否かを判定する工程と、
を備えることを特徴とする、情報処理方法。 The process of acquiring the position of the object in the captured image and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. The process of getting the weighted distance and
A step of determining whether or not the first object is subject to image analysis processing based on the weighted distance, and
An information processing method characterized by being provided with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020011045A JP2021117768A (en) | 2020-01-27 | 2020-01-27 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020011045A JP2021117768A (en) | 2020-01-27 | 2020-01-27 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021117768A true JP2021117768A (en) | 2021-08-10 |
Family
ID=77174978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020011045A Pending JP2021117768A (en) | 2020-01-27 | 2020-01-27 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021117768A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115050105A (en) * | 2022-08-17 | 2022-09-13 | 杭州觅睿科技股份有限公司 | Method, device and equipment for judging doubtful shadow and storage medium |
JP2023117087A (en) * | 2022-02-10 | 2023-08-23 | キヤノン株式会社 | Image processing apparatus, image processing method, and computer program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010140091A (en) * | 2008-12-09 | 2010-06-24 | Takenaka Komuten Co Ltd | Crime prevention device and program |
JP2015176198A (en) * | 2014-03-13 | 2015-10-05 | 大和ハウス工業株式会社 | Monitor system |
JP2019133530A (en) * | 2018-02-01 | 2019-08-08 | 富士ゼロックス株式会社 | Information processing apparatus |
-
2020
- 2020-01-27 JP JP2020011045A patent/JP2021117768A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010140091A (en) * | 2008-12-09 | 2010-06-24 | Takenaka Komuten Co Ltd | Crime prevention device and program |
JP2015176198A (en) * | 2014-03-13 | 2015-10-05 | 大和ハウス工業株式会社 | Monitor system |
JP2019133530A (en) * | 2018-02-01 | 2019-08-08 | 富士ゼロックス株式会社 | Information processing apparatus |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023117087A (en) * | 2022-02-10 | 2023-08-23 | キヤノン株式会社 | Image processing apparatus, image processing method, and computer program |
CN115050105A (en) * | 2022-08-17 | 2022-09-13 | 杭州觅睿科技股份有限公司 | Method, device and equipment for judging doubtful shadow and storage medium |
CN115050105B (en) * | 2022-08-17 | 2022-12-30 | 杭州觅睿科技股份有限公司 | Method, device and equipment for judging doubtful shadow and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7047944B2 (en) | Video surveillance system, video monitoring method, and program | |
JP4198951B2 (en) | Group attribute estimation method and group attribute estimation apparatus | |
JP6898165B2 (en) | People flow analysis method, people flow analyzer and people flow analysis system | |
US8724845B2 (en) | Content determination program and content determination device | |
JP2013533563A (en) | Semantic analysis of objects in video | |
TW200820099A (en) | Target moving object tracking device | |
JP2019071050A (en) | Image processing device, image processing method, and program | |
WO2020217812A1 (en) | Image processing device that recognizes state of subject and method for same | |
JP2007006427A (en) | Video surveillance device | |
US9218794B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
JP6867056B2 (en) | Information processing equipment, control methods, and programs | |
JP2017016344A (en) | Image monitoring device | |
JP2018028784A (en) | Movable body group detection program, movable body group detection device, and movable body group detection method | |
JP2021117768A (en) | Information processing device, information processing method, and program | |
US20250054300A1 (en) | Real-time risk tracking | |
US10740934B2 (en) | Flow line display system, flow line display method, and program recording medium | |
JP2012022538A (en) | Attention position estimating method, image display method, attention content display method, attention position estimating device and image display device | |
US20210319229A1 (en) | System and method for determining object distance and/or count in a video stream | |
JP6950644B2 (en) | Attention target estimation device and attention target estimation method | |
JP2022142623A (en) | Information processing system, information processing method and program | |
JP7668642B2 (en) | Image processing device, image processing method, and program | |
JP5448952B2 (en) | Same person determination device, same person determination method, and same person determination program | |
JP2019101526A (en) | Device and method for object identification | |
JP2021189587A (en) | Display device, display method and display program | |
JP2017028688A (en) | Image managing device, image managing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240426 |