[go: up one dir, main page]

JP2021117768A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2021117768A
JP2021117768A JP2020011045A JP2020011045A JP2021117768A JP 2021117768 A JP2021117768 A JP 2021117768A JP 2020011045 A JP2020011045 A JP 2020011045A JP 2020011045 A JP2020011045 A JP 2020011045A JP 2021117768 A JP2021117768 A JP 2021117768A
Authority
JP
Japan
Prior art keywords
information processing
person
distance
processing apparatus
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020011045A
Other languages
Japanese (ja)
Inventor
智大 佐藤
Tomohiro Sato
智大 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020011045A priority Critical patent/JP2021117768A/en
Publication of JP2021117768A publication Critical patent/JP2021117768A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing device capable of detecting and notifying suspicious behavior such as moving to a shadow while avoiding public eyes while reducing the processing load, an information processing method, and a program.SOLUTION: An information processing device 101 includes: a detection unit 131 that acquires the position of an object in a captured image; a calculation unit 134 that acquires weighted distance between a first object and a second object considering information representing the position of an obstacle positioning between the first object and the second object; and a solo-action determination unit 135 that determines whether the first object is performing a solo-action different from the second object based on the weighted distance.SELECTED DRAWING: Figure 1

Description

情報処理装置、情報処理方法、及びプログラムに関する。 Information processing equipment, information processing methods, and programs.

従来、ネットワークカメラ(以下、カメラと呼ぶ)に映った不特定多数の人物を解析し、不審な行動をしている人物を見つけた場合に警備員又は店員へと通知を行う映像解析システムが開発されている。特許文献1では、保育所の1室に監視領域を設定し、監視領域の境界線を横切って入退場する人数を、人物の体格から大人か子供かを区別しながら数え、子供1人の状態であれば要注意の状態であるとして発報する手法が開示されている。 Conventionally, a video analysis system has been developed that analyzes an unspecified number of people reflected on a network camera (hereinafter referred to as a camera) and notifies a security guard or a clerk when a person who is suspicious is found. Has been done. In Patent Document 1, a monitoring area is set in one room of a nursery school, and the number of people entering and exiting across the boundary of the monitoring area is counted while distinguishing between an adult and a child based on the physique of the person, and the state of one child. If so, a method of reporting that it is in a state of caution is disclosed.

特開2015−176198号公報JP-A-2015-176198

カメラ映像の映像解析によって、人目を避けて物陰に移動するなどの不審行動を検出して通知を行う処理は、人物検出と比較すると処理の負荷が高く、映像内の人物が増えると多くの計算リソースが必要となる。 The process of detecting and notifying suspicious behavior such as moving to the shadow while avoiding the eyes by image analysis of the camera image has a higher processing load than the person detection, and many calculations are performed when the number of people in the image increases. Resources are needed.

本発明は、情報処理装置の処理負荷を低減することを目的とする。 An object of the present invention is to reduce the processing load of the information processing apparatus.

本発明の目的を達成するために、例えば、一実施形態に係る情報処理装置は以下の構成を備える。すなわち、撮像画像中の対象物の位置を取得する第1の取得手段と、第1の前記対象物と第2の前記対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する第2の取得手段と、前記重み付き距離に基づいて、前記第1の対象物が前記第2の対象物とは別の一人行動を行っているかどうかを判定する第1の判定手段と、を備えることを特徴とする。 In order to achieve the object of the present invention, for example, the information processing apparatus according to one embodiment has the following configurations. That is, the information indicating the position of the obstacle existing between the first object and the second object is taken into consideration with the first acquisition means for acquiring the position of the object in the captured image. Based on the second acquisition means for acquiring the weighted distance between the first object and the second object and the weighted distance, the first object is the second object. It is characterized by comprising a first determination means for determining whether or not a person is acting alone.

情報処理装置の処理負荷を低減する。 Reduce the processing load of the information processing device.

実施形態1に係る情報処理装置の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るコンピュータの機能構成を示す図。The figure which shows the functional structure of the computer which concerns on Embodiment 1. FIG. 実施形態1に係る情報処理装置における一人行動を説明するための図。The figure for demonstrating the behavior of one person in the information processing apparatus which concerns on Embodiment 1. 実施形態1に係る情報処理装置が用いる論理距離を説明するための図。The figure for demonstrating the logical distance used by the information processing apparatus which concerns on Embodiment 1. 実施形態1に係る情報処理装置が用いる移動経路を説明するための図。The figure for demonstrating the movement path used by the information processing apparatus which concerns on Embodiment 1. 実施形態1に係る情報処理装置が用いる人物の位置を説明するための図。The figure for demonstrating the position of the person used by the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る情報処理装置が用いる重みマップを説明するための図。The figure for demonstrating the weight map used by the information processing apparatus which concerns on Embodiment 1. 実施形態1に係る情報処理装置が用いる距離マップを説明するための図。The figure for demonstrating the distance map used by the information processing apparatus which concerns on Embodiment 1. 実施形態1に係る情報処理方法が行う処理の一例を示すフローチャート。FIG. 5 is a flowchart showing an example of processing performed by the information processing method according to the first embodiment. 実施形態2に係る情報処理装置と従来システムとの差を説明するための図。The figure for demonstrating the difference between the information processing apparatus which concerns on Embodiment 2 and a conventional system. 実施形態2に係る情報処理装置の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 2. FIG. 実施形態2に係る情報処理方法が行う処理の一例を示すフローチャート。FIG. 5 is a flowchart showing an example of processing performed by the information processing method according to the second embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.

[実施形態1]
図1は、本実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。本実施形態に係る情報処理装置101は、撮像画像中の人物と他の人物との、人物の可動領域を考慮した重み付き距離を取得し、取得した重み付き距離に基づいてその人物が一人行動を行っているかどうかを判定する。そのために、情報処理装置101は、撮像部111、録画部112、映像蓄積部113、マップ生成部121、記録部122、検出部131、経路生成部132、経路蓄積部133、算出部134、一人行動判定部135、及び入出力部141を有する。情報処理装置101の各機能部は1つ又は複数のサーバによって実現され、各々がLAN151を介して接続されてもよい。また、一人行動とは、人目を避けた不審な行動(不審行動)である可能性のある行動であるものとし、その判定における処理などの詳細は後述する。
[Embodiment 1]
FIG. 1 is a block diagram showing an example of the functional configuration of the information processing apparatus according to the present embodiment. The information processing device 101 according to the present embodiment acquires a weighted distance between a person and another person in the captured image in consideration of the movable area of the person, and the person acts alone based on the acquired weighted distance. To determine if you are doing. Therefore, the information processing device 101 includes an imaging unit 111, a recording unit 112, an image storage unit 113, a map generation unit 121, a recording unit 122, a detection unit 131, a route generation unit 132, a route storage unit 133, a calculation unit 134, and one person. It has an action determination unit 135 and an input / output unit 141. Each functional unit of the information processing apparatus 101 is realized by one or a plurality of servers, and each may be connected via LAN 151. In addition, the single-person behavior is assumed to be an behavior that may be a suspicious behavior (suspicious behavior) that avoids the public eye, and details such as processing in the determination will be described later.

撮像部111は、複数のカメラから構成され、画像又は映像(以下、映像とする)の撮像を行う。録画部112は、撮像部111と接続され、撮像部111から取得した映像をLAN151を経由して映像蓄積部113へと送信する。映像蓄積部113は、録画部112から受信した映像を格納する。 The imaging unit 111 is composed of a plurality of cameras and captures an image or a moving image (hereinafter referred to as an image). The recording unit 112 is connected to the imaging unit 111, and transmits the video acquired from the imaging unit 111 to the video storage unit 113 via the LAN 151. The video storage unit 113 stores the video received from the recording unit 112.

マップ生成部121は、後述する経路蓄積部133に格納された人物の行動情報に基づいて、各撮像部の撮像範囲における人物間の、人物の可動領域を考慮した重み付き距離を表す距離マップを生成する。そのために、マップ生成部121は、人物の行動情報に基づいて、撮像画像内の部分領域ごとに設定される重みを表す重みマップを生成してもよい。その場合、マップ生成部121は、生成した重みマップと人物の座標とに基づいて、人物ごとに距離マップを生成することができる。重みマップ及び距離マップに関する詳細は、図4〜図8を参照して後述する。人物の行動情報は、画像内で検出された各人物の行動に関する情報であり、特に限定はされないが、以下においては所定時間内における単位時間ごとの人物の位置の情報(詳細は図6において後述する)が用いられるものとする。記録部122は、マップ生成部121が生成した距離マップを格納する。 The map generation unit 121 creates a distance map representing a weighted distance between people in the imaging range of each imaging unit in consideration of the movable area of the person, based on the behavior information of the person stored in the path storage unit 133, which will be described later. Generate. Therefore, the map generation unit 121 may generate a weight map representing the weights set for each partial region in the captured image based on the behavior information of the person. In that case, the map generation unit 121 can generate a distance map for each person based on the generated weight map and the coordinates of the person. Details of the weight map and the distance map will be described later with reference to FIGS. 4 to 8. The behavior information of the person is information about the behavior of each person detected in the image, and is not particularly limited. However, in the following, information on the position of the person for each unit time within a predetermined time (details will be described later in FIG. 6). ) Shall be used. The recording unit 122 stores the distance map generated by the map generation unit 121.

検出部131は、映像蓄積部113に格納された映像の1フレームずつから人物を検出する。経路生成部132は、検出部131による検出結果から、検出された各人物の移動経路データを生成し、経路蓄積部133へと送信する。以下においては、移動経路データとは、映像の各フレームにおける時刻と検出された各人物のXY座標とを表すものとする。経路蓄積部133は、経路生成部132から受信した移動経路データを格納する。算出部134は、マップ生成部121が生成した距離マップに基づいて、経路蓄積部133に格納された移動経路データに含まれる人物の位置の情報を参照することにより、検出された複数の人物間の重み付き距離を取得する。一人行動判定部135は、算出部134が取得した重み付き距離に基づいて、検出された人物が一人行動を行っているかどうかを判定する。以下においては簡単のため、このような判定を一人行動判定と呼ぶものとする。入出力部141は、一人行動を行ったと判定された人物の通知などのユーザ(例えば警備員)への出力、又は映像再生指示などのユーザからの入力を受け付ける。 The detection unit 131 detects a person from each frame of the video stored in the video storage unit 113. The route generation unit 132 generates the movement route data of each detected person from the detection result by the detection unit 131, and transmits the movement route data to the route storage unit 133. In the following, the movement path data shall represent the time in each frame of the video and the XY coordinates of each detected person. The route storage unit 133 stores the movement route data received from the route generation unit 132. The calculation unit 134 refers to the information on the position of a person included in the movement route data stored in the route storage unit 133 based on the distance map generated by the map generation unit 121, and thereby detects between a plurality of people. Get the weighted distance of. The one-person behavior determination unit 135 determines whether or not the detected person is performing one-person behavior based on the weighted distance acquired by the calculation unit 134. In the following, for the sake of simplicity, such a judgment will be referred to as a one-person action judgment. The input / output unit 141 receives an output to a user (for example, a security guard) such as a notification of a person who is determined to have performed a single action, or an input from the user such as a video reproduction instruction.

図2は、本実施形態に係るハードウェア構成の一例を示すブロック図である。HDD202又はROM203は、映像データ又は解析済みデータの閲覧、及び各種設定などの操作を実行するオペレーティングシステム(OS)上で動作するアプリケーションプログラムを格納する。CPU205は、OSとアプリケーションプログラムとをHDD202又はROM203から読み出してRAM204へとロードして実行し、様々な処理を進行させて各操作を実現する。アプリケーションプログラムは、コンピュータに接続されている入力装置207からユーザの入力を取得する。また、アプリケーションプログラムは、出力装置206に対して各種情報を出力し、処理結果を表示させる。さらに、アプリケーションプログラムは、通信装置208を介してネットワークに接続された他のコンピュータ、サーバ、又はデバイスなどと通信を行う。これらのハードウェアの構成要素は、バス201で互いに接続されていて、アプリケーションプログラムから操作できるように構成されていてもよい。 FIG. 2 is a block diagram showing an example of the hardware configuration according to the present embodiment. The HDD 202 or ROM 203 stores an application program that operates on an operating system (OS) that performs operations such as viewing video data or analyzed data and performing various settings. The CPU 205 reads the OS and the application program from the HDD 202 or the ROM 203, loads them into the RAM 204, executes them, and advances various processes to realize each operation. The application program gets the user's input from the input device 207 connected to the computer. Further, the application program outputs various information to the output device 206 and displays the processing result. Further, the application program communicates with another computer, server, device or the like connected to the network via the communication device 208. These hardware components may be connected to each other by bus 201 and configured to be operable from an application program.

図3は、小売店に設置されたカメラ映像に映った一人行動の一例を説明するための図である。図3では、小売店のカメラの映像301内に、4人の人物A〜D(311〜314)と商品棚321及び322とが映り、人物B312が物陰に移動し不審な行動を行っている。この図においては、画面右を向く人物A311は、人物D314を近くで視認することができるが、人物B312及び人物C313はそれぞれ商品棚321及び322によって視界を阻まれるため視認することができない。同様に、画面左を向く人物C313と人物D314は、後ろを振り向いたとしても商品棚323によって視界を阻まれるため人物B312を視認することができない。顔の向きを考慮しない場合は、2者間の視認を行う主従が逆転しても視認できるか否かは変わらないため、人物B312は、映像内の他の人物から視認されることがなく、他の人物を視認することもできない位置にいることになる。 FIG. 3 is a diagram for explaining an example of one-person behavior reflected in a camera image installed in a retail store. In FIG. 3, four persons A to D (311 to 314) and product shelves 321 and 322 are shown in the image 301 of the camera of the retail store, and the person B312 moves in the shadow and performs suspicious behavior. .. In this figure, the person A311 facing the right side of the screen can visually recognize the person D314, but the person B312 and the person C313 cannot be visually recognized because the visibility is blocked by the product shelves 321 and 322, respectively. Similarly, the person C313 and the person D314 who turn to the left of the screen cannot see the person B312 because the view is blocked by the product shelf 323 even if they turn to the back. If the orientation of the face is not taken into consideration, whether or not the master-slave who visually recognizes between the two parties can be visually recognized does not change, so that the person B312 is not visually recognized by another person in the image. You will be in a position where you cannot see other people.

ここでは、一人行動判定を行うために用いられる、重み付き距離である論理距離の考え方を導入する。図4は、図3での人物の位置を模式化した図である。以下においては簡単のため、人物の顔の向きは考慮せず、人物を丸記号で図示するものとする。図4において示される論理距離を表す値、及び3色の部分領域の色分けの数は、説明のための便宜的な値であり、特にこれらに限定されるわけではなく、詳細な説明は後述する。また、以下の図4〜図8は同じ映像に対して処理を行った結果を示す図であり、共通する参照番号を有する対象は同じ対象を表すものとする。 Here, we introduce the concept of logical distance, which is a weighted distance, which is used to judge one-person behavior. FIG. 4 is a diagram schematically showing the position of the person in FIG. In the following, for the sake of simplicity, the orientation of the person's face is not considered, and the person is illustrated with a circle symbol. The values representing the logical distances shown in FIG. 4 and the number of color-coded subregions of the three colors are convenient values for explanation, and are not particularly limited thereto, and detailed description will be described later. .. Further, FIGS. 4 to 8 below are diagrams showing the results of processing the same video, and objects having a common reference number represent the same object.

映像401では、人物A〜D(411〜414)の位置が示され、2者間の論理距離の値と共に直線でそれぞれが結ばれている。また図4では、その領域において障害物が存在する可能性を表すために3色の色分けが行われ、障害物が存在する可能性が低い低エリア421、障害物が存在する可能性が中程度の中エリア422、障害物が存在する可能性が高い高エリア423が示されている。さらに、低エリア421、中エリア422、及び高エリア423は、それぞれ障害物が存在する可能性が高いほど大きい値となるように重みが設定されており、この重みが論理距離を算出する際に用いられる。この例においては、2者間の線分の各エリアの長さの値と、各エリアの重みの値と、をそれぞれ積算することにより、論理距離が算出される。このような処理によれば、障害物の存在を考慮した重み付きの論理距離を算出することができる。例えば、人物C413と人物D414とは、距離が近く、2者間の直線が低エリア421のみを通過するため、論理距離は低い値となり、ここでは0.1となる。また、人物A411と人物D414とは、距離は遠いが、2者間の直線が低エリア421を中心に通過するため、論理距離は比較的低い値となり、ここでは0.5となる。一方で、人物B412と人物D414とは、距離は近いものの、2者間の直線が中エリア422及び高エリア423を横切るため、論理距離は上述の2つよりも高い値となり、ここでは3.2となる。 In the image 401, the positions of the persons A to D (411 to 414) are shown, and each of them is connected by a straight line together with the value of the logical distance between the two. Further, in FIG. 4, three colors are color-coded to indicate the possibility that an obstacle exists in the area, and the low area 421 where the possibility that the obstacle exists is low, and the possibility that the obstacle exists is medium. A medium area 422 and a high area 423 where obstacles are likely to be present are shown. Further, the low area 421, the middle area 422, and the high area 423 are each set to have a larger value as the possibility of the presence of an obstacle is higher, and these weights are set when calculating the logical distance. Used. In this example, the logical distance is calculated by integrating the length value of each area of the line segment between the two parties and the weight value of each area. According to such a process, it is possible to calculate a weighted logical distance in consideration of the existence of an obstacle. For example, since the distance between the person C413 and the person D414 is short and the straight line between the two passes only in the low area 421, the logical distance is a low value, which is 0.1 here. Further, although the distance between the person A411 and the person D414 is long, the logical distance is a relatively low value because the straight line between the two passes around the low area 421, which is 0.5 here. On the other hand, although the distance between the person B412 and the person D414 is short, the straight line between the two crosses the middle area 422 and the high area 423, so that the logical distance is higher than the above two values. It becomes 2.

図5は、映像における4人の人物の移動経路を重ねて図示した模式図の一例である。画面501では、人物Aは移動経路511に沿って右から左へと移動している。同様に、人物B、C、及びDは、それぞれ移動経路512、513、及び514に沿って移動している。各人物は商品棚521及び522を避けて移動しており、これらの移動経路は単位時間ごとの人物の座標を直線で結んだ形で表されている。 FIG. 5 is an example of a schematic diagram in which the movement paths of four people in the video are superimposed and illustrated. On screen 501, person A is moving from right to left along the movement path 511. Similarly, the persons B, C, and D are moving along the movement paths 512, 513, and 514, respectively. Each person moves avoiding the product shelves 521 and 522, and these movement routes are represented by connecting the coordinates of the person for each unit time with a straight line.

図6は、所定時間内において人物が存在した座標をプロットした図の一例である。所定時間(例えば、1時間)において映像内に映った複数の人物の移動経路の座標を単位時間(例えば、1秒や0.1秒)ごとにプロットすると、人が滞留する場所又は人が立ち入らない場所などを、プロットした点の密度の濃淡から読み取る事ができる。特に、この例においては空白となる場所と障害物の位置とが概ね一致しており、楕円で示した空白の領域611と612とがそれぞれ商品棚521と522とに対応する。 FIG. 6 is an example of a diagram in which the coordinates of the presence of a person within a predetermined time are plotted. When the coordinates of the movement paths of a plurality of people reflected in the image at a predetermined time (for example, 1 hour) are plotted for each unit time (for example, 1 second or 0.1 second), the place where the person stays or the person enters. It is possible to read the places where there is no such place from the density of the plotted points. In particular, in this example, the blank areas and the positions of the obstacles are substantially the same, and the blank areas 611 and 612 indicated by the ellipses correspond to the product shelves 521 and 522, respectively.

図7は、人物の移動経路から得られる、人物の可動領域を考慮した部分領域ごとの重みを示す重みマップの一例である。この図においては映像が横8縦6にメッシュ分割された例が示されているが、画像領域の分割数は特にこれに限定されるわけではなく、例えば映像は横16縦9に分割されていてもよい。また、図7における位置は(x,y)で表されるものとし、例えば人物Aの位置711は(3,2)で表される。この時、位置(x,y)における重みw(x,y)は、以下の式wで表される。
w(x,y)=1/(1+9×n(x,y)/max) 式(w)
FIG. 7 is an example of a weight map obtained from a movement path of a person and showing weights for each partial area in consideration of the movable area of the person. In this figure, an example in which the image is divided into 8 horizontal and 6 vertical meshes is shown, but the number of divisions of the image area is not particularly limited to this. For example, the image is divided into 16 horizontal and 9 vertical. You may. Further, the position in FIG. 7 is represented by (x, y), and for example, the position 711 of the person A is represented by (3,2). At this time, the weight w (x, y) at the position (x, y) is expressed by the following equation w.
w (x, y) = 1 / (1 + 9 × n (x, y) / max) Equation (w)

ここで、n(x,y)は位置(x,y)のメッシュ内に含まれる点の数を示すものとする。また、maxは、x=1,2,…,8、及びy=1,2、…,6の値域を取る場合における、最も大きいn(x,y)の値を表す。人物A,C、及びDがいる位置711、713、及び714は、点が多い場所、すなわち人物が良く通る場所であるので0.1の重みを有しており、一方で人物Bの位置712は、人通りが少ない場所であるため0.4の重みを有している。 Here, n (x, y) indicates the number of points included in the mesh at the position (x, y). Further, max represents the largest value of n (x, y) in the case of taking the range of x = 1, 2, ..., 8, and y = 1, 2, ..., 6. The positions 711, 713, and 714 where the persons A, C, and D are located have a weight of 0.1 because they are places with many points, that is, places where the person often passes, while the position 712 of the person B. Has a weight of 0.4 because it is a low-traffic area.

また、マップ生成部121は、生成した重みマップに対して、撮像領域の奥行きを考慮した重みの補正を行ってもよい。すなわち、画像内の人の頭の大きさから画像上の奥行きを推定し、撮像装置から遠い位置のメッシュに割り当てられている重みが大きくなるように、生成した重みマップを補正してもよい。そのために、マップ生成部121は、撮像装置から遠い位置を撮像範囲として捉えているメッシュほど重みが大きくなりやすいように設定された補正用重みマップを生成することができる。次いで、マップ生成部121は、生成した補正用重みマップの有する重みを、図7のように生成された重みマップに対してメッシュごとに加算することにより、重みマップを補正してもよい。 Further, the map generation unit 121 may correct the weight of the generated weight map in consideration of the depth of the imaging region. That is, the depth on the image may be estimated from the size of the human head in the image, and the generated weight map may be corrected so that the weight assigned to the mesh at a position far from the image pickup apparatus becomes large. Therefore, the map generation unit 121 can generate a correction weight map in which the weight is likely to increase as the mesh captures the position far from the image pickup apparatus as the image pickup range. Next, the map generation unit 121 may correct the weight map by adding the weights of the generated correction weight map to the weight map generated as shown in FIG. 7 for each mesh.

図8は、人物Aの位置811(3,2)を起点とした各位置への論理距離を表す距離マップの一例である。ここでは、位置(x1,y1)から位置(x2,y2)への論理距離を、d[(x1,y1),(x2,y2)]で表すものとする。すなわち、図8に示される距離マップ801は、d[(3,2),(x2,y2)](x2=1,2、…,8、y2=1,2、…,6)で表される2次元配列である。例えば、人物Aの位置811から人物Bの位置812への論理距離はd[(3,2),(8,4)]であり、ここでは2.1となる。同様に、人物Cの位置813への論理距離はd[(3,2),(4,5)]であり、ここでは2.2となり、人物Dの位置814への論理距離はd[(3,2),(5,5)]であり、ここでは0.5となる。同様に、人物Bの位置812からの論理距離は、d[(8,4),(x2,y2)](x2=1,2,…,8、y2=1,2,…,6)で表される2次元配列である。このように、起点と終点の全ての組合せから4次元配列を事前に計算することができ、距離マップd[(x1,y1),(x2,y2)]を参照することで即座に2位置間の論理距離を得ることができる。この距離マップの配列の大きさは高々2304(=8*6*8*6)であり、一人行動判定部135は、この距離マップを情報処理装置101上で容易に参照しながら一人行動判定を行うことができる。 FIG. 8 is an example of a distance map showing the logical distance to each position starting from the position 811 (3, 2) of the person A. Here, the logical distance from the position (x1, y1) to the position (x2, y2) is represented by d [(x1, y1), (x2, y2)]. That is, the distance map 801 shown in FIG. 8 is represented by d [(3,2), (x2, y2)] (x2 = 1, 2, ..., 8, y2 = 1, 2, ..., 6). It is a two-dimensional array. For example, the logical distance from the position 811 of the person A to the position 812 of the person B is d [(3,2), (8,4)], which is 2.1 here. Similarly, the logical distance of the person C to the position 813 is d [(3,2), (4,5)], which is 2.2 here, and the logical distance of the person D to the position 814 is d [(. 3,2), (5,5)], which is 0.5 here. Similarly, the logical distance of the person B from the position 812 is d [(8,4), (x2, y2)] (x2 = 1,2, ..., 8, y2 = 1,2, ..., 6). It is a two-dimensional array represented. In this way, a four-dimensional array can be calculated in advance from all combinations of the start point and the end point, and by referring to the distance map d [(x1, y1), (x2, y2)], the distance between the two positions can be immediately calculated. You can get the logical distance of. The size of the array of this distance map is at most 2304 (= 8 * 6 * 8 * 6), and the one-person action determination unit 135 makes a one-person action determination while easily referring to this distance map on the information processing device 101. It can be carried out.

図9は、情報処理装置101が行う処理の一例を示すフローチャートである。ステップS901でマップ生成部121は、経路蓄積部133に格納された、所定時間内の全ての人物の移動経路データを取得する。ステップS902でマップ生成部121は、撮像画像を等間隔に分割したメッシュと前記移動経路データとを照合し、メッシュごとに人物が存在した回数を数える。ステップS903でマップ生成部121は、メッシュごとに人物が存在した回数を0.1から1.0の間で正規化した重みマップを生成する。ステップS904でマップ生成部121は、前記重みマップから全てのメッシュ間の距離を算出し、次いで距離マップを生成する。 FIG. 9 is a flowchart showing an example of processing performed by the information processing apparatus 101. In step S901, the map generation unit 121 acquires the movement route data of all the persons within the predetermined time stored in the route storage unit 133. In step S902, the map generation unit 121 collates the mesh obtained by dividing the captured image at equal intervals with the movement path data, and counts the number of times a person has existed for each mesh. In step S903, the map generation unit 121 generates a weight map in which the number of times a person has existed for each mesh is normalized between 0.1 and 1.0. In step S904, the map generation unit 121 calculates the distances between all the meshes from the weight map, and then generates a distance map.

このような構成によれば、人物の可動領域を考慮した人物間の論理距離を取得することができる。このように取得した論理距離を用いることにより、その人物に関する一人行動判定を行うことができる。したがって、詳細は後述する実施形態2で説明するが、低負荷の処理である一人行動判定によって高付加の処理である不審行動判定を行う対象を減らすことで、情報処理装置におけるシステム負荷を低減することができる。 According to such a configuration, it is possible to acquire the logical distance between the persons in consideration of the movable area of the person. By using the logical distance acquired in this way, it is possible to determine the behavior of one person regarding the person. Therefore, although the details will be described in the second embodiment described later, the system load in the information processing apparatus is reduced by reducing the number of objects for which the suspicious behavior determination, which is a high-addition processing, is performed by the one-person behavior determination, which is a low-load processing. be able to.

[実施形態2]
図11は、実施形態2に係る情報処理装置の機能構成の一例を示すブロック図である。本実施形態に係る情報処理装置1101は、映像内の各人物に対して、実施形態1と同様に生成された距離マップを用いて一人行動判定を行い、一人行動を行っていると判定された人物に対して不審行動を行っているかどうかの判定を行う。つまり、事前に行う低負荷の画像解析処理(一人行動判定)によって一人行動を行う人物を抽出し、抽出された人物に対してのみ高負荷の画像解析処理(不審行動判定)を行う。情報処理装置1101は、不審行動判定部1136を有することを除き実施形態1の情報処理装置101と同様の構成を有し、さらに図2に示されるような同様のハードウェア構成を有するため、重複する説明は省略する。
[Embodiment 2]
FIG. 11 is a block diagram showing an example of the functional configuration of the information processing apparatus according to the second embodiment. The information processing device 1101 according to the present embodiment determines each person in the video to act alone using the distance map generated in the same manner as in the first embodiment, and determines that the person is acting alone. Judge whether or not a person is performing suspicious behavior. That is, a person who performs a single action is extracted by a low-load image analysis process (single action determination) performed in advance, and a high-load image analysis process (suspicious behavior determination) is performed only on the extracted person. The information processing device 1101 has the same configuration as the information processing device 101 of the first embodiment except that it has the suspicious behavior determination unit 1136, and further has the same hardware configuration as shown in FIG. 2, so that the information processing device 1101 is duplicated. The description to be made is omitted.

不審行動判定部1136は、一人行動判定部135によって一人行動を行っていると判定された全ての人物に対して、映像蓄積部113に格納されている映像から、不審行動を行っているかどうかの判定を行う。ここで各人物が不審行動を行っているかどうかの判定方法は特に限定されない。不審行動判定部1136は、例えば、物陰に隠れた、ポケットに手を入れた、周囲を窺った、ブラックリストと照合されたなどの条件を満たす人物を、不審行動を行った人物であると判定してもよい。また簡単のため、以下においてはこのような判定を不審行動判定と呼ぶものとする。入出力部141は、不審行動を行ったと判定された人物への威嚇、若しくは不審行動を行ったと判定された人物の通知などのユーザ(例えば警備員)への出力を行ってもよく、映像再生指示などのユーザからの入力を受け付けてもよい。ここで、人物への威嚇とは、例えば、万引き行為を働こうとしている来店客に対して「お探しの商品がございましたら店員へお声掛けください」などの音声を再生し、情報処理装置によって始終監視されていると知らせることを指す。 The suspicious behavior determination unit 1136 determines whether or not the suspicious behavior is being performed for all the persons determined by the one-person behavior determination unit 135 to be performing suspicious behavior from the video stored in the video storage unit 113. Make a judgment. Here, the method of determining whether or not each person is performing suspicious behavior is not particularly limited. The suspicious behavior determination unit 1136 determines that a person who satisfies the conditions such as hiding in the shadow, putting his / her hand in his / her pocket, looking around, and being collated with the blacklist is a person who has performed suspicious behavior. You may. For the sake of simplicity, such a judgment will be referred to as a suspicious behavior judgment in the following. The input / output unit 141 may output to a user (for example, a security guard) such as threatening a person determined to have performed a suspicious action or notifying a person determined to have performed a suspicious action, and reproduces a video. Input from the user such as an instruction may be accepted. Here, the threat to a person is, for example, to play a voice such as "Please call the clerk if you have a product you are looking for" to a customer who is trying to shoplift, and use an information processing device. It refers to notifying that it is being monitored from beginning to end.

図12は、本実施形態に係る情報処理装置1101が行う処理の一例を示すフローチャートである。ステップS1201で検出部131は、リアルタイム映像の特定時刻の画像から、公知の手法によって全ての人物を検出する。ステップS1202で一人行動判定部135は、一人行動を行っている人物を全て抽出する後述のサブルーチンを起動する。サブルーチンの処理に後続するステップS1203で不審行動判定部1136は、ステップS1202で抽出された一人行動を行っている人物から、まだ不審行動判定を行っていない人物を1人選択する。ステップS1204で不審行動判定部1136は、ステップS1203で選択した人物に対して不審行動判定の処理を行う。ステップS1205で不審行動判定部1136は、その人物が不審行動を行っていたと判定された場合は処理をステップS1206へと進め、不審行動を行っていなかったと判定された場合は処理をステップS1207へと進める。ステップS1206で不審行動判定部1136は、不審人物への威嚇又はユーザ(例えば、店員)への通知などの指示を入出力部141へ送信する。ステップS1207で不審行動判定部1136は、ステップS1202で抽出された一人行動を行っている人物の全てに対して不審行動判定を行ったかどうかを判断し、全てに対して行っていれば処理を終了し、そうでなければ処理をステップS1203へと戻す。 FIG. 12 is a flowchart showing an example of processing performed by the information processing apparatus 1101 according to the present embodiment. In step S1201, the detection unit 131 detects all persons by a known method from the image of the real-time image at a specific time. In step S1202, the one-person action determination unit 135 activates a subroutine described later that extracts all the persons who are performing one-person action. In step S1203 following the processing of the subroutine, the suspicious behavior determination unit 1136 selects one person who has not yet performed the suspicious behavior determination from the persons who are performing the one-person action extracted in step S1202. In step S1204, the suspicious behavior determination unit 1136 processes the suspicious behavior determination for the person selected in step S1203. In step S1205, the suspicious behavior determination unit 1136 proceeds to step S1206 if it is determined that the person has performed suspicious behavior, and proceeds to step S1207 if it is determined that the person has not performed suspicious behavior. Proceed. In step S1206, the suspicious behavior determination unit 1136 transmits an instruction such as a threat to the suspicious person or a notification to the user (for example, a clerk) to the input / output unit 141. In step S1207, the suspicious behavior determination unit 1136 determines whether or not the suspicious behavior determination has been made for all the persons who are performing the one-person action extracted in step S1202, and if it has been performed for all, the process ends. If not, the process returns to step S1203.

ステップS1202から呼び出されるサブルーチンのステップS1211で一人行動判定部135は、画像内に検出された人物から、まだ一人行動判定を行っていない人物を一人選択する。ステップS1212で一人行動判定部135は、ステップS1211で選択した人物と画像内の他の全ての人物との論理距離を、距離マップ上の各人物に対応する位置を参照することで取得する。ステップS1213で一人行動判定部135は、S1212で取得された全ての論理距離が所定の閾値以上であるかどうかを判定し、全て閾値以上であれば処理をステップS1214へと進め、全てが閾値以上でなければ処理をステップS1215へと進める。ここで閾値として設定される値は特に限定されず、適宜所望の値が用いられるものとする。ステップS1214で一人行動判定部135は、選択した人物に対して一人行動を行っていたというフラグを付与し、処理をステップS1215へと進める。ステップS1215で一人行動判定部135は、画像内に検出された人物全てに対して一人行動判定を行ったかどうかを判断する。全てに対して一人行動判定を行っていれば処理はサブルーチンの呼び出し元に戻ってステップS1203へと進み、そうでなければ処理はステップS1211へと戻る。 In step S1211 of the subroutine called from step S1202, the one-person action determination unit 135 selects one person who has not yet performed the one-person action determination from the persons detected in the image. In step S1212, the one-person action determination unit 135 acquires the logical distance between the person selected in step S1211 and all other persons in the image by referring to the positions corresponding to each person on the distance map. In step S1213, the one-person action determination unit 135 determines whether or not all the logical distances acquired in S1212 are equal to or greater than a predetermined threshold value, and if all are equal to or greater than the threshold value, the process proceeds to step S1214, and all are equal to or greater than the threshold value. If not, the process proceeds to step S1215. Here, the value set as the threshold value is not particularly limited, and a desired value is appropriately used. In step S1214, the one-person action determination unit 135 adds a flag to the selected person that he / she has performed one-person action, and proceeds to step S1215. In step S1215, the one-person action determination unit 135 determines whether or not the one-person action determination has been performed for all the persons detected in the image. If the one-person action determination is performed for all, the process returns to the caller of the subroutine and proceeds to step S1203, otherwise the process returns to step S1211.

[従来システムとの処理負荷の違い]
以下、図10を参照して、従来システムと本発明とによる不審行動判定の映像解析における処理負荷の差を説明する。図10は、小売店に設置されたカメラの映像に映った来店客を示す図の一例である。図10においては、(A)は来店客が少ない場合、(B)及び(C)は来店客が多い場合を表しており、(A)及び(B)は従来システムによる映像解析の例を、(C)は本開示による映像解析の例を示している。人物検出された人物は、不審行動判定を行うための映像解析が、図10(A)及び(B)においては従来システムによって、並びに図10(C)においては不審行動判定部1136によって行われる。人物検出は処理負荷が低いが不審行動判定の映像解析の処理負荷は高いことが多く、従来システムによって同時に実行できる不審行動判定の映像解析の対象数は制限されることがあるが、ここではその上限を5人と仮定して説明を行う。
[Difference in processing load from the conventional system]
Hereinafter, the difference in processing load in the video analysis of suspicious behavior determination between the conventional system and the present invention will be described with reference to FIG. FIG. 10 is an example of a diagram showing a customer who is reflected in an image of a camera installed in a retail store. In FIG. 10, (A) represents a case where the number of customers is small, (B) and (C) represent a case where the number of customers is large, and (A) and (B) are examples of video analysis by the conventional system. (C) shows an example of the image analysis according to the present disclosure. For the person detected, the video analysis for determining the suspicious behavior is performed by the conventional system in FIGS. 10A and 10B, and by the suspicious behavior determination unit 1136 in FIG. 10C. Although the processing load of person detection is low, the processing load of video analysis of suspicious behavior judgment is often high, and the number of targets for video analysis of suspicious behavior judgment that can be executed simultaneously by the conventional system may be limited. The explanation will be given assuming that the upper limit is 5 people.

図10(A)において、映像1001には人物が4人映っており、人物1002に対して検出枠1003が付与されている。ここでは4人の人物全てに検出枠が付与されており、その全てに対して不審行動判定の映像解析が行われる。一方で図10(B)においては、映像1021には人物が10人映っているが、例えば人物1022のような、検出枠が付与されていない人物が存在する。これは、検出枠の付与数が映像解析の上限数である5人に達したために、人物検出がその時点で打ち切られたからである。このように、全ての対象物に対して処理負荷が高い処理を行おうとすると、本来は映像解析を行うべき不審人物を見落としてしまう可能性がある。 In FIG. 10A, four people are shown in the image 1001, and a detection frame 1003 is given to the person 1002. Here, detection frames are assigned to all four persons, and video analysis of suspicious behavior determination is performed on all of them. On the other hand, in FIG. 10B, 10 people are shown in the image 1021, but there is a person such as the person 1022 who is not given a detection frame. This is because the number of detection frames granted has reached the upper limit of 5 people for video analysis, so that the person detection has been terminated at that time. In this way, if an attempt is made to perform processing with a high processing load on all objects, there is a possibility that a suspicious person who should originally perform video analysis may be overlooked.

次に、一人行動をしている人物に対してのみ不審行動判定を行う本開示の例について説明する。図10(C)においては、映像1041には、映像1021と同様に10人の人物が映っている。この場合、情報処理装置101は、一人行動を行っているかの判定により人物1042及び人物1043の二人の人物に検出枠を付与し、次いでこの二人に対して不審行動判定の映像解析を行う。このような処理によれば、処理負荷が低い一人行動の判定によって人物を絞り込み、処理負荷が高い不審行動判定の映像解析の回数を減らすことができる。 Next, an example of the present disclosure in which the suspicious behavior determination is performed only for a person who is acting alone will be described. In FIG. 10C, the image 1041 shows 10 people as in the image 1021. In this case, the information processing device 101 assigns a detection frame to two persons, the person 1042 and the person 1043, by determining whether or not the person is acting alone, and then performs a video analysis of the suspicious action determination on these two persons. .. According to such processing, it is possible to narrow down the persons by the determination of the one-person behavior having a low processing load and reduce the number of times of video analysis of the suspicious behavior determination having a high processing load.

また、実施形態1に係るマップ生成部121は、所定時間内の人物の移動経路(単位時間ごとの位置)に基づいて重みマップを生成するものとしたが、重みマップの生成手段は特にこれには限定されない。マップ生成部121は、障害物の位置を取得し、取得した障害物の位置に基づいて重みマップを生成してもよい。障害物の位置を取得する方法は特に限定されず、例えばユーザが手作業で入力してもよく、三次元センサーによって測定されてもよく、人工知能による物体検出で検出されてもよく、店内に配置された二次元バーコードを読み取ることによって取得されてもよい。 Further, the map generation unit 121 according to the first embodiment generates a weight map based on the movement path (position for each unit time) of the person within a predetermined time, but the weight map generation means is particularly suitable for this. Is not limited. The map generation unit 121 may acquire the position of the obstacle and generate a weight map based on the acquired position of the obstacle. The method of acquiring the position of the obstacle is not particularly limited, and for example, the user may manually input it, it may be measured by a three-dimensional sensor, it may be detected by object detection by artificial intelligence, and it may be detected in the store. It may be obtained by reading the arranged two-dimensional bar code.

また、マップ生成部121は、不審行動判定を行うシステムの稼働前に距離マップを生成するが、距離マップが生成されるタイミングは特にこれには限定されず、所定の条件に基づいて距離マップを更新してもよい。例えば、マップ生成部121は、距離マップを、所定の時間間隔で更新してもよく、解析を行う映像を取得する撮像装置の位置、姿勢、又は設定の変更が行われた場合に更新してもよく、映像内の人物を除いた背景領域の変化に応じて更新してもよい。すなわち、システム稼働中の一定時間ごとに更新してもよく、システム稼働中にカメラの画角が変化した時に更新してもよく、システム稼働中に店内の配置が変化した時に更新してもよい。また、マップ生成部121は、夜間などの処理負荷が低い時に定期的に距離マップを更新してもよい。 Further, the map generation unit 121 generates a distance map before the operation of the system for determining suspicious behavior, but the timing at which the distance map is generated is not particularly limited to this, and the distance map is generated based on a predetermined condition. You may update it. For example, the map generation unit 121 may update the distance map at predetermined time intervals, and updates the distance map when the position, orientation, or setting of the imaging device that acquires the image to be analyzed is changed. It may be updated according to the change of the background area excluding the person in the image. That is, it may be updated at regular intervals during system operation, when the angle of view of the camera changes during system operation, or when the layout in the store changes during system operation. .. Further, the map generation unit 121 may periodically update the distance map when the processing load is low, such as at night.

また、記録部122が格納する距離マップの数は特に限定されない。記録部122が複数生成された距離マップを格納する場合に、一人行動判定部135は、検出を行う画像が撮像された時刻、曜日、若しくは季節、又は実施されているイベントなどの状況に応じて、参照する距離マップを使い分けてもよい。 Further, the number of distance maps stored in the recording unit 122 is not particularly limited. When the recording unit 122 stores a plurality of generated distance maps, the one-person action determination unit 135 determines the time, day of the week, or season when the image to be detected is captured, or depending on the situation such as an event being held. , The distance map to be referred to may be used properly.

また、一人行動判定部135は、映像内の1画像を対象として上述のステップS1211〜S1215の処理を行うものとして説明されたが、一人行動判定を行うフレーム数は特にこれには限定されない。一人行動判定部135は、例えば、ステップS1212で行われる論理距離の取得処理を、ステップS1201で用いた画像の前後の一連の数フレームにおける画像に関して行い、その数フレーム中で最短又は最長の論理距離を用いて後続する各処理を行ってもよい。 Further, although the one-person action determination unit 135 has been described as performing the processing of steps S121 to S1215 described above for one image in the video, the number of frames for performing the one-person action determination is not particularly limited to this. For example, the one-person action determination unit 135 performs the logical distance acquisition process performed in step S1212 with respect to the images in a series of several frames before and after the image used in step S1201, and the shortest or longest logical distance in the several frames. May be used to perform each subsequent process.

さらに、ステップS1201では検出部131が画像から人物を検出し、後続する処理ではここで検出された人物を対象として映像解析が行われたが、処理の対象となる人物は特にこれに限定されるわけではない。例えば、検出部131は、画角外に移動した人物の位置、又は障害物の陰に隠れた人物の位置を、前後のフレームにおける移動経路に基づいて推測してもよい。このような場合、ステップS1201で検出された人物に対する後続の処理が、ここで推測された位置に対しても行われる。このような処理によれば、映像の範囲外へと移動した人物について、又は検出失敗によってデータが欠落した人物についても、一人行動を行っているかどうかの判定を行いやすくすることができる。 Further, in step S1201, the detection unit 131 detects a person from the image, and in the subsequent processing, video analysis is performed on the person detected here, but the person to be processed is particularly limited to this. Do not mean. For example, the detection unit 131 may estimate the position of a person who has moved out of the angle of view or the position of a person hidden behind an obstacle based on the movement path in the front and rear frames. In such a case, the subsequent processing for the person detected in step S1201 is also performed for the position estimated here. According to such a process, it is possible to easily determine whether or not a person is acting alone even for a person who has moved out of the range of the image or for a person whose data is lost due to a detection failure.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101:情報処理装置、111:撮像部、112:録画部、113:映像蓄積部、121:マップ生成部、122:記録部、131:検出部、132:経路生成部、133:経路蓄積部、134:算出部、135:一人行動判定部、141:入出力部、151:LAN 101: Information processing device, 111: Imaging unit, 112: Recording unit, 113: Video storage unit, 121: Map generation unit, 122: Recording unit, 131: Detection unit, 132: Route generation unit, 133: Route storage unit, 134: Calculation unit, 135: One-person behavior judgment unit, 141: Input / output unit, 151: LAN

Claims (20)

撮像画像中の対象物の位置を取得する第1の取得手段と、
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する第2の取得手段と、
前記重み付き距離に基づいて、前記第1の対象物が前記第2の対象物とは別の一人行動を行っているかどうかを判定する第1の判定手段と、
を備えることを特徴とする、情報処理装置。
The first acquisition means for acquiring the position of the object in the captured image, and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. A second acquisition method for acquiring the weighted distance,
Based on the weighted distance, a first determining means for determining whether or not the first object is performing a solo action different from the second object, and
An information processing device characterized by being equipped with.
前記第1の対象物と前記第2の対象物との間の重み付き距離は、前記第1の対象物と前記第2の対象物との間に障害が存在する場合に、前記障害が存在しない場合よりも大きくなるように定められる、請求項1に記載の情報処理装置。 The weighted distance between the first object and the second object is such that the obstacle exists when there is an obstacle between the first object and the second object. The information processing apparatus according to claim 1, wherein the information processing device is defined to be larger than the case where the information processing device is not used. 前記撮像画像内の部分領域ごとに設定された重みを表す重みマップを取得する第3の取得手段をさらに備え、
前記第2の取得手段は、前記第1の対象物と前記第2の対象物との間の線分の各前記部分領域における長さと、各部分領域に設定された重みと、に基づいて前記重み付き距離を取得することを特徴とする、請求項1又は2に記載の情報処理装置。
Further, a third acquisition means for acquiring a weight map representing the weight set for each partial region in the captured image is provided.
The second acquisition means is based on the length of the line segment between the first object and the second object in each of the partial regions and the weight set in each partial region. The information processing apparatus according to claim 1 or 2, wherein the weighted distance is acquired.
前記撮像画像内の前記部分領域ごとの重みは、前記部分領域に障害が映っているか否か、又は前記部分領域に障害が映っている可能性に応じて設定されることを特徴とする、請求項3に記載の情報処理装置。 The weight for each of the partial regions in the captured image is set according to whether or not the obstacle is reflected in the partial region or the possibility that the obstacle is reflected in the partial region. Item 3. The information processing apparatus according to item 3. 前記第3の取得手段は、前記対象物の移動経路に基づいて前記重みマップを生成することを特徴とする、請求項3又は4に記載の情報処理装置。 The information processing apparatus according to claim 3 or 4, wherein the third acquisition means generates the weight map based on the movement path of the object. 前記第3の取得手段は、所定時間内の複数の時刻のそれぞれにおいて前記対象物が存在した位置に基づいて前記重みマップを取得することを特徴とする、請求項3乃至5の何れか一項に記載の情報処理装置。 Any one of claims 3 to 5, wherein the third acquisition means acquires the weight map based on the position where the object exists at each of a plurality of times within a predetermined time. The information processing device described in. 前記第3の取得手段は、ユーザの入力に従って前記重みマップを生成することを特徴とする、請求項3乃至6の何れか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 3 to 6, wherein the third acquisition means generates the weight map according to a user input. 前記撮像画像内の前記部分領域ごとの重みは、前記部分領域に映る対象物の大きさにさらに応じて設定されることを特徴とする、請求項3乃至7の何れか一項に記載の情報処理装置。 The information according to any one of claims 3 to 7, wherein the weight for each partial region in the captured image is further set according to the size of the object reflected in the partial region. Processing equipment. 前記撮像画像内の1つの部分領域から他の部分領域への重み付き距離を表す距離マップを生成する生成手段をさらに備え、
前記第2の取得手段は、前記第1の対象物を含む第1の部分領域と、前記第2の対象物を含む第2の部分領域と、に対応する前記重み付き距離を前記距離マップから取得することを特徴とする、請求項1乃至8の何れか一項に記載の情報処理装置。
Further comprising a generation means for generating a distance map representing a weighted distance from one subregion to another in the captured image.
The second acquisition means obtains the weighted distance corresponding to the first partial region including the first object and the second partial region including the second object from the distance map. The information processing apparatus according to any one of claims 1 to 8, wherein the information processing apparatus is to be acquired.
前記生成手段は、前記距離マップを複数生成し、
前記第2の取得手段は、前記複数生成された距離マップから状況に応じて選択される前記距離マップにおける、前記第1の部分領域と前記第2の部分領域とに対応する前記重み付き距離を取得することを特徴とする、請求項9に記載の情報処理装置。
The generation means generates a plurality of the distance maps,
The second acquisition means obtains the weighted distance corresponding to the first partial region and the second partial region in the distance map selected according to the situation from the plurality of generated distance maps. The information processing apparatus according to claim 9, wherein the information processing apparatus is to be acquired.
前記生成手段は、所定の条件に基づいて前記距離マップを更新することを特徴とする、請求項9又は10に記載の情報処理装置。 The information processing apparatus according to claim 9 or 10, wherein the generation means updates the distance map based on a predetermined condition. 前記生成手段は、所定の時間間隔で前記距離マップを更新することを特徴とする、請求項11に記載の情報処理装置。 The information processing apparatus according to claim 11, wherein the generation means updates the distance map at predetermined time intervals. 前記生成手段は、前記撮像画像を取得する撮像装置の位置、姿勢、又は設定の変更に応じて、前記距離マップを更新することを特徴とする、請求項11又は12に記載の情報処理装置。 The information processing device according to claim 11 or 12, wherein the generation means updates the distance map in response to a change in the position, posture, or setting of the image pickup device that acquires the captured image. 前記生成手段は、前記撮像画像中の前記対象物を除いた背景領域の変化に応じて、前記距離マップを更新することを特徴とする、請求項11乃至13の何れか一項に記載の情報処理装置。 The information according to any one of claims 11 to 13, wherein the generation means updates the distance map in response to a change in the background region excluding the object in the captured image. Processing equipment. 前記撮像画像中に検出されない前記対象物の位置を推測する推測手段をさらに備え、
前記第1の取得手段は、前記対象物の位置として前記推測した対象物の位置を取得することを特徴とする、請求項1乃至14の何れか一項に記載の情報処理装置。
Further provided with an inferring means for estimating the position of the object which is not detected in the captured image,
The information processing apparatus according to any one of claims 1 to 14, wherein the first acquisition means acquires the position of the estimated object as the position of the object.
一人行動を行っていると判定された前記第1の対象物に対して、不審人物であるかどうかの判定を行う第2の判定手段をさらに備えることを特徴とする、請求項1乃至15の何れか一項に記載の情報処理装置。 Claims 1 to 15, further comprising a second determination means for determining whether or not the first object determined to be acting alone is a suspicious person. The information processing device according to any one item. 撮像画像中の対象物の位置を取得する第1の取得手段と、
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する第2の取得手段と、
前記重み付き距離に基づいて、前記第1の対象物を、画像解析処理の対象にするか否かを判定する第1の判定手段と、
を備えることを特徴とする、情報処理装置。
The first acquisition means for acquiring the position of the object in the captured image, and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. A second acquisition method for acquiring the weighted distance,
Based on the weighted distance, a first determining means for determining whether or not the first object is to be subjected to image analysis processing, and
An information processing device characterized by being equipped with.
撮像画像中の対象物の位置を取得する工程と、
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する工程と、
前記重み付き距離に基づいて、前記第1の対象物が前記第2の対象物とは別の一人行動を行っているかどうかを判定する工程と、
を備えることを特徴とする、情報処理方法。
The process of acquiring the position of the object in the captured image and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. The process of getting the weighted distance and
A step of determining whether or not the first object is acting alone differently from the second object based on the weighted distance.
An information processing method characterized by being provided with.
撮像画像中の対象物の位置を取得する工程と、
前記対象物に含まれる第1の対象物と第2の対象物との間に存在する障害の位置を示す情報を考慮した、前記第1の対象物と前記第2の対象物との間の重み付き距離を取得する工程と、
前記重み付き距離に基づいて、前記第1の対象物を、画像解析処理の対象にするか否かを判定する工程と、
を備えることを特徴とする、情報処理方法。
The process of acquiring the position of the object in the captured image and
Between the first object and the second object in consideration of the information indicating the position of the obstacle existing between the first object and the second object included in the object. The process of getting the weighted distance and
A step of determining whether or not the first object is subject to image analysis processing based on the weighted distance, and
An information processing method characterized by being provided with.
コンピュータを、請求項1乃至17の何れか一項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 17.
JP2020011045A 2020-01-27 2020-01-27 Information processing device, information processing method, and program Pending JP2021117768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020011045A JP2021117768A (en) 2020-01-27 2020-01-27 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020011045A JP2021117768A (en) 2020-01-27 2020-01-27 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021117768A true JP2021117768A (en) 2021-08-10

Family

ID=77174978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020011045A Pending JP2021117768A (en) 2020-01-27 2020-01-27 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2021117768A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115050105A (en) * 2022-08-17 2022-09-13 杭州觅睿科技股份有限公司 Method, device and equipment for judging doubtful shadow and storage medium
JP2023117087A (en) * 2022-02-10 2023-08-23 キヤノン株式会社 Image processing apparatus, image processing method, and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140091A (en) * 2008-12-09 2010-06-24 Takenaka Komuten Co Ltd Crime prevention device and program
JP2015176198A (en) * 2014-03-13 2015-10-05 大和ハウス工業株式会社 Monitor system
JP2019133530A (en) * 2018-02-01 2019-08-08 富士ゼロックス株式会社 Information processing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140091A (en) * 2008-12-09 2010-06-24 Takenaka Komuten Co Ltd Crime prevention device and program
JP2015176198A (en) * 2014-03-13 2015-10-05 大和ハウス工業株式会社 Monitor system
JP2019133530A (en) * 2018-02-01 2019-08-08 富士ゼロックス株式会社 Information processing apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023117087A (en) * 2022-02-10 2023-08-23 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
CN115050105A (en) * 2022-08-17 2022-09-13 杭州觅睿科技股份有限公司 Method, device and equipment for judging doubtful shadow and storage medium
CN115050105B (en) * 2022-08-17 2022-12-30 杭州觅睿科技股份有限公司 Method, device and equipment for judging doubtful shadow and storage medium

Similar Documents

Publication Publication Date Title
JP7047944B2 (en) Video surveillance system, video monitoring method, and program
JP4198951B2 (en) Group attribute estimation method and group attribute estimation apparatus
JP6898165B2 (en) People flow analysis method, people flow analyzer and people flow analysis system
US8724845B2 (en) Content determination program and content determination device
JP2013533563A (en) Semantic analysis of objects in video
TW200820099A (en) Target moving object tracking device
JP2019071050A (en) Image processing device, image processing method, and program
WO2020217812A1 (en) Image processing device that recognizes state of subject and method for same
JP2007006427A (en) Video surveillance device
US9218794B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP6867056B2 (en) Information processing equipment, control methods, and programs
JP2017016344A (en) Image monitoring device
JP2018028784A (en) Movable body group detection program, movable body group detection device, and movable body group detection method
JP2021117768A (en) Information processing device, information processing method, and program
US20250054300A1 (en) Real-time risk tracking
US10740934B2 (en) Flow line display system, flow line display method, and program recording medium
JP2012022538A (en) Attention position estimating method, image display method, attention content display method, attention position estimating device and image display device
US20210319229A1 (en) System and method for determining object distance and/or count in a video stream
JP6950644B2 (en) Attention target estimation device and attention target estimation method
JP2022142623A (en) Information processing system, information processing method and program
JP7668642B2 (en) Image processing device, image processing method, and program
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
JP2019101526A (en) Device and method for object identification
JP2021189587A (en) Display device, display method and display program
JP2017028688A (en) Image managing device, image managing method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240426