[go: up one dir, main page]

JP7649934B2 - Behavior estimation device, behavior estimation method, program, and behavior estimation system - Google Patents

Behavior estimation device, behavior estimation method, program, and behavior estimation system Download PDF

Info

Publication number
JP7649934B2
JP7649934B2 JP2021042085A JP2021042085A JP7649934B2 JP 7649934 B2 JP7649934 B2 JP 7649934B2 JP 2021042085 A JP2021042085 A JP 2021042085A JP 2021042085 A JP2021042085 A JP 2021042085A JP 7649934 B2 JP7649934 B2 JP 7649934B2
Authority
JP
Japan
Prior art keywords
person
subject
behavior
unit
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021042085A
Other languages
Japanese (ja)
Other versions
JP2022073882A5 (en
JP2022073882A (en
Inventor
遼 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VAAK INC.
Original Assignee
VAAK INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VAAK INC. filed Critical VAAK INC.
Priority to JP2021042085A priority Critical patent/JP7649934B2/en
Publication of JP2022073882A publication Critical patent/JP2022073882A/en
Publication of JP2022073882A5 publication Critical patent/JP2022073882A5/ja
Application granted granted Critical
Publication of JP7649934B2 publication Critical patent/JP7649934B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、人の行動を推定するための行動推定装置、行動推定方法、プログラム及び行動推定システムに関する。 The present invention relates to a behavior estimation device, a behavior estimation method, a program, and a behavior estimation system for estimating human behavior.

時系列画像に写った人の関節を検出し、検出した関節の位置の変化に基づいて被写体の行動を推定する行動推定装置が知られている(例えば、特許文献1を参照)。 There is a known behavior estimation device that detects the joints of a person captured in a time-series image and estimates the subject's behavior based on changes in the positions of the detected joints (see, for example, Patent Document 1).

特許第6525181号公報Patent No. 6525181

従来の行動推定装置は被写体の動きのみに基づいて行動を推定するため、動きが類似する行動を判別することが困難であるという問題が生じていた。 Conventional behavior estimation devices estimate behavior based solely on the movement of a subject, which makes it difficult to distinguish between behaviors with similar movements.

そこで、本発明はこれらの点に鑑みてなされたものであり、人の行動を推定する精度を向上させることを目的とする。 Therefore, the present invention has been made in consideration of these points, and aims to improve the accuracy of estimating human behavior.

本発明の第1の態様に係る行動推定装置は、撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定する推定部と、を有する。 The behavior estimation device according to the first aspect of the present invention includes an image acquisition unit that acquires captured image data showing a captured image, a person detection unit that detects the movement of a person included in the captured image, a subject detection unit that detects the type of subject included in the captured image, a relationship identification unit that identifies a relative relationship between the person and the subject associated with the movement of the person, and an estimation unit that estimates the behavior of the person based on a combination of the type of the subject and the relative relationship.

前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship identification unit may identify the distance between the person and the subject as the relative relationship, and the estimation unit may estimate the activity content based on a result of comparing a reference distance associated with the type of the subject detected by the subject detection unit with the distance between the person and the subject identified by the relationship identification unit.

前記関係特定部は、前記人の目線の方向と前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship identification unit may identify the relationship between the direction of the person's gaze and the position of the subject as the relative relationship, and the estimation unit may estimate the behavior content based on a result of comparing a reference gaze relationship, which is the relationship between the direction of the gaze and the position of the subject associated with the type of the subject detected by the subject detection unit, with the relationship between the direction of the person's gaze and the position of the subject identified by the relationship identification unit.

前記関係特定部は、前記人の身体の向きと前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship identification unit may identify the relationship between the person's body orientation and the position of the subject as the relative relationship, and the estimation unit may estimate the behavior content based on a result of comparing a reference body orientation relationship, which is the relationship between the body orientation and the position of the subject associated with the type of the subject detected by the subject detection unit, with the relationship between the direction of the person's line of sight identified by the relationship identification unit and the position of the subject.

前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、前記関係特定部は、前記相対関係の変化を特定し、前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit may acquire multiple captured image data created in time series, the relationship identification unit may identify a change in the relative relationship, and the estimation unit may estimate the behavior of the person based on a combination of the type of the subject and the change in the relative relationship.

前記推定部は、前記複数の撮像画像データのいずれかに、前記人検出部が前記人を検出する前に前記被写体が含まれていたか否かを判定した結果にさらに基づいて、前記行動内容を推定してもよい。 The estimation unit may estimate the behavioral content further based on a result of determining whether the subject was included in any of the plurality of captured image data before the person detection unit detected the person.

前記人検出部は、前記人の属性をさらに検出し、前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定してもよい。 The person detection unit may further detect attributes of the person, and the estimation unit may estimate the activity content based on the attributes of the person detected by the person detection unit.

前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定してもよい。 The subject detection unit detects a first subject and a second subject included in the captured image, the relationship identification unit identifies a first relative relationship that is a relationship between the person and the first subject associated with the person's movement, a second relative relationship that is a relationship between the person and the second subject associated with the person's movement, and a third relative relationship that is a relationship between the first subject and the second subject associated with the person's movement, and the estimation unit may estimate the behavior of the person based on a combination of the type of the subject and at least two of the relative relationships, the first relative relationship, the second relative relationship, or the third relative relationship.

前記撮像画像に含まれる前記被写体の属性の設定を受け付ける設定受付部をさらに有し、前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定してもよい。 The apparatus may further include a setting reception unit that receives settings of attributes of the subject included in the captured image, and the estimation unit may estimate the action content based on the attributes of the subject.

前記関係特定部は、前記被写体検出部が検出した被写体と前記設定受付部が属性の設定を受け付けた被写体との位置関係をさらに特定し、前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定してもよい。 The relationship identification unit may further identify a positional relationship between the subject detected by the subject detection unit and the subject for which the setting reception unit has accepted an attribute setting, and the estimation unit may further estimate the action content based on the positional relationship identified by the relationship identification unit and the attribute of the subject for which the setting reception unit has accepted an attribute setting.

前記撮像画像に写っている場所を特定する場所特定部と、前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、をさらに有してもよい。 The device may further include a location identification unit that identifies a location shown in the captured image, and an output unit that outputs notification information when the activity content estimated by the estimation unit and the location identified by the location identification unit satisfy a predetermined condition.

前記出力部は、前記場所特定部が特定した場所と前記行動内容との組み合わせに対応する種別の前記通知情報を出力してもよい。 The output unit may output the notification information of a type corresponding to a combination of the location identified by the location identification unit and the action content.

前記人の色の変化又は前記被写体の色の変化の少なくともいずれかを特定する色特定部をさらに有し、前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定してもよい。 The device may further include a color identification unit that identifies at least one of the color changes of the person or the color changes of the subject, and the estimation unit may estimate the behavioral content based on at least one of the color changes of the person or the color changes of the subject identified by the color identification unit.

前記画像取得部は、複数の前記撮像画像データを取得し、前記関係特定部は、複数の前記相対関係を特定し、前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit may acquire a plurality of the captured image data, the relationship identification unit may identify a plurality of the relative relationships, and the estimation unit may estimate the behavior of the person based on a combination of each of the plurality of relative relationships and the type of the subject.

本発明の第2の態様に係る行動推定方法は、コンピュータが実行する、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を有する。 The behavior estimation method according to the second aspect of the present invention includes the steps of acquiring captured image data representing a captured image, executed by a computer, detecting the movement of a person included in the captured image, detecting the type of subject included in the captured image, identifying a relative relationship between the person and the subject associated with the movement of the person, and estimating the behavior of the person based on a combination of the type of subject and the relative relationship.

本発明の第3の態様に係るプログラムは、コンピュータに、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を実行させる。 The program according to the third aspect of the present invention causes a computer to execute the steps of acquiring captured image data representing a captured image, detecting the movement of a person included in the captured image, detecting the type of subject included in the captured image, identifying a relative relationship between the person and the subject associated with the person's movement, and estimating the behavior of the person based on a combination of the type of subject and the relative relationship.

本発明の第4の態様に係る行動推定システムは、撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、前記行動推定装置は、前記撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の前記行動内容を推定する推定部と、前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、を有し、前記情報端末は、前記行動内容情報を受信する情報受信部と、前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、を有する。 The behavior estimation system according to the fourth aspect of the present invention includes a behavior estimation device that estimates a person's behavior based on an image generated by an imaging device, and an information terminal that displays the person's behavior estimated by the behavior estimation device. The behavior estimation device includes an image acquisition unit that acquires captured image data showing the captured image, a person detection unit that detects the movement of a person included in the captured image, a subject detection unit that detects the type of subject included in the captured image, a relationship identification unit that identifies a relative relationship between the person and the subject associated with the movement of the person, an estimation unit that estimates the behavior of the person based on a combination of the type of subject and the relative relationship, and a transmission unit that transmits behavior content information indicating the behavior estimated by the estimation unit to the information terminal. The information terminal includes an information receiving unit that receives the behavior content information, and a display unit that displays the behavior based on the behavior content information received by the information receiving unit.

本発明によれば、人の行動を推定する精度を向上させるという効果を奏する。 The present invention has the effect of improving the accuracy of estimating human behavior.

本実施形態に係る行動推定システムSの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of a behavior inference system S according to an embodiment of the present invention. 行動推定システムSの構成を説明するための図である。FIG. 2 is a diagram for explaining the configuration of a behavior inference system S. 情報端末2の構成を説明するための図である。2 is a diagram for explaining a configuration of an information terminal 2. FIG. 行動推定装置10の構成を説明するための図である。FIG. 1 is a diagram for explaining a configuration of a behavior inference device 10. 行動内容データベースの一例を示す図である。FIG. 4 is a diagram illustrating an example of an action content database. 行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。11 is a flowchart showing an example of an operation of the behavior estimation device 10 to estimate the content of a person's behavior. 人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。FIG. 1 is a diagram showing a configuration of a behavior inference device 10 that infers human behavior content based on a change in color of a person or a subject.

[行動推定システムSの概要]
図1は、本実施形態に係る行動推定システムSの概要を説明するための図である。図2は、行動推定システムSの構成を示す図である。行動推定システムSは、撮像装置1と、情報端末2と、行動推定装置10と、を備える。図2に示すように、撮像装置1と情報端末2と行動推定装置10とは、ネットワークNを介して接続されている。ネットワークNは、例えばイントラネット又はインターネットである。ネットワークNは、無線ネットワークを含んでもよい。
[Outline of behavior estimation system S]
Fig. 1 is a diagram for explaining an overview of a behavior estimation system S according to this embodiment. Fig. 2 is a diagram showing the configuration of the behavior estimation system S. The behavior estimation system S includes an imaging device 1, an information terminal 2, and a behavior estimation device 10. As shown in Fig. 2, the imaging device 1, the information terminal 2, and the behavior estimation device 10 are connected via a network N. The network N is, for example, an intranet or the Internet. The network N may include a wireless network.

図1(a)は、空間Rを上から見た図であり、図1(b)は、空間Rを横から見た図である。空間Rは、例えば店舗の売場、店舗の倉庫、工場の倉庫、又は施設の備品置き場のように物体が置かれた空間である。図1に示すように、空間Rには複数の棚T(T1~T4)が設置されている。図1(b)に示すように、複数の棚T(T1~T3)には、複数の物体P(P1~P3)がそれぞれ置かれている。図1に示すように、空間Rには、人Mが滞在している。人Mは、物体Pを入れることが可能なバッグBを所持している。 Figure 1(a) is a diagram of space R seen from above, and Figure 1(b) is a diagram of space R seen from the side. Space R is a space in which objects are placed, such as a store sales floor, a store warehouse, a factory warehouse, or a facility equipment storage area. As shown in Figure 1, multiple shelves T (T1 to T4) are installed in space R. As shown in Figure 1(b), multiple objects P (P1 to P3) are placed on each of the multiple shelves T (T1 to T3). As shown in Figure 1, a person M is staying in space R. Person M is carrying a bag B that can hold object P.

図1においては、行動推定システムSは、空間Rに設置された一以上の撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定する行動推定装置10を備える。撮像装置1は、例えば監視カメラであり、人の行動内容を推定する領域を撮像する。撮像装置1は、撮像して生成した撮像画像データを行動推定装置10に送信する。撮像装置1は、撮像画像データとして動画像データを生成してもよい。動画像データは、例えばH.264又はH.265等の圧縮規格により符号化されたデータである。 In FIG. 1, the behavior estimation system S includes a behavior estimation device 10 that estimates the behavior of a person M based on captured images generated by one or more imaging devices 1 installed in a space R. The imaging device 1 is, for example, a surveillance camera, and captures an area in which the behavior of the person is to be estimated. The imaging device 1 transmits captured image data generated by capturing the image to the behavior estimation device 10. The imaging device 1 may generate video data as the captured image data. The video data is data encoded using a compression standard such as H.264 or H.265.

行動推定装置10は、撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定し、推定した行動内容を示す行動内容情報を情報端末2に送信する。行動推定装置10は、撮像画像に含まれる人Mと被写体との相対関係に基づいて人Mの行動内容を推定する情報処理装置であり、例えばコンピュータである。被写体は、例えば複数の棚T、複数の物体P、バッグB又は他の人である。行動推定装置10は、単一の情報処理装置でもよいし、例えばクラウド型サーバのように複数の情報処理装置で構成されてもよい。 The behavior estimation device 10 estimates the behavior of person M based on the captured image generated by the imaging device 1, and transmits behavior content information indicating the estimated behavior to the information terminal 2. The behavior estimation device 10 is an information processing device, such as a computer, that estimates the behavior of person M based on the relative relationship between person M and a subject included in the captured image. The subject is, for example, multiple shelves T, multiple objects P, a bag B, or another person. The behavior estimation device 10 may be a single information processing device, or may be composed of multiple information processing devices, such as a cloud-type server.

行動推定装置10は、人Mと被写体との関係である相対関係を特定し、特定した相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定する。相対関係は、例えば人Mと物体Pとの距離、人Mの目線の方向と物体Pの位置との関係、又は人Mの身体の向きと物体Pの位置との関係である。被写体の種別は、例えば缶飲料、ナイフ、商品カゴのように、形状又は色の少なくともいずれかに基づいて被写体を特定できる情報により表される。本実施形態においては、説明を簡単にするために、被写体の種別を商品名で表す場合がある。なお、被写体は、物体又は人である。 The behavior estimation device 10 identifies a relative relationship between person M and a subject, and estimates the behavior of person M based on a combination of the identified relative relationship and the type of subject. The relative relationship is, for example, the distance between person M and object P, the relationship between the direction of person M's line of sight and the position of object P, or the relationship between the orientation of person M's body and the position of object P. The type of subject is represented by information that can identify the subject based on at least one of its shape or color, such as a canned drink, a knife, or a shopping basket. In this embodiment, for ease of explanation, the type of subject may be represented by a product name. The subject is an object or a person.

人Mが物体P2を手に取った後に物体P2をバッグBに入れた場合、行動推定装置10は、人Mの手と被写体との距離に基づいて「物体P2と接触している人Mの手がバッグBと近接している」と相対関係を特定する。続いて、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「ハンドバッグ」である場合、行動推定システムSは、特定した相対関係と、被写体の種別である缶飲料及びハンドバッグとの組み合わせに基づいて「人Mが缶飲料をハンドバッグに入れた」と特定することにより、人Mの行動内容が万引きであると推定する。 When person M picks up object P2 and then puts object P2 into bag B, the behavior estimation device 10 determines the relative relationship as "person M's hand, which is in contact with object P2, is in close proximity to bag B" based on the distance between person M's hand and the subject. Next, when the type of detected object P2 is a "canned drink" and the type of detected bag B is a "handbag," the behavior estimation system S determines that "person M put the canned drink into the handbag" based on the combination of the determined relative relationship and the subject types of canned drink and handbag, thereby inferring that person M's behavior is shoplifting.

一方、特定した相対関係が同じであっても、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「商品カゴ」である場合、行動推定装置10は、相対関係と、被写体の種別である缶飲料及び商品カゴとの組み合わせに基づいて「人Mが缶飲料を商品カゴに入れた」と特定することにより、人Mの行動内容が買い物であると推定する。 On the other hand, even if the identified relative relationship is the same, if the type of the detected object P2 is a "canned drink" and the type of the detected bag B is a "shopping basket," the behavior estimation device 10 will infer that the behavior of person M is shopping by identifying that "person M put a canned drink into the shopping basket" based on the combination of the relative relationship and the subject types of canned drink and shopping basket.

行動推定装置10は、推定した結果を情報端末2に送信する。情報端末2は、例えばスマートフォン、タブレット又はパーソナルコンピュータである。情報端末2は、例えば店舗の売場を監視する店員又は工場の倉庫を管理する社員(以下、「管理者」という)が使用する端末である。 The behavior estimation device 10 transmits the estimation result to the information terminal 2. The information terminal 2 is, for example, a smartphone, a tablet, or a personal computer. The information terminal 2 is, for example, a terminal used by a sales clerk who monitors a sales floor in a store or an employee who manages a warehouse in a factory (hereinafter referred to as the "manager").

情報端末2は、行動推定装置10が推定した人の行動内容をディスプレイに表示する。情報端末2は、例えば行動推定装置10が推定した人の行動内容と当該人が写っている撮像画像とを含む行動内容情報を取得し、行動内容情報に含まれる撮像画像と当該撮像画像に含まれる人の行動内容とを関連付けて表示してもよい。 The information terminal 2 displays on a display the behavioral content of the person estimated by the behavior estimation device 10. The information terminal 2 may, for example, acquire behavioral content information including the behavioral content of the person estimated by the behavior estimation device 10 and a captured image in which the person appears, and display the captured image included in the behavioral content information in association with the behavioral content of the person included in the captured image.

このように、行動推定装置10は、人Mと被写体との相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定することで、動きが類似する行動を高い精度で判別することができる。そして、行動推定装置10は、予め設定された行動(例えば万引き行為)を検出したことを情報端末2に通知することで、情報端末2を使用する管理者が、予め設定された行動が行われたことを高い精度で把握することができる。 In this way, the behavior estimation device 10 can accurately distinguish behaviors with similar movements by estimating the behavioral content of person M based on a combination of the relative relationship between person M and the subject and the type of subject. Then, the behavior estimation device 10 notifies the information terminal 2 that a preset behavior (e.g., shoplifting) has been detected, allowing the administrator using the information terminal 2 to accurately grasp that a preset behavior has been performed.

なお、情報端末2の管理者は、行動推定装置10が人の行動内容を推定するために使用する各種の情報を設定することができる。情報端末2は、管理者の操作に応じて、人の行動内容を推定するために用いる情報である設定情報を行動推定装置10に送信する。 The administrator of the information terminal 2 can set various pieces of information that the behavior estimation device 10 uses to estimate the behavior of a person. In response to the administrator's operation, the information terminal 2 transmits setting information, which is information used to estimate the behavior of a person, to the behavior estimation device 10.

設定情報は、例えば被写体の属性情報又は被写体の種別情報のうち少なくとも1つを含む。被写体の属性情報は、被写体の位置又は形状と被写体の属性とが関連付けられた情報である。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、図1に示す棚T1の属性情報は、棚T1の位置又は形状と棚T1の属性を示す「店舗」とが関連付けられた情報である。 The setting information includes, for example, at least one of subject attribute information or subject type information. Subject attribute information is information that associates the subject's position or shape with the subject's attributes. The subject's attributes are information that indicates the subject's characteristics, such as the subject's owner or the subject's function. For example, the attribute information of shelf T1 shown in FIG. 1 is information that associates the shelf's position or shape with "store", which indicates the attribute of shelf T1.

被写体の種別情報は、被写体の形状と被写体の種別とが関連付けられた情報である。例えば被写体が缶飲料の場合、被写体の種別情報は、被写体の種別を示す「缶飲料」と当該缶飲料の形状とが関連付けられた情報である。 The subject type information is information that associates the shape of the subject with the type of the subject. For example, if the subject is a canned drink, the subject type information is information that associates "canned drink," which indicates the type of the subject, with the shape of the canned drink.

[情報端末2の構成]
図3は、情報端末2の構成を説明するための図である。情報端末2は、通信部21と、記憶部22と、制御部23と、表示部24と、操作部25と、を有する。制御部23は、情報送信部231と、情報受信部232とを有する。
[Configuration of information terminal 2]
3 is a diagram for explaining the configuration of the information terminal 2. The information terminal 2 has a communication unit 21, a storage unit 22, a control unit 23, a display unit 24, and an operation unit 25. The control unit 23 has an information transmission unit 231 and an information reception unit 232.

通信部21は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLAN(Local Area Network)コントローラ又は無線LANコントローラである。 The communication unit 21 includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN (Local Area Network) controller or a wireless LAN controller.

記憶部22は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部22は、制御部23が実行するプログラムを記憶している。 The storage unit 22 has storage media such as a read only memory (ROM), a random access memory (RAM), and a solid state drive (SSD). The storage unit 22 stores the programs executed by the control unit 23.

制御部23は、例えばCPU(Central Processing Unit)である。制御部23は、記憶部22に記憶されているプログラムを実行することにより、情報送信部231及び情報受信部232として機能する。情報送信部231は、情報端末2を使用する管理者が作成した行動推定装置10の設定情報を、通信部21を介して行動推定装置10に送信する。情報受信部232は、行動推定装置10が送信した行動内容情報を、通信部21を介して受信する。 The control unit 23 is, for example, a CPU (Central Processing Unit). The control unit 23 functions as an information transmission unit 231 and an information reception unit 232 by executing a program stored in the storage unit 22. The information transmission unit 231 transmits setting information of the behavior estimation device 10 created by an administrator who uses the information terminal 2 to the behavior estimation device 10 via the communication unit 21. The information reception unit 232 receives behavior content information transmitted by the behavior estimation device 10 via the communication unit 21.

表示部24は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)等の表示デバイスを有する。表示部24は、情報受信部232が受信した行動内容情報に基づいて行動内容を表示する。表示部24は、例えば、情報受信部232が受信した行動内容情報に含まれる人の行動内容と当該人が写っている撮像画像とを抽出する。表示部24は、抽出した撮像画像をディスプレイに表示するとともに、当該撮像画像に写っている人の行動内容を当該撮像画像と関連付けて表示する。 The display unit 24 has a display device such as a liquid crystal display or an organic EL (Electro Luminescence). The display unit 24 displays the activity content based on the activity content information received by the information receiving unit 232. The display unit 24 extracts, for example, the activity content of a person included in the activity content information received by the information receiving unit 232 and a captured image in which the person appears. The display unit 24 displays the extracted captured image on the display and also displays the activity content of the person appearing in the captured image in association with the captured image.

操作部25は、情報端末2を使用する管理者の操作を受け付けるデバイスであり、キーボード、マウス又はタッチパネルである。操作部25は、管理者の操作内容を示す情報を情報送信部231に通知する。 The operation unit 25 is a device that accepts operations by the administrator who uses the information terminal 2, and is a keyboard, mouse, or touch panel. The operation unit 25 notifies the information transmission unit 231 of information indicating the content of the administrator's operations.

[行動推定装置10の構成]
図4は、行動推定装置10の構成を説明するための図である。行動推定装置10は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、画像取得部131と、人検出部132と、被写体検出部133と、設定受付部134と、関係特定部135と、推定部136と、場所特定部137と、出力部138とを有する。
[Configuration of behavior inference device 10]
4 is a diagram for explaining the configuration of the behavior inference device 10. The behavior inference device 10 has a communication unit 11, a storage unit 12, and a control unit 13. The control unit 13 has an image acquisition unit 131, a person detection unit 132, a subject detection unit 133, a setting reception unit 134, a relationship identification unit 135, an estimation unit 136, a location identification unit 137, and an output unit 138.

通信部11は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラ又は無線LANコントローラである。記憶部12は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。記憶部12は、情報端末2から取得した設定情報を記憶する。 The communication unit 11 includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN controller or a wireless LAN controller. The storage unit 12 has storage media such as ROM, RAM, and SSD. The storage unit 12 stores a program executed by the control unit 13. The storage unit 12 stores setting information acquired from the information terminal 2.

記憶部12は、推定部136が人の行動内容を推定するために用いられる各種の情報をデータベースに記憶している。記憶部12は、例えば、人の行動内容と、人の動きと、被写体の種別と、人と被写体との相対関係とが関連付けられた行動内容データベースを記憶している。被写体は、物体又は人である。 The memory unit 12 stores various information in a database that is used by the estimation unit 136 to estimate the content of a person's activity. The memory unit 12 stores, for example, an activity content database in which the content of a person's activity, the movement of the person, the type of subject, and the relative relationship between the person and the subject are associated with each other. The subject is an object or a person.

図5は、行動内容データベースの一例を示す図である。図5においては、人の行動内容のカテゴリと、行動内容と、行動内容を特定するための複数の要件とが関連付けられている。複数の要件は、行動を推定する人の属性、人の動き、複数の被写体の種別(図5に示す「被写体1」「被写体2」)、及び人と被写体との相対関係である。人の属性は、例えば購買客又は従業員のように、人の行動を推定する空間における人の立場又は役割等を示す。 Figure 5 is a diagram showing an example of an activity content database. In Figure 5, categories of human activity content, activity content, and multiple requirements for identifying the activity content are associated with each other. The multiple requirements are the attributes of the person whose activity is to be estimated, the movement of the person, multiple types of subjects ("Subject 1" and "Subject 2" shown in Figure 5), and the relative relationship between the person and the subjects. The attributes of a person indicate the position or role of a person in the space in which the human activity is to be estimated, such as a shopper or an employee.

例えば、行動内容「眺める」は、人の属性が「購買客」、人の動きが「注視する」、被写体1が「商品」、相対関係が「人と被写体1との距離は距離A1未満」及び「人の目線と被写体1との方向差は方向差A2未満」という要件に関連付けられている。距離A1は、例えば人が被写体と接触することが可能と考えられる距離の最大値である。方向差A2は、例えば人が被写体を注視していると考えられる目線の方向のうち最も被写体から離れている方向である。詳細については後述するが、推定部136は、行動内容データベースに含まれている要件の組み合わせに対応する行動内容を特定することにより、撮像画像に含まれている被写体の行動内容を特定する。 For example, the activity content "looking" is associated with the requirements that the person's attribute is "shopper", the person's movement is "gazing", the subject 1 is "product", and the relative relationship is "the distance between the person and subject 1 is less than distance A1" and "the directional difference between the person's line of sight and subject 1 is less than directional difference A2". Distance A1 is, for example, the maximum distance at which a person can come into contact with the subject. Direction difference A2 is, for example, the direction of the person's line of sight that is thought to be gazing at the subject, which is the farthest from the subject. Details will be described later, but the estimation unit 136 identifies the activity content of the subject included in the captured image by identifying the activity content that corresponds to the combination of requirements included in the activity content database.

図4に戻って、制御部13は、例えばCPUである。制御部13は、記憶部12に記憶されているプログラムを実行することにより、画像取得部131、人検出部132、被写体検出部133、設定受付部134、関係特定部135、推定部136、場所特定部137及び出力部138として機能する。 Returning to FIG. 4, the control unit 13 is, for example, a CPU. The control unit 13 executes the programs stored in the memory unit 12 to function as an image acquisition unit 131, a person detection unit 132, a subject detection unit 133, a setting reception unit 134, a relationship identification unit 135, an estimation unit 136, a location identification unit 137, and an output unit 138.

画像取得部131は、撮像画像を示す撮像画像データを取得する。画像取得部131は、撮像装置1が撮像して生成した撮像画像データを、通信部11を介して取得する。画像取得部131は、時系列に作成された複数の撮像画像データを取得してもよい。 The image acquisition unit 131 acquires captured image data indicating a captured image. The image acquisition unit 131 acquires captured image data generated by the imaging device 1 via the communication unit 11. The image acquisition unit 131 may acquire multiple captured image data created in chronological order.

人検出部132は、撮像画像に含まれる人の動きを検出する。人の動きは、例えば図5に示す「人の動き」の欄に記載されたような動きである。人検出部132は、撮像画像に含まれる人の位置を検出し、位置を検出した人の動きをさらに検出する。人検出部132は、例えば撮像画像に含まれる人の関節の位置及び人の目線の向きの変化を特定することにより、撮像画像に含まれる人の動きを検出する。人検出部132は、検出した人の動きを示す人検出情報を推定部136に出力する。 The person detection unit 132 detects the movement of a person included in the captured image. The movement of the person is, for example, the movement as described in the "Personal Movement" column shown in FIG. 5. The person detection unit 132 detects the position of a person included in the captured image, and further detects the movement of the person whose position has been detected. The person detection unit 132 detects the movement of a person included in the captured image, for example, by identifying the positions of the joints of the person included in the captured image and changes in the direction of the person's line of sight. The person detection unit 132 outputs person detection information indicating the detected movement of the person to the estimation unit 136.

人検出部132は、人の属性をさらに検出してもよい。人検出部132は、例えば従業員が着用している作業服又は制服の模様又は色に基づいて従業員であるか否かを判定することにより人の属性を検出する。人検出部132は、記憶部12に記憶されている従業員の顔の輪郭及び形状等の従業員の特徴と、撮像画像に含まれる人の特徴とを比較した結果に基づいて従業員であるか否かを判定することにより人の属性を検出してもよい。 The person detection unit 132 may further detect attributes of a person. For example, the person detection unit 132 detects attributes of a person by determining whether or not the person is an employee based on the pattern or color of the work clothes or uniform worn by the employee. The person detection unit 132 may detect attributes of a person by determining whether or not the person is an employee based on the results of comparing the features of the employee, such as the contour and shape of the employee's face, stored in the memory unit 12 with the features of the person included in the captured image.

被写体検出部133は、撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、撮像画像に含まれる被写体の位置を検出し、位置を検出した被写体の種別をさらに検出する。被写体検出部133は、例えば記憶部12に記憶されている設定情報に含まれている被写体の形状に基づいて撮像画像に含まれる被写体を検出し、被写体の形状に関連付けられた被写体の種別に基づいて撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、検出した被写体の位置と当該被写体の種別とを示す被写体検出情報を推定部136に出力する。 The subject detection unit 133 detects the type of subject included in the captured image. The subject detection unit 133 detects the position of the subject included in the captured image, and further detects the type of the subject whose position has been detected. The subject detection unit 133 detects the subject included in the captured image based on the shape of the subject included in the setting information stored in the storage unit 12, for example, and detects the type of subject included in the captured image based on the type of subject associated with the shape of the subject. The subject detection unit 133 outputs subject detection information indicating the position of the detected subject and the type of the subject to the estimation unit 136.

被写体検出部133は、撮像画像に含まれる複数の被写体を検出してもよい。被写体検出部133は、撮像画像に含まれる第1被写体及び第2被写体を検出してもよい。第1被写体及び第2被写体は、例えば、図5に示す「被写体1」及び「被写体2」の欄に記載された種別の物品である。被写体検出部133が複数の被写体を検出した場合、推定部136は、検出した複数の被写体のうち一以上の被写体の種別に基づいて人の行動内容を推定する。 The subject detection unit 133 may detect multiple subjects included in the captured image. The subject detection unit 133 may detect a first subject and a second subject included in the captured image. The first subject and the second subject are, for example, items of the types listed in the "Subject 1" and "Subject 2" columns shown in FIG. 5. When the subject detection unit 133 detects multiple subjects, the estimation unit 136 estimates the behavior of a person based on the type of one or more of the detected subjects.

設定受付部134は、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、例えば、情報端末2が送信した被写体の属性情報と被写体の種別情報とを含む設定情報を受信することで、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、受け付けた被写体の属性の設定を含む設定情報を記憶部12に記憶させてもよいし、被写体検出部133に出力してもよい。 The setting reception unit 134 receives settings for the attributes of the subject included in the captured image. The setting reception unit 134 receives setting information including subject attribute information and subject type information transmitted by the information terminal 2, for example, to receive settings for the attributes of the subject included in the captured image. The setting reception unit 134 may store the setting information including the received settings for the subject attributes in the storage unit 12, or may output the setting information to the subject detection unit 133.

関係特定部135は、人の動きに伴う人と被写体との関係である相対関係を特定する。関係特定部135は、人検出部132が出力した人検出情報と被写体検出部133が出力した被写体検出情報とに基づいて相対関係を特定する。関係特定部135は、例えば、人検出部132が検出した人の動きに対応する部位と被写体との相対関係を特定する。関係特定部135は、例えば人検出部132が検出した人の動きが「注視する」である場合、人の目と被写体との関係を特定し、「取る」である場合、人の手と被写体との関係を特定する。関係特定部135は、特定した相対関係を推定部136に通知する。相対関係は、推定部136が人の行動内容を特定するために用いられる。関係特定部135は、例えば、人と被写体との距離を相対関係として特定する。関係特定部135は、例えば人検出情報に含まれる人の関節の位置と被写体検出情報に含まれる被写体の位置との差に基づいて人と被写体との距離を特定する。 The relationship specification unit 135 specifies a relative relationship, which is a relationship between a person and a subject associated with the person's movement. The relationship specification unit 135 specifies the relative relationship based on the person detection information output by the person detection unit 132 and the subject detection information output by the subject detection unit 133. For example, the relationship specification unit 135 specifies the relative relationship between a part corresponding to the person's movement detected by the person detection unit 132 and the subject. For example, if the person's movement detected by the person detection unit 132 is "gazing", the relationship specification unit 135 specifies the relationship between the person's eyes and the subject, and if the person's movement is "taking", the relationship specification unit 135 specifies the relationship between the person's hands and the subject. The relationship specification unit 135 notifies the estimation unit 136 of the specified relative relationship. The relative relationship is used by the estimation unit 136 to specify the content of the person's action. For example, the relationship specification unit 135 specifies the distance between the person and the subject as the relative relationship. For example, the relationship specification unit 135 specifies the distance between the person and the subject based on the difference between the position of the person's joints included in the person detection information and the position of the subject included in the subject detection information.

関係特定部135は、人の目線の方向と被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「注視する」又は「見る」等の人の目の動きである場合、人検出情報に含まれる人の目線の方向と被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体を直視した場合の目線の方向と人検出情報に含まれる目線の方向との差を相対関係として特定する。 The relationship identifying unit 135 may identify the relationship between the direction of a person's gaze and the position of a subject as a relative relationship. For example, when a person's movement is a person's eye movement such as "gazing" or "looking," the relationship identifying unit 135 identifies the relationship between the direction of the person's gaze included in the person detection information and the position of the subject included in the subject detection information as a relative relationship. For example, the relationship identifying unit 135 identifies the difference between the direction of gaze when a person looks directly at a subject and the direction of gaze included in the person detection information as a relative relationship.

関係特定部135は、人の身体の向きと被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「会話する」である場合、人検出情報に含まれる人の関節の位置に基づいて特定した人の身体の向きと被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体の正面を向いた場合の身体の向きと人の関節の位置に基づいて特定した身体の向きとの差を相対関係として特定する。 The relationship identifying unit 135 may identify the relationship between the orientation of the person's body and the position of the subject as a relative relationship. For example, when the person's movement is "talking", the relationship identifying unit 135 identifies the relationship between the orientation of the person's body identified based on the positions of the person's joints included in the person detection information and the position of the subject included in the subject detection information as a relative relationship. For example, the relationship identifying unit 135 identifies the difference between the orientation of the person's body when facing the subject and the orientation of the body identified based on the positions of the person's joints as a relative relationship.

関係特定部135は、特定した複数の相対関係に基づいて、相対関係の変化を特定してもよい。関係特定部135は、例えば時系列に作成された複数の撮像画像に基づいて検出された人の複数の動きと被写体とに基づいて、複数の相対関係を特定し、特定した複数の相対関係それぞれに基づいて相対関係の変化を特定する。 The relationship identification unit 135 may identify a change in the relative relationship based on the identified multiple relative relationships. The relationship identification unit 135 identifies multiple relative relationships based on multiple movements of a person and a subject detected based on multiple captured images created in time series, for example, and identifies a change in the relative relationship based on each of the identified multiple relative relationships.

例えば、時刻Tにおいて、関係特定部135が相対関係を「人と被写体との距離は10cm」と特定し、時刻T+1において、関係特定部135が相対関係を「人と被写体との距離は50cm」と特定した場合、時刻T及び時刻T+1に特定した相対関係に基づいて、関係特定部135は「人が被写体から遠ざかる方向に移動している」と特定する。このように、相対関係の変化を特定することで、関係特定部135は、精度の高い相対関係を特定できる。 For example, if at time T the relationship identification unit 135 identifies the relative relationship as "the distance between the person and the subject is 10 cm," and at time T+1 the relationship identification unit 135 identifies the relative relationship as "the distance between the person and the subject is 50 cm," then based on the relative relationship identified at time T and time T+1, the relationship identification unit 135 identifies that "the person is moving in a direction away from the subject." By identifying the change in the relative relationship in this way, the relationship identification unit 135 can identify the relative relationship with high accuracy.

関係特定部135は、行動を推定する人と複数の被写体とが撮像画像に含まれている場合、複数の相対関係を特定してもよい。関係特定部135は、例えば人の動きに伴う人と第1被写体との関係である第1相対関係、人の動きに伴う人と第2被写体との関係である第2相対関係、及び人の動きに伴う第1被写体と第2被写体との関係である第3相対関係を特定してもよい。第1相対関係は、例えば人と図5に示す被写体1との相対関係であり、第2相対関係は、人と図5に示す被写体2との相対関係であり、第3相対関係は、被写体1と被写体2との相対関係である。 The relationship identification unit 135 may identify multiple relative relationships when the person whose behavior is to be estimated and multiple subjects are included in the captured image. The relationship identification unit 135 may identify, for example, a first relative relationship that is a relationship between the person and a first subject associated with the movement of the person, a second relative relationship that is a relationship between the person and a second subject associated with the movement of the person, and a third relative relationship that is a relationship between the first subject and the second subject associated with the movement of the person. The first relative relationship is, for example, a relative relationship between the person and subject 1 shown in FIG. 5, the second relative relationship is a relative relationship between the person and subject 2 shown in FIG. 5, and the third relative relationship is a relative relationship between subject 1 and subject 2.

例えば店舗の売場に滞在する購買客が商品をバッグの中に入れた場合、行動を推定する人である購買客は、第1被写体である商品と第2被写体であるバッグとを用いて行動している。そこで、関係特定部135は、購買客と商品との関係である第1相対関係、購買客とバッグとの関係である第2相対関係、及び商品とバッグとの関係である第3相対関係を特定する。関係特定部135がこのような複数の相対関係を推定部136に通知することで、推定部136は、人の行動内容の特定精度を向上させることができる。 For example, if a customer staying in a sales floor of a store puts a product in a bag, the customer, who is the person estimating the behavior, is acting using the product, which is the first subject, and the bag, which is the second subject. Therefore, the relationship identification unit 135 identifies a first relative relationship, which is the relationship between the customer and the product, a second relative relationship, which is the relationship between the customer and the bag, and a third relative relationship, which is the relationship between the product and the bag. By the relationship identification unit 135 notifying the estimation unit 136 of multiple such relative relationships, the estimation unit 136 can improve the accuracy of identifying the content of a person's behavior.

関係特定部135は、撮像画像に含まれている複数の被写体のうち、属性が設定されている被写体と他の被写体との位置関係を特定してもよい。関係特定部135は、例えば被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係をさらに特定する。 The relationship identification unit 135 may identify the positional relationship between a subject for which an attribute is set and other subjects among multiple subjects included in the captured image. For example, the relationship identification unit 135 further identifies the positional relationship between a subject detected by the subject detection unit 133 and a subject for which the setting reception unit 134 has received an attribute setting.

例えば店舗の売場を撮像した撮像画像は、固定的に設置された商品棚の画像と商品棚に置かれた商品の画像とを含んでいる。万引きを検出するという目的の場合、商品棚の位置と商品の位置との関係が、人が万引きしていると推定する際に有効である。そこで、関係特定部135は、被写体検出部133が検出した被写体である商品の位置と設定受付部134が属性の設定を受け付けた被写体である商品棚の位置との距離の変化を特定する。 For example, an image captured of a sales floor in a store includes images of fixedly installed product shelves and images of products placed on the product shelves. When the purpose is to detect shoplifting, the relationship between the position of the product shelves and the position of the products is effective in inferring that a person is shoplifting. Thus, the relationship identification unit 135 identifies the change in distance between the position of the product, which is the subject detected by the subject detection unit 133, and the position of the product shelf, which is the subject for which the attribute settings have been accepted by the setting acceptance unit 134.

推定部136は、人の行動内容を推定する。推定部136は、被写体の種別と、相対関係との組み合わせに基づいて、人の行動内容を推定する。推定部136は、例えば被写体の種別と相対関係との組み合わせが、記憶部12が記憶している行動内容データベースに含まれているか否かを検索する。推定部136は、行動内容データベースに類似又は一致する組み合わせが含まれている場合、類似又は一致する組み合わせに関連付けられた行動内容を、人の行動内容と推定する。 The estimation unit 136 estimates the activity content of a person. The estimation unit 136 estimates the activity content of a person based on a combination of the type of subject and the relative relationship. The estimation unit 136 searches, for example, whether or not a combination of the type of subject and the relative relationship is included in the activity content database stored in the memory unit 12. If the activity content database includes a similar or matching combination, the estimation unit 136 estimates that the activity content associated with the similar or matching combination is the activity content of a person.

例えば店舗の売場に滞在する人が商品を入れ物に入れた場合、被写体検出部133は、第1被写体である商品と第2被写体である入れ物とを検出する。関係特定部135は、人の手と第1被写体との距離、及び第1被写体と第2被写体との距離に基づいて相対関係を特定する。関係特定部135は、相対関係を「人の手と第1被写体との距離、及び第1被写体と第2被写体との距離のそれぞれが所定の距離(例えば図5に示す距離D1及び距離D2)未満」であると特定する。 For example, when a person in a store's sales area places a product in a container, the subject detection unit 133 detects the product, which is the first subject, and the container, which is the second subject. The relationship identification unit 135 identifies the relative relationship based on the distance between the person's hand and the first subject, and the distance between the first subject and the second subject. The relationship identification unit 135 identifies the relative relationship as "the distance between the person's hand and the first subject, and the distance between the first subject and the second subject are each less than a predetermined distance (e.g., distance D1 and distance D2 shown in FIG. 5)."

推定部136は、第2被写体の種別が「バッグ」である場合、人の行動内容を万引きと推定し、第2被写体の種別が「商品カゴ」である場合、人の行動内容を買い物と推定する。このように、推定部136は、人の行動が類似する場合であっても、被写体の種別を用いて人の行動内容を推定することで、人の行動を高い精度で推定することができる。 If the type of the second subject is a "bag," the estimation unit 136 estimates the person's behavior as shoplifting, and if the type of the second subject is a "shopping basket," the estimation unit 136 estimates the person's behavior as shopping. In this way, even if the people's behaviors are similar, the estimation unit 136 can estimate the person's behavior with high accuracy by estimating the person's behavior using the type of subject.

さらに、推定部136は、関係特定部135が相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定したことにさらに基づいて、人の行動内容を推定してもよい。このように動作することで、推定部136は、人の行動をさらに高い精度で推定することができる。 Furthermore, the estimation unit 136 may estimate the person's behavior based on the fact that the relationship identification unit 135 has identified the change in the relative relationship as "the distance between the first subject and the second subject becomes shorter." By operating in this manner, the estimation unit 136 can estimate the person's behavior with even higher accuracy.

推定部136は、関係特定部135が人と被写体との距離を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた基準距離と、関係特定部135が特定した人と被写体との距離と、を比較した結果に基づいて行動内容を推定してもよい。基準距離は、例えば人の行動内容の特徴に対応する距離であり、図5に示す「距離A1未満」、「距離B1未満」等である。基準距離は、被写体の種別により異なる距離であってもよい。 When the relationship identification unit 135 identifies the distance between the person and the subject as a relative relationship, the estimation unit 136 may estimate the activity content based on the result of comparing a reference distance associated with the type of subject detected by the subject detection unit 133 with the distance between the person and the subject identified by the relationship identification unit 135. The reference distance is, for example, a distance that corresponds to the characteristics of the person's activity content, such as "less than distance A1" or "less than distance B1" shown in FIG. 5. The reference distance may be a distance that differs depending on the type of subject.

例えば、店舗に滞在する人が被写体である商品を注視している場合において、関係特定部135は、人と被写体との相対関係を「人と被写体との距離は距離Y1」と特定する。その場合、推定部136は、図5に示す基準距離である「距離A1未満」と関係特定部135が特定した距離Y1とを比較する。距離Y1が距離A1未満である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人と被写体1との距離は距離A1未満」と一致するので、人が商品を眺めている可能性があると判定する。 For example, when a person staying in a store is gazing at a product that is the subject, the relationship identification unit 135 identifies the relative relationship between the person and the subject as "the distance between the person and the subject is distance Y1." In this case, the estimation unit 136 compares the distance Y1 identified by the relationship identification unit 135 with the reference distance "less than distance A1" shown in FIG. 5. If the distance Y1 is less than distance A1, the estimation unit 136 determines that there is a possibility that the person is looking at the product, since this matches "the distance between the person and subject 1 is less than distance A1," which is one of the relative relationships associated with the behavior content "looking at a product."

推定部136は、関係特定部135が人の目線の方向と被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。目線の方向と被写体の位置との関係は、人の目線の方向と人が被写体を直視する場合の目線の方向との差により表される。基準目線関係は、行動内容の特徴に対応する方向差であり、例えば図5に示す「方向差A2未満」である。 When the relationship identifying unit 135 identifies the relationship between the direction of the person's gaze and the position of the subject as a relative relationship, the estimation unit 136 may estimate the activity content based on the result of comparing a reference gaze relationship, which is the relationship between the direction of the gaze and the position of the subject associated with the type of subject detected by the subject detection unit 133, with the relationship between the direction of the person's gaze and the position of the subject identified by the relationship identifying unit 135. The relationship between the direction of the gaze and the position of the subject is represented by the difference between the direction of the person's gaze and the direction of the gaze when the person looks directly at the subject. The reference gaze relationship is a directional difference corresponding to the characteristic of the activity content, for example, "less than directional difference A2" as shown in FIG. 5.

例えば、店舗に滞在する人が被写体である商品を眺めている場合において、関係特定部135は、人と被写体との相対関係を「人の目線の方向と被写体の位置との関係は方向差Y2」と特定する。その場合、推定部136は、図5に示す基準目線関係である「方向差A2未満」と関係特定部135が特定した方向差Y2とを比較する。方向差Y2が方向差A2よりも被写体に近い方向である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人の目線と被写体1との方向差は方向差A2未満」と一致するので、人が商品を眺めている可能性があると判定する。 For example, when a person staying in a store is looking at a product that is the subject, the relationship identifying unit 135 identifies the relative relationship between the person and the subject as "the relationship between the direction of the person's gaze and the position of the subject is a directional difference Y2." In this case, the estimation unit 136 compares the directional difference Y2 identified by the relationship identifying unit 135 with the reference gaze relationship shown in FIG. 5, "less than directional difference A2." If the directional difference Y2 is a direction closer to the subject than the directional difference A2, the estimation unit 136 determines that there is a possibility that the person is looking at the product, since this matches one of the relative relationships associated with the behavior "looking at a product," "the directional difference between the person's gaze and subject 1 is less than directional difference A2."

推定部136は、人と被写体との距離、及び人の目線の方向と被写体の位置との方向差の両方が基準を満たしている場合に、人の行動が「商品を眺める」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。 The estimation unit 136 may estimate that the person's behavior is "looking at a product" when both the distance between the person and the subject and the directional difference between the direction of the person's line of sight and the position of the subject meet criteria. The estimation unit 136 estimates the person's behavior based on multiple relative relationships, thereby further improving the accuracy of estimating the behavior.

推定部136は、関係特定部135が人の身体の向きと被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。身体の向きと被写体の位置との関係は、身体の向きと人が被写体の方向を向いた場合の身体の向きとの差により表される。基準身体向き関係は、行動内容の特徴に対応する向きの差であり、例えば図5に示す向き「角度差B2未満」である。 When the relationship identifying unit 135 identifies the relationship between the person's body orientation and the subject's position as a relative relationship, the estimation unit 136 may estimate the activity content based on the result of comparing a reference body orientation relationship, which is the relationship between the body orientation and the subject's position associated with the type of subject detected by the subject detection unit 133, with the relationship between the person's line of sight identified by the relationship identifying unit 135 and the subject's position. The relationship between the body orientation and the subject's position is represented by the difference between the body orientation and the body orientation when the person faces the subject. The reference body orientation relationship is the difference in orientation corresponding to the characteristics of the activity content, and is, for example, the orientation "less than angle difference B2" shown in FIG. 5.

例えば、店舗に滞在する人(購買客)が被写体である従業員と話している場合において、関係特定部135は、人と被写体との相対関係を「人の身体の向きと被写体の位置との関係は角度差X1」と特定する。その場合、推定部136は、図5に示す基準身体向き関係である「角度差B2未満」と関係特定部135が特定した角度差X1とを比較する。角度差X1が角度差B2よりも被写体に近い方向を向いている場合、推定部136は、行動内容である「従業員と話す」に関連付けられた相対関係の1つである「人の身体の向きと被写体1との角度差は角度差B2未満」と一致するので、人が従業員と話している可能性があると判定する。 For example, when a person (a shopper) staying in a store is talking to an employee who is the subject, the relationship identification unit 135 identifies the relative relationship between the person and the subject as "the relationship between the person's body orientation and the subject's position is an angle difference of X1." In this case, the estimation unit 136 compares the angle difference X1 identified by the relationship identification unit 135 with the reference body orientation relationship "less than angle difference B2" shown in FIG. 5. If the angle difference X1 is facing in a direction closer to the subject than the angle difference B2, the estimation unit 136 determines that there is a possibility that the person is talking to an employee, since it matches one of the relative relationships associated with the activity "talking to an employee," "the angle difference between the person's body orientation and subject 1 is less than angle difference B2."

推定部136は、人と被写体との距離、及び人の身体の向きと被写体の位置との角度差の両方が基準を満たしている場合に、人の行動が「従業員と話す」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。 The estimation unit 136 may estimate that the person's behavior is "talking to an employee" if both the distance between the person and the subject and the angle difference between the orientation of the person's body and the position of the subject meet the criteria. The estimation unit 136 estimates the person's behavior content based on multiple relative relationships, thereby further improving the accuracy of estimating the behavior content.

推定部136は、関係特定部135が複数の相対関係を用いて相対関係の変化を特定した場合、被写体の種別と、相対関係の変化との組み合わせに基づいて、人の行動内容を推定してもよい。例えば、店舗に滞在している人が手に取った商品をバッグに入れる場合、関係特定部135は、複数の時刻それぞれにおいて第1被写体である商品と第2被写体であるバッグとの距離を相対関係として特定する。関係特定部135は、相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定する。 When the relationship identification unit 135 identifies a change in the relative relationship using multiple relative relationships, the estimation unit 136 may estimate the person's behavior based on a combination of the type of subject and the change in the relative relationship. For example, when a person staying in a store picks up a product and puts it into a bag, the relationship identification unit 135 identifies the distance between the product, which is the first subject, and the bag, which is the second subject, at each of multiple times as the relative relationship. The relationship identification unit 135 identifies the change in the relative relationship as "the distance between the first subject and the second subject becomes shorter."

推定部136は、関係特定部135が特定した相対関係の変化と被写体の種別である商品及びバッグとの組み合わせに基づいて、人が商品をバッグに入れる動作であると判定し、人の行動内容を「万引き」と推定する。このように、相対関係の変化を用いることで、推定部136は、人の行動内容の推定精度を向上させることができる。 The estimation unit 136 determines that the action of a person putting a product into a bag based on the change in the relative relationship identified by the relationship identification unit 135 and the combination of the subject type, which is a product and a bag, and estimates the person's behavior as "shoplifting." In this way, by using the change in the relative relationship, the estimation unit 136 can improve the accuracy of estimating the person's behavior.

推定部136は、被写体の種別と相対関係の変化との組み合わせに基づいて人の行動内容を推定する場合、複数の撮像画像データのいずれかに、人検出部132が人を検出する前に被写体が含まれていたか否かを判定した結果にさらに基づいて、行動内容を推定してもよい。 When the estimation unit 136 estimates the behavior of a person based on a combination of the type of subject and a change in the relative relationship, the estimation unit 136 may estimate the behavior based on the result of determining whether or not the subject was included in any of the multiple captured image data before the person was detected by the person detection unit 132.

例えば、店舗の売場に滞在している人が棚に置かれた物体を取った場合、物体の種別が商品であるか否かを判別する必要がある。この場合、推定部136は、例えば店舗が開店する前の時刻に作成された撮像画像データが示す撮像画像に写った物体と、人検出部132が棚に置かれた物体を取った人を検出した時刻に作成された撮像画像データが示す撮像画像に写った物体とが一致するか否かを判定する。一致すると判定した場合、推定部136は、物体の種別が商品であると特定する。推定部136は、人が物体をバッグに入れ、かつ物体が商品であるという場合に、人の行動内容が「万引き」であると推定する。 For example, if a person in a store's sales floor picks up an object placed on a shelf, it is necessary to determine whether the type of object is a product. In this case, the estimation unit 136 determines whether an object shown in an image shown by captured image data created, for example, before the store opens matches an object shown in an image shown by captured image data created at the time when the person detection unit 132 detected a person who picked up an object placed on a shelf. If it is determined that there is a match, the estimation unit 136 identifies the type of object as a product. If the person puts an object in a bag and the object is a product, the estimation unit 136 estimates that the person's behavior is "shoplifting."

このように推定部136が動作することで、例えば来店した購買客が店舗の棚に私物を置き忘れて移動し、一定の時間が経過した後に置き忘れた私物を取りに戻った場合、推定部136は、開店前の撮像画像に基づいて購買客が棚から取った私物と商品とを区別することができる。その結果、推定部136は、万引きではない行動の内容を誤って「万引き」と推定することを抑制できる。 By operating the estimation unit 136 in this manner, for example, if a customer who comes to a store leaves a personal item on a shelf in the store and moves away, and then returns to retrieve the personal item after a certain amount of time has passed, the estimation unit 136 can distinguish between the personal item that the customer took from the shelf and the product based on the image captured before the store opens. As a result, the estimation unit 136 can be prevented from erroneously estimating that a behavior that is not shoplifting is "shoplifting."

推定部136は、撮像画像に基づいて関係特定部135が複数の相対関係を特定した場合、複数の相対関係それぞれと被写体の種別との組み合わせに基づいて、人の行動内容を推定してもよい。 When the relationship identification unit 135 identifies multiple relative relationships based on the captured image, the estimation unit 136 may estimate the content of a person's behavior based on a combination of each of the multiple relative relationships and the type of subject.

例えば、店舗の売場に滞在している人が棚に置かれた商品をバッグに入れた場合、関係特定部135は、第1相対関係の一例である人と棚との距離、及び第2相対関係の一例である人と商品との距離を特定する。推定部136は、第1相対関係が示す距離と第2相対関係が示す距離とが、それぞれ基準距離未満である場合、第1相対関係と第2相対関係と被写体の種別である商品及びバッグとの組み合わせに基づいて人の行動内容を万引きと推定する。 For example, if a person in a store's sales floor puts a product placed on a shelf into a bag, the relationship identification unit 135 identifies the distance between the person and the shelf, which is an example of a first relative relationship, and the distance between the person and the product, which is an example of a second relative relationship. If the distance indicated by the first relative relationship and the distance indicated by the second relative relationship are each less than a reference distance, the estimation unit 136 estimates that the person's behavior is shoplifting based on the combination of the first relative relationship, the second relative relationship, and the types of subjects, which are the product and the bag.

さらに、関係特定部135が複数の時刻に特定した複数の第2相対関係に基づいて、第2相対関係の変化を特定した場合、推定部136は、第1相対関係と第2相対関係の変化と被写体の種別との組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば第1相対関係である「人と棚との距離が基準距離未満」と第2相対関係の変化である「人と商品との距離が短くなる」と被写体の種別である棚及び商品との組み合わせに基づいて人の行動内容を万引きと推定してもよい。 Furthermore, when the relationship identification unit 135 identifies a change in the second relative relationship based on multiple second relative relationships identified at multiple times, the estimation unit 136 may estimate the person's behavior based on a combination of the change in the first relative relationship and the second relative relationship, and the type of subject. For example, the estimation unit 136 may estimate the person's behavior as shoplifting based on a combination of the first relative relationship, "the distance between the person and the shelf is less than a reference distance," the change in the second relative relationship, "the distance between the person and the product becomes shorter," and the types of subjects, which are the shelf and the product.

推定部136は、関係特定部135が人と複数の被写体とに基づいて複数の相対関係を特定した場合、複数の相対関係の組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば被写体の種別と、第1相対関係、第2相対関係又は第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、人の行動内容を推定してもよい。 When the relationship identification unit 135 identifies multiple relative relationships based on a person and multiple subjects, the estimation unit 136 may estimate the behavior of the person based on a combination of the multiple relative relationships. For example, the estimation unit 136 may estimate the behavior of the person based on a combination of the type of subject and at least two relative relationships, the first relative relationship, the second relative relationship, or the third relative relationship.

例えば、店舗の売場で人が商品をバッグに入れた場合、被写体検出部133は、商品とバッグとを被写体として検出する。関係特定部135は、人と商品との関係を第1相対関係として特定し、人とバッグとの関係を第2相対関係として特定し、商品とバッグとの関係を第3相対関係として特定する。推定部136は、被写体の種別がバッグ及び商品であることと、人の手とバッグとが距離D1未満であることと、バッグと商品とが距離D2未満であることとに基づいて、人の行動内容を「万引き」と推定する。 For example, when a person puts an item into a bag on the sales floor of a store, the subject detection unit 133 detects the item and the bag as the subject. The relationship identification unit 135 identifies the relationship between the person and the item as a first relative relationship, the relationship between the person and the bag as a second relative relationship, and the relationship between the item and the bag as a third relative relationship. The estimation unit 136 estimates the person's behavior as "shoplifting" based on the fact that the type of subject is a bag and item, that the distance between the person's hand and the bag is less than D1, and that the distance between the bag and the item is less than D2.

なお、ここでは、推定部136が第2相対関係及び第3相対関係を用いて人の行動内容を「万引き」と推定する場合を例示したが、推定部136は、第1相対関係である「人が商品を把持している」をさらに用いて人の行動内容を推定してもよい。 Note that, although an example has been given here in which the estimation unit 136 estimates the person's behavior as "shoplifting" using the second relative relationship and the third relative relationship, the estimation unit 136 may also estimate the person's behavior by further using the first relative relationship, "a person is holding a product."

推定部136は、人検出部132が検出した人の属性にさらに基づいて、行動内容を推定してもよい。例えば、店舗の売場で人が商品をバッグに入れた場合、人の属性が購買客であれば、推定部136は人の行動内容を「万引き」と推定し、人の属性が従業員であれば、推定部136は人の行動内容を「商品整理」と推定する。このように推定部136が動作することで、推定部136は、例えば商品を手に取る行動である「万引き」と「商品整理」のように、人の動きが類似している場合であっても、行動内容を正しく推定することができる。 The estimation unit 136 may estimate the behavioral content further based on the attributes of the person detected by the person detection unit 132. For example, if a person puts an item into a bag on a sales floor in a store, if the person's attributes are a customer, the estimation unit 136 estimates the behavioral content of the person as "shoplifting," and if the person's attributes are an employee, the estimation unit 136 estimates the behavioral content of the person as "organizing items." By operating in this manner, the estimation unit 136 can correctly estimate the behavioral content even when the movements of the person are similar, such as "shoplifting," which is the action of picking up an item, and "organizing items."

推定部136は、設定受付部134が受け付けた被写体の属性にさらに基づいて行動内容を推定してもよい。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、店舗の倉庫等に設置された棚に置かれた物体の属性が「店舗の所有物」であることを設定受付部134が受け付けた場合、推定部136は、物体を取る動きをしている従業員の行動内容を「商品又は備品の整理」と推定する。一方、設定受付部134が物体の属性が「店舗の所有物」でない場合、推定部136は、物体を取る従業員の行動内容を、例えば「私物を動かしている」と推定する。 The estimation unit 136 may estimate the behavioral content based on the attributes of the subject received by the setting reception unit 134. The attributes of the subject are information indicating the characteristics of the subject, such as the subject's owner and the subject's function. For example, if the setting reception unit 134 receives that the attribute of an object placed on a shelf installed in a store's warehouse or the like is "store property," the estimation unit 136 estimates that the behavioral content of the employee making the movement of picking up the object is "organizing merchandise or equipment." On the other hand, if the setting reception unit 134 determines that the attribute of the object is not "store property," the estimation unit 136 estimates that the behavioral content of the employee picking up the object is, for example, "moving personal belongings."

さらに、関係特定部135が、被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係を特定した場合、推定部136は、関係特定部135が特定した位置関係と、設定受付部134が設定を受け付けた被写体の属性とにさらに基づいて行動内容を推定してもよい。例えば、関係特定部135が特定した被写体が商品棚であり、設定受付部134が設定を受け付けた被写体が商品棚に置かれた物体である場合、推定部136は、関係特定部135が特定した位置関係に基づいて、従業員以外の人が商品棚に置かれた物体をカバンに入れる動きをしていると判定する。続いて、推定部136は、物体の属性が「店舗の所有物」である場合に、従業員以外の人の行動内容を万引きと推定する。 Furthermore, when the relationship identification unit 135 identifies the positional relationship between the subject detected by the subject detection unit 133 and the subject for which the setting reception unit 134 has accepted the attribute setting, the estimation unit 136 may further estimate the behavior based on the positional relationship identified by the relationship identification unit 135 and the attribute of the subject for which the setting reception unit 134 has accepted the setting. For example, when the subject identified by the relationship identification unit 135 is a product shelf and the subject for which the setting reception unit 134 has accepted the setting is an object placed on the product shelf, the estimation unit 136 determines that a person other than an employee is making the movement of putting an object placed on the product shelf into a bag, based on the positional relationship identified by the relationship identification unit 135. Next, when the attribute of the object is "store property," the estimation unit 136 estimates that the behavior of the person other than an employee is shoplifting.

推定部136は、このように被写体の属性に基づいて行動内容を推定することで、複数の商品と複数の商品とは異なる物体(例えば私物)とが同じ場所に置かれている場合であっても、商品と商品とは異なる物体とを区別して人の行動内容を推定することができる。 By estimating the behavioral content based on the attributes of the subject in this way, the estimation unit 136 can distinguish between the products and the objects other than the products and estimate the behavioral content of the person even when multiple products and multiple objects other than the products (e.g. personal belongings) are placed in the same place.

場所特定部137は、撮像画像に写っている場所を特定する。場所特定部137は、例えば撮像画像に写っている被写体に基づいて撮像画像に写っている場所を特定する。場所特定部137は、例えばGPS(Global Positioning System)信号に基づいて撮像画像に写っている場所を特定してもよい。場所特定部137は、特定した場所を示す情報を出力部138に通知する。 The location identification unit 137 identifies a location that appears in the captured image. For example, the location identification unit 137 identifies a location that appears in the captured image based on a subject that appears in the captured image. For example, the location identification unit 137 may identify a location that appears in the captured image based on a GPS (Global Positioning System) signal. The location identification unit 137 notifies the output unit 138 of information indicating the identified location.

出力部138は、推定部136が推定した行動内容を示す行動内容情報を情報端末2に送信する送信部として機能する。出力部138は、推定部136が推定した行動内容と、場所特定部137が特定した場所とが所定の条件を満たす場合に通知情報を出力してもよい。所定の条件は、情報端末2のユーザが通知情報を受けて何かしらの対応をすべきことである。情報端末2のユーザは、例えば撮像装置が店舗に設置されている場合、店舗の従業員又は警備員である。 The output unit 138 functions as a transmission unit that transmits activity content information indicating the activity content estimated by the estimation unit 136 to the information terminal 2. The output unit 138 may output notification information when the activity content estimated by the estimation unit 136 and the location identified by the location identification unit 137 satisfy a predetermined condition. The predetermined condition is that the user of the information terminal 2 should receive the notification information and take some kind of action. For example, if the imaging device is installed in a store, the user of the information terminal 2 is an employee or security guard of the store.

具体的には、推定部136が推定した行動内容が「万引き」であり、場所特定部137が特定した場所が「店舗」である場合、店舗の従業員又は警備員は、万引きをした人を確保する必要がある。したがって、出力部138は、所定の条件を満たすと判定し通知情報を出力する。 Specifically, if the behavior estimated by the estimation unit 136 is "shoplifting" and the location identified by the location identification unit 137 is a "store," an employee or security guard at the store must apprehend the shoplifter. Therefore, the output unit 138 determines that the specified condition is met and outputs notification information.

一方、推定部136が推定した行動内容が「商品整理」であり、場所特定部137が特定した場所が「店舗」である場合、推定した行動内容は従業員の通常の行動であるため、出力部138は、所定の条件を満たさないと判定し通知情報を出力しない。このように動作することで、出力部138は、情報端末2のユーザが必要とする情報を出力することができる。 On the other hand, if the activity content estimated by the estimation unit 136 is "organizing merchandise" and the location identified by the location identification unit 137 is "store," the estimated activity content is a normal employee activity, and therefore the output unit 138 determines that the predetermined condition is not satisfied and does not output notification information. By operating in this manner, the output unit 138 can output information required by the user of the information terminal 2.

出力部138は、場所特定部137が特定した場所と行動内容との組み合わせに対応する種別の通知情報を出力してもよい。例えば、場所特定部137が特定した場所が「店舗の売場」であり、推定部136が推定した人の行動内容が「万引き」である場合、出力部138は、店舗の売場で万引きが行われたことを示す通知情報を出力する。 The output unit 138 may output notification information of a type corresponding to the combination of the location and behavior content identified by the location identification unit 137. For example, if the location identified by the location identification unit 137 is a "sales floor of a store" and the behavior content of the person estimated by the estimation unit 136 is "shoplifting," the output unit 138 outputs notification information indicating that shoplifting has occurred on the sales floor of the store.

[行動推定装置10のフローチャート]
図6は、行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。図6においては、行動推定装置10が、時刻T1における相対関係と時刻T2における相対関係とに基づいて相対関係の変化を特定し、特定した相対関係の変化を用いて人の行動内容を推定する動作を説明する。
[Flowchart of the behavior inference device 10]
Fig. 6 is a flowchart showing an example of an operation of the behavior inference device 10 inferring the behavioral details of a person. Fig. 6 illustrates an operation of the behavior inference device 10 inferring the behavioral details of a person by specifying a change in a relative relationship based on the relative relationship at time T1 and the relative relationship at time T2 and using the specified change in the relative relationship.

画像取得部131は、撮像装置1が時刻T1において生成した第1撮像画像データを取得する(S11)。場所特定部137は、画像取得部131が取得した第1撮像画像データが示す撮像画像に写っている場所を特定する。また、人検出部132は、第1撮像画像データが示す撮像画像に含まれる人の位置を検出する(S12)。被写体検出部133は、第1撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S13)。関係特定部135は、時刻T1における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S14)。 The image acquisition unit 131 acquires the first captured image data generated by the imaging device 1 at time T1 (S11). The location identification unit 137 identifies the location depicted in the captured image indicated by the first captured image data acquired by the image acquisition unit 131. The person detection unit 132 detects the position of a person included in the captured image indicated by the first captured image data (S12). The subject detection unit 133 detects the position of a subject and the type of subject depicted in the captured image indicated by the first captured image data (S13). The relationship identification unit 135 identifies a relative relationship between the position of the person, the position of the subject, and the type of subject at time T1 (S14).

画像取得部131は、撮像装置1が時刻T2において生成した第2撮像画像データを取得する(S15)。人検出部132は、第2撮像画像データが示す撮像画像に含まれる人の位置を検出する(S16)。被写体検出部133は、第2撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S17)。関係特定部135は、時刻T2における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S18)。 The image acquisition unit 131 acquires the second captured image data generated by the imaging device 1 at time T2 (S15). The person detection unit 132 detects the position of a person included in the captured image represented by the second captured image data (S16). The subject detection unit 133 detects the position of a subject and the type of subject appearing in the captured image represented by the second captured image data (S17). The relationship identification unit 135 identifies a relative relationship between the position of the person, the position of the subject, and the type of subject at time T2 (S18).

関係特定部135は、S14において特定した時刻T1での相対関係と、S18において特定した時刻T2での相対関係とに基づいて、相対関係の変化を特定する(S19)。推定部136は、関係特定部135が特定した相対関係の変化と被写体検出部133が検出した被写体の種別との組み合わせに基づいて人の行動内容を推定する(S20)。 The relationship identification unit 135 identifies a change in the relative relationship based on the relative relationship at time T1 identified in S14 and the relative relationship at time T2 identified in S18 (S19). The estimation unit 136 estimates the person's behavior based on a combination of the change in the relative relationship identified by the relationship identification unit 135 and the type of subject detected by the subject detection unit 133 (S20).

行動推定装置10は、人の行動内容を推定する処理を終了する操作が行われていない場合(S21のNO)、S11からS19までの処理を繰り返す。人の行動内容を推定する処理を終了する操作が行われた場合(S21のYES)、行動推定装置10は、処理を終了する。 If an operation to end the process of estimating the person's behavioral content has not been performed (NO in S21), the behavior estimation device 10 repeats the processes from S11 to S19. If an operation to end the process of estimating the person's behavioral content has been performed (YES in S21), the behavior estimation device 10 ends the process.

[他の応用例]
以上の説明においては、店舗内での購買客又は従業員の行動内容を推定する場合を例示したが、行動推定装置10は、他の場所の撮像画像に基づいて人の各種の行動内容を推定してもよい。
[Other application examples]
In the above description, an example was given of estimating the behavior of a customer or employee in a store. However, the behavior estimation device 10 may estimate various types of behavior of people based on captured images in other locations.

(色に基づく推定)
図7は、人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。図7に示す行動推定装置10は、色特定部139を有する点で図4に示す行動推定装置10と異なり、他の点において同じである。色特定部139は、人の色の変化又は被写体の色の変化の少なくともいずれかを特定する。色特定部139は、人検出部132が検出した人の位置又は被写体検出部133が検出した被写体の位置に基づいて、画像取得部131が取得した撮像画像に含まれる人又は被写体の色の変化を特定する。
(Color-based estimation)
Fig. 7 is a diagram showing a configuration of the behavior estimation device 10 that estimates the behavior of a person based on a change in color of the person or the subject. The behavior estimation device 10 shown in Fig. 7 differs from the behavior estimation device 10 shown in Fig. 4 in that it has a color identification unit 139, but is the same in other respects. The color identification unit 139 identifies at least one of a change in color of the person or a change in color of the subject. The color identification unit 139 identifies a change in color of the person or the subject included in the captured image acquired by the image acquisition unit 131, based on the position of the person detected by the person detection unit 132 or the position of the subject detected by the subject detection unit 133.

推定部136は、色特定部139が特定した人の色の変化又は被写体の色の変化の少なくともいずれかにさらに基づいて、行動内容を推定してもよい。例えば、人がナイフを使用している場合、被写体検出部133は、被写体の種別であるナイフを検出する。関係特定部135は、人と被写体であるナイフとの関係である相対関係を「人と被写体との距離は基準距離未満である」と特定する。色特定部139は人の位置とナイフの位置とに基づいて、人の手及びナイフが赤色に変化したことを特定する。推定部136は、人の手及びナイフが赤色に変化したことに基づいて、人が怪我をしていることを推定する。 The estimation unit 136 may estimate the behavioral content based on at least one of the color change of the person or the color change of the subject identified by the color identification unit 139. For example, if a person is using a knife, the subject detection unit 133 detects the knife, which is a type of subject. The relationship identification unit 135 identifies the relative relationship, which is the relationship between the person and the knife, which is the subject, as "the distance between the person and the subject is less than a reference distance." The color identification unit 139 identifies that the person's hand and the knife have changed to red based on the position of the person and the position of the knife. The estimation unit 136 estimates that the person is injured based on the change of the person's hand and the knife to red.

また、ナイフを使用している人の周囲に他の人が滞在している場合、関係特定部135が被写体であるナイフと他の人との相対関係の変化を「ナイフと他の人との距離が時刻ごとに大きく変化している」と特定したことにより、推定部136は、人の行動内容を危険行動と推定する。そして、色特定部139が、ナイフ又は他の人の色が赤色に変化したことを特定することにより、推定部136は、他の人が怪我をしていることを推定する。 In addition, when other people are around the person using the knife, the relationship identification unit 135 identifies the change in the relative relationship between the subject knife and the other people as "the distance between the knife and the other people changes significantly from time to time," and the estimation unit 136 estimates that the person's behavior is dangerous behavior. Then, the color identification unit 139 identifies that the color of the knife or the other people has changed to red, and the estimation unit 136 estimates that the other people are injured.

このように色特定部139が人又は被写体の色の変化を特定し、推定部136が色の変化に基づいて人の行動を特定することで、行動推定装置10は、流血等の緊急に対応すべき行動内容を推定することができる。さらに、行動推定装置10は、例えば赤色と異なる色に変化したことを検出することにより、例えばペンキをこぼす等の行動内容を推定することができる。 In this way, the color identification unit 139 identifies the change in color of the person or subject, and the estimation unit 136 identifies the person's behavior based on the change in color, so that the behavior estimation device 10 can estimate the content of an action that requires an emergency response, such as bleeding. Furthermore, the behavior estimation device 10 can estimate the content of an action, such as spilling paint, by detecting a change to a color other than red, for example.

(危険行為の検出)
行動推定装置10は、例えば屋外に設置された監視カメラの画像に基づいて、屋外で発生した危険行為を検出してもよい。危険行為は、例えば公園に設置されたベンチ等の器物を破壊する行為である。監視カメラの画像に基づいて、空手の動きをする人とベンチとを検出した場合、関係特定部135は、人と被写体であるベンチとの相対関係を特定する。
(Detection of dangerous behavior)
The behavior inference device 10 may detect a dangerous behavior occurring outdoors, for example, based on an image captured by a surveillance camera installed outdoors. The dangerous behavior is, for example, an act of destroying property such as a bench installed in a park. When a person performing karate movements and a bench are detected based on the image captured by the surveillance camera, the relationship specification unit 135 specifies the relative relationship between the person and the bench, which is the subject of the image.

関係特定部135が相対関係を「人と被写体との距離は閾値以上」と特定した場合、推定部136は、人の行動内容を「空手の練習」と特定する。閾値は、例えば人が空手等の格技の練習で動く範囲を示す距離である。一方、関係特定部135が相対関係を「人と被写体との距離は閾値未満」と特定した場合、推定部136は、人の行動内容を「ベンチを破壊する」と推定する。このように動作することで、行動推定装置10は、屋外に設置された器物と当該器物の周囲の人の行動とを監視することができる。 When the relationship identification unit 135 identifies the relative relationship as "the distance between the person and the subject is equal to or greater than the threshold", the estimation unit 136 identifies the person's behavior as "practicing karate". The threshold is, for example, a distance indicating the range of movement of a person when practicing a martial art such as karate. On the other hand, when the relationship identification unit 135 identifies the relative relationship as "the distance between the person and the subject is less than the threshold", the estimation unit 136 estimates the person's behavior as "destroying a bench". By operating in this manner, the behavior estimation device 10 can monitor objects installed outdoors and the behavior of people around the objects.

(禁止領域への侵入の検出)
行動推定装置10は、監視カメラの画像に基づいて、人が進入禁止の領域に立ち入る行動を推定してもよい。例えば進入禁止の領域の境界に柵が設置されている場合、被写体検出部133は、被写体である柵を検出する。人が柵を乗り越えて侵入した場合、人検出部132は、人が柵を乗り越える動きを検出する。関係特定部135は、相対関係を「人が被写体を乗り越えている」と特定する。推定部136は、被写体の種別である柵と相対関係との組み合わせに基づいて、人の行動内容を「柵の乗り越え」と推定する。
(Detection of intrusion into prohibited area)
The behavior inference device 10 may infer a behavior of a person entering a no-entry area based on an image from a surveillance camera. For example, if a fence is installed at the boundary of the no-entry area, the subject detection unit 133 detects the fence, which is the subject. If a person climbs over the fence to enter, the person detection unit 132 detects the movement of the person climbing over the fence. The relationship identification unit 135 identifies the relative relationship as "a person climbing over the subject." The estimation unit 136 infers the content of the person's behavior as "climbing over a fence" based on a combination of the fence, which is the type of subject, and the relative relationship.

進入禁止の領域に柵が設置されていない場合、被写体検出部133は、進入禁止の領域を被写体の種別として検出してもよい。進入禁止の領域に人が立ち入った場合、人検出部132は、人が移動していることを検出する。関係特定部135は、被写体である進入禁止の領域を示す位置情報と人が移動した位置とに基づいて、相対関係を「人が被写体の内部を移動している」と特定する。推定部136は、人の行動内容を「進入禁止の領域に侵入」と推定する。 If no fence is installed in the no-entry area, the subject detection unit 133 may detect the no-entry area as the type of subject. If a person enters the no-entry area, the person detection unit 132 detects that the person is moving. The relationship identification unit 135 identifies the relative relationship as "a person is moving inside the subject" based on the position information indicating the no-entry area that is the subject and the position to which the person has moved. The estimation unit 136 estimates the content of the person's behavior as "entering a no-entry area."

このように動作することで、行動推定装置10は、進入禁止の領域に人が立ち入ることを検出することができる。進入禁止の領域の管理者は、行動推定装置10が進入禁止の領域に人が侵入したことを情報端末2に通知することで、人が侵入したことを知るとともに、人に警告を発することができる。 By operating in this manner, the behavior estimation device 10 can detect when a person enters a forbidden area. The behavior estimation device 10 notifies the information terminal 2 that a person has entered the forbidden area, so that the administrator of the forbidden area can learn of the person's intrusion and issue a warning to the person.

[行動推定装置10の効果]
以上説明したように、行動推定装置10は、撮像画像に含まれる人の動きを検出する人検出部132と、撮像画像に含まれる被写体の種別を検出する被写体検出部133と、人の動きに伴う人と被写体との関係である相対関係を特定する関係特定部135とを有する。そして、推定部136は、被写体検出部133が検出した被写体の種別と関係特定部135が特定した相対関係とに基づいて人の行動内容を推定する。
[Effects of the behavior inference device 10]
As described above, the behavior inference device 10 includes the person detection unit 132 that detects the movement of a person included in a captured image, the subject detection unit 133 that detects the type of subject included in the captured image, and the relationship specification unit 135 that specifies the relative relationship between the person and the subject associated with the person's movement. The estimation unit 136 infers the behavior of the person based on the type of subject detected by the subject detection unit 133 and the relative relationship specified by the relationship specification unit 135.

行動推定装置10は、このように被写体の種別と、人と被写体との相対関係とを用いて人の行動内容を推定することで、動きが類似する行動であっても、精度よく人の行動内容を推定することができる。また、行動推定システムSによれば、行動推定装置10が推定した人の行動内容を示す行動内容情報を情報端末2が受信することで、例えば情報端末2のユーザである店舗の従業員は、人の異常行動を精度よく知ることができる。その結果、情報端末2のユーザは、人の行動に正確に対応することができる。 The behavior estimation device 10 estimates the behavior of a person using the type of subject and the relative relationship between the person and the subject in this way, and is therefore able to accurately estimate the behavior of a person even if the movements of the person are similar. Furthermore, according to the behavior estimation system S, the information terminal 2 receives behavior content information indicating the behavior of a person estimated by the behavior estimation device 10, and thus, for example, a store employee who is the user of the information terminal 2 can be informed of abnormal behavior of a person with high accuracy. As a result, the user of the information terminal 2 can respond to the person's behavior accurately.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist of the invention. For example, all or part of the device can be configured by distributing or integrating functionally or physically in any unit. In addition, new embodiments resulting from any combination of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment resulting from the combination also has the effect of the original embodiment.

1 撮像装置
2 情報端末
10 行動推定装置
11 通信部
12 記憶部
13 制御部
21 通信部
22 記憶部
23 制御部
24 表示部
25 操作部
131 画像取得部
132 人検出部
133 被写体検出部
134 設定受付部
135 関係特定部
136 推定部
137 場所特定部
138 出力部
139 色特定部
231 情報送信部
232 情報受信部
REFERENCE SIGNS LIST 1 Imaging device 2 Information terminal 10 Behavior estimation device 11 Communication unit 12 Memory unit 13 Control unit 21 Communication unit 22 Memory unit 23 Control unit 24 Display unit 25 Operation unit 131 Image acquisition unit 132 Person detection unit 133 Subject detection unit 134 Setting reception unit 135 Relationship identification unit 136 Estimation unit 137 Location identification unit 138 Output unit 139 Color identification unit 231 Information transmission unit 232 Information reception unit

Claims (11)

撮像画像を示す撮像画像データを取得する画像取得部と、
前記撮像画像に含まれる人の動き及び前記人の属性を検出する人検出部と、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、前記人検出部が検出した前記人の属性と、前記被写体検出部が検出した前記被写体の種別と、前記関係特定部が特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定する推定部と、
を有する行動推定装置。
an image acquisition unit that acquires captured image data representing a captured image;
a person detection unit that detects a movement of a person and an attribute of the person included in the captured image;
a subject detection unit that detects a type of subject other than the person included in the captured image;
a relationship specification unit that specifies a relative relationship between the person and the subject in association with the person's movement;
an estimation unit that estimates whether the behavioral content of the person is fraudulent behavior or not based on a combination of the attribute of the person detected by the person detection unit, the type of the subject detected by the subject detection unit, and the relative relationship identified by the relationship identification unit by referring to behavioral content data in which an attribute of the person, whether the person is an employee or not, a type of the subject, a relative relationship between the person and the subject, and information indicating whether the behavioral content of the person is fraudulent behavior or not ;
A behavior estimation device having the above configuration.
前記推定部は、前記人と異なる前記被写体が施設の所有物であるか否かという被写体属性にさらに基づいて、前記人の行動内容が不正行動であるか否かを推定する、The estimation unit estimates whether the behavior of the person is unauthorized behavior based on a subject attribute of whether the subject, which is different from the person, is owned by a facility.
請求項1に記載の行動推定装置。The behavior inference device according to claim 1 .
前記被写体の種別は、商品、備品、人、又は商品若しくは備品以外の物品のいずれかの種別により表される、
請求項1に記載の行動推定装置。
The type of the subject is represented by any one of a product, equipment, person, or an item other than a product or equipment .
The behavior inference device according to claim 1 .
前記被写体検出部は、前記撮像画像に含まれる被写体の種別として、進入禁止領域を検出し、
前記推定部は、前記行動内容データを参照することにより、前記被写体検出部が検出した前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記進入禁止領域に入ったという前記人の行動内容を推定する、
請求項に記載の行動推定装置。
the subject detection unit detects a no-entry area as a type of subject included in the captured image,
the estimation unit estimates the behavioral content of the person that has entered the no-entry area based on a combination of the type of the subject detected by the subject detection unit and the relative relationship by referring to the behavioral content data.
The behavior inference device according to claim 1 .
前記被写体検出部は、柵を前記進入禁止領域の境界として検出し、
前記推定部は、前記人検出部が検出した前記人の位置が前記柵よりも高くなったという前記相対関係に基づいて、当該人が前記柵を乗り越えたと推定する、
請求項4に記載の行動推定装置。
the subject detection unit detects a fence as a boundary of the no-entry area,
the estimation unit estimates that the person has climbed over the fence based on the relative relationship that the position of the person detected by the person detection unit is higher than the fence.
The behavior inference device according to claim 4 .
前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果にさらに基づいて前記行動内容を推定する、
請求項1から5のいずれか一項に記載の行動推定装置。
the relationship specification unit specifies a distance between the person and the subject as the relative relationship;
the estimation unit estimates the activity content further based on a result of comparing a reference distance associated with the type of the subject detected by the subject detection unit with a distance between the person and the subject identified by the relationship identification unit.
The behavior inference device according to claim 1 .
前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、
前記関係特定部は、前記相対関係の変化を特定し、
前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせにさらに基づいて、前記人の行動内容を推定する、
請求項1から6のいずれか一項に記載の行動推定装置。
the image acquisition unit acquires a plurality of pieces of captured image data created in chronological order;
The relationship specification unit specifies a change in the relative relationship,
The estimation unit estimates the action content of the person based on a combination of the type of the subject and the change in the relative relationship.
The behavior inference device according to claim 1 .
前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、
前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、
前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせにさらに基づいて、前記人の行動内容を推定する、
請求項1から7のいずれか一項に記載の行動推定装置。
the subject detection unit detects a first subject and a second subject included in the captured image;
the relationship specifying unit specifies a first relative relationship that is a relationship between the person and the first subject associated with a movement of the person, a second relative relationship that is a relationship between the person and the second subject associated with a movement of the person, and a third relative relationship that is a relationship between the first subject and the second subject associated with a movement of the person,
the estimation unit estimates the action content of the person based on a combination of the type of the subject and at least two of the first relative relationship, the second relative relationship, or the third relative relationship.
The behavior inference device according to claim 1 .
コンピュータが実行する、
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動き及び前記人の属性を検出するステップと、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、検出した前記人の属性と、検出した前記被写体の種別と、特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定するステップと、
を有する行動推定方法。
The computer executes
acquiring captured image data indicative of a captured image;
detecting a movement of a person and an attribute of the person included in the captured image;
detecting a type of a subject other than the person included in the captured image;
Identifying a relative relationship between the person and the subject in association with the person's movement;
a step of referring to behavior content data in which an attribute of the person, whether or not the person is an employee, a type of the subject, a relative relationship between the person and the subject, and information indicating whether or not the behavior content of the person is fraudulent behavior are associated with each other, and estimating whether or not the behavior content of the person is fraudulent behavior based on a combination of the detected attribute of the person, the detected type of the subject, and the specified relative relationship;
The behavior estimation method has the following features.
コンピュータに、
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動き及び前記人の属性を検出するステップと、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、検出した前記人の属性と、検出した前記被写体の種別と、特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定するステップと、
を実行させるためのプログラム。
On the computer,
acquiring captured image data indicative of a captured image;
detecting a movement of a person and an attribute of the person included in the captured image;
detecting a type of a subject other than the person included in the captured image;
Identifying a relative relationship between the person and the subject in association with the person's movement;
a step of referring to behavior content data in which an attribute of the person, whether or not the person is an employee, a type of the subject, a relative relationship between the person and the subject, and information indicating whether or not the behavior content of the person is fraudulent behavior are associated with each other, and estimating whether or not the behavior content of the person is fraudulent behavior based on a combination of the detected attribute of the person, the detected type of the subject, and the specified relative relationship;
A program for executing.
撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、
前記行動推定装置は、
撮像画像を示す撮像画像データを取得する画像取得部と、
前記撮像画像に含まれる人の動き及び前記人の属性を検出する人検出部と、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、前記人検出部が検出した前記人の属性と、前記被写体検出部が検出した前記被写体の種別と、前記関係特定部が特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定する推定部と、
前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、
を有し、
前記情報端末は、
前記行動内容情報を受信する情報受信部と、
前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、
を有する行動推定システム。
A behavior estimation device that estimates a behavior of a person based on a captured image generated by an imaging device, and an information terminal that displays the behavior of the person estimated by the behavior estimation device,
The behavior estimation device includes:
an image acquisition unit that acquires captured image data representing a captured image;
a person detection unit that detects a movement of a person and an attribute of the person included in the captured image;
a subject detection unit that detects a type of subject other than the person included in the captured image;
a relationship specification unit that specifies a relative relationship between the person and the subject in association with the person's movement;
an estimation unit that estimates whether the behavioral content of the person is fraudulent behavior or not based on a combination of the attribute of the person detected by the person detection unit, the type of the subject detected by the subject detection unit, and the relative relationship identified by the relationship identification unit by referring to behavioral content data in which an attribute of the person, whether the person is an employee or not, a type of the subject, a relative relationship between the person and the subject, and information indicating whether the behavioral content of the person is fraudulent behavior or not ;
a transmission unit that transmits, to the information terminal, activity content information indicating the activity content estimated by the estimation unit;
having
The information terminal includes:
an information receiving unit for receiving the action content information;
a display unit that displays the activity content based on the activity content information received by the information receiving unit;
A behavior estimation system having the above configuration.
JP2021042085A 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program, and behavior estimation system Active JP7649934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021042085A JP7649934B2 (en) 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program, and behavior estimation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020182477A JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system
JP2021042085A JP7649934B2 (en) 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program, and behavior estimation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020182477A Division JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system

Publications (3)

Publication Number Publication Date
JP2022073882A JP2022073882A (en) 2022-05-17
JP2022073882A5 JP2022073882A5 (en) 2023-11-24
JP7649934B2 true JP7649934B2 (en) 2025-03-24

Family

ID=75267983

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020182477A Active JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system
JP2021042085A Active JP7649934B2 (en) 2020-10-30 2021-03-16 Behavior estimation device, behavior estimation method, program, and behavior estimation system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020182477A Active JP6854959B1 (en) 2020-10-30 2020-10-30 Behavior estimation device, behavior estimation method, program and behavior estimation system

Country Status (2)

Country Link
JP (2) JP6854959B1 (en)
WO (1) WO2022092032A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023275968A1 (en) * 2021-06-29 2023-01-05 日本電信電話株式会社 Abnormality determination device, abnormality determination method, and abnormality determination program
JP7624941B2 (en) 2022-03-08 2025-01-31 Kddi株式会社 Motion prediction device, method and program
WO2024004209A1 (en) * 2022-07-01 2024-01-04 日本電信電話株式会社 Estimation device, learning device, method, and program
WO2024252494A1 (en) * 2023-06-05 2024-12-12 日本電信電話株式会社 Video processing device, method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252248A (en) 2005-03-11 2006-09-21 Meidensha Corp Trespasser detecting system by image processing
JP2007048249A (en) 2005-08-08 2007-02-22 Ara Software:Kk Safety monitoring system
JP2011227647A (en) 2010-04-19 2011-11-10 Secom Co Ltd Suspicious person detection device
JP2015011649A (en) 2013-07-02 2015-01-19 パナソニック株式会社 Personal behavior analysis device, personal behavior analysis system, personal behavior analysis method, and monitoring device
WO2015033576A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
JP2015179984A (en) 2014-03-19 2015-10-08 株式会社東芝 Image processing apparatus, and method and program therefor
JP2016057738A (en) 2014-09-08 2016-04-21 富士ゼロックス株式会社 Confirmation action detection device and confirmation action detection program
JP2016081174A (en) 2014-10-14 2016-05-16 富士ゼロックス株式会社 Associated program and information processing apparatus
JP2017174272A (en) 2016-03-25 2017-09-28 富士ゼロックス株式会社 Information processing device and program
WO2019146385A1 (en) 2018-01-29 2019-08-01 京セラ株式会社 Image processing device, imaging device, moving body, and image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201105A (en) * 2015-04-07 2016-12-01 三菱電機株式会社 Information processor and information processing method
JP2017033401A (en) * 2015-08-04 2017-02-09 株式会社 impactTV Customer information collection device, customer information collection system and customer information collection method
US11922482B2 (en) * 2018-03-09 2024-03-05 Nec Corporation Self-checkout system, purchased product management method, and purchased product management program
US10535146B1 (en) * 2018-07-16 2020-01-14 Accel Robotics Corporation Projected image item tracking system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252248A (en) 2005-03-11 2006-09-21 Meidensha Corp Trespasser detecting system by image processing
JP2007048249A (en) 2005-08-08 2007-02-22 Ara Software:Kk Safety monitoring system
JP2011227647A (en) 2010-04-19 2011-11-10 Secom Co Ltd Suspicious person detection device
JP2015011649A (en) 2013-07-02 2015-01-19 パナソニック株式会社 Personal behavior analysis device, personal behavior analysis system, personal behavior analysis method, and monitoring device
WO2015033576A1 (en) 2013-09-06 2015-03-12 日本電気株式会社 Security system, security method, and non-temporary computer-readable medium
JP2015179984A (en) 2014-03-19 2015-10-08 株式会社東芝 Image processing apparatus, and method and program therefor
JP2016057738A (en) 2014-09-08 2016-04-21 富士ゼロックス株式会社 Confirmation action detection device and confirmation action detection program
JP2016081174A (en) 2014-10-14 2016-05-16 富士ゼロックス株式会社 Associated program and information processing apparatus
JP2017174272A (en) 2016-03-25 2017-09-28 富士ゼロックス株式会社 Information processing device and program
WO2019146385A1 (en) 2018-01-29 2019-08-01 京セラ株式会社 Image processing device, imaging device, moving body, and image processing method

Also Published As

Publication number Publication date
JP2022072825A (en) 2022-05-17
JP2022073882A (en) 2022-05-17
JP6854959B1 (en) 2021-04-07
WO2022092032A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
JP7649934B2 (en) Behavior estimation device, behavior estimation method, program, and behavior estimation system
US10636267B2 (en) RFID tag tracking systems and methods in identifying suspicious activities
US8267316B2 (en) Systems and methods for merchandise checkout
RU2753959C2 (en) Video analysis module and method for generating materials for investigating user's behavior
EP1459272B1 (en) A surveillance system with suspicious behaviour detection
US11270562B2 (en) Video surveillance system and video surveillance method
WO2012024303A1 (en) Theft prevention system and method
US20140225734A1 (en) Inhibiting alarming of an electronic article surviellance system
US20250225851A1 (en) Monitoring device, suspicious object detecting method, and recording medium
CN109558785A (en) Safety defense monitoring system and the unmanned convenience store for applying it
WO2020134100A1 (en) Control method, device and system for vending machine, and vending machine
JP5594879B2 (en) Image monitoring device
US20250029421A1 (en) Person-of-interest (poi) detection
US10891480B2 (en) Image zone processing
US20200084416A1 (en) Information processing apparatus, control method, and program
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
TWI538503B (en) Monitoring method and camera
CN118447445B (en) Goods anti-theft method and system based on Internet of things technology
JP2017076171A (en) Shoplifting detection system, shoplifting detection method, and shoplifting detection program
CN117912174A (en) Anti-theft early warning method, device, equipment and computer readable storage medium
CN111583521A (en) Safety protection method and device
JP2021135646A (en) Abnormal behavior detection method, abnormal behavior detection program and abnormal behavior detection device
US12211280B2 (en) Vision system for classifying persons based on visual appearance and dwell locations
Song et al. Continual Learning Based Personalized Abnormal Behavior Recognition Alarm System
WO2018104998A1 (en) Information processing device, control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250206

R150 Certificate of patent or registration of utility model

Ref document number: 7649934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150