JP7649934B2 - Behavior estimation device, behavior estimation method, program, and behavior estimation system - Google Patents
Behavior estimation device, behavior estimation method, program, and behavior estimation system Download PDFInfo
- Publication number
- JP7649934B2 JP7649934B2 JP2021042085A JP2021042085A JP7649934B2 JP 7649934 B2 JP7649934 B2 JP 7649934B2 JP 2021042085 A JP2021042085 A JP 2021042085A JP 2021042085 A JP2021042085 A JP 2021042085A JP 7649934 B2 JP7649934 B2 JP 7649934B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- subject
- behavior
- unit
- relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 8
- 238000001514 detection method Methods 0.000 claims description 90
- 230000000694 effects Effects 0.000 claims description 49
- 230000008859 change Effects 0.000 claims description 34
- 230000003542 behavioural effect Effects 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 description 168
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 235000005156 Brassica carinata Nutrition 0.000 description 3
- 244000257790 Brassica carinata Species 0.000 description 3
- 230000009194 climbing Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
本発明は、人の行動を推定するための行動推定装置、行動推定方法、プログラム及び行動推定システムに関する。 The present invention relates to a behavior estimation device, a behavior estimation method, a program, and a behavior estimation system for estimating human behavior.
時系列画像に写った人の関節を検出し、検出した関節の位置の変化に基づいて被写体の行動を推定する行動推定装置が知られている(例えば、特許文献1を参照)。 There is a known behavior estimation device that detects the joints of a person captured in a time-series image and estimates the subject's behavior based on changes in the positions of the detected joints (see, for example, Patent Document 1).
従来の行動推定装置は被写体の動きのみに基づいて行動を推定するため、動きが類似する行動を判別することが困難であるという問題が生じていた。 Conventional behavior estimation devices estimate behavior based solely on the movement of a subject, which makes it difficult to distinguish between behaviors with similar movements.
そこで、本発明はこれらの点に鑑みてなされたものであり、人の行動を推定する精度を向上させることを目的とする。 Therefore, the present invention has been made in consideration of these points, and aims to improve the accuracy of estimating human behavior.
本発明の第1の態様に係る行動推定装置は、撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定する推定部と、を有する。 The behavior estimation device according to the first aspect of the present invention includes an image acquisition unit that acquires captured image data showing a captured image, a person detection unit that detects the movement of a person included in the captured image, a subject detection unit that detects the type of subject included in the captured image, a relationship identification unit that identifies a relative relationship between the person and the subject associated with the movement of the person, and an estimation unit that estimates the behavior of the person based on a combination of the type of the subject and the relative relationship.
前記関係特定部は、前記人と前記被写体との距離を前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship identification unit may identify the distance between the person and the subject as the relative relationship, and the estimation unit may estimate the activity content based on a result of comparing a reference distance associated with the type of the subject detected by the subject detection unit with the distance between the person and the subject identified by the relationship identification unit.
前記関係特定部は、前記人の目線の方向と前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship identification unit may identify the relationship between the direction of the person's gaze and the position of the subject as the relative relationship, and the estimation unit may estimate the behavior content based on a result of comparing a reference gaze relationship, which is the relationship between the direction of the gaze and the position of the subject associated with the type of the subject detected by the subject detection unit, with the relationship between the direction of the person's gaze and the position of the subject identified by the relationship identification unit.
前記関係特定部は、前記人の身体の向きと前記被写体の位置との関係を、前記相対関係として特定し、前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、前記関係特定部が特定した前記人の目線の方向と前記被写体の位置との関係と、を比較した結果に基づいて前記行動内容を推定してもよい。 The relationship identification unit may identify the relationship between the person's body orientation and the position of the subject as the relative relationship, and the estimation unit may estimate the behavior content based on a result of comparing a reference body orientation relationship, which is the relationship between the body orientation and the position of the subject associated with the type of the subject detected by the subject detection unit, with the relationship between the direction of the person's line of sight identified by the relationship identification unit and the position of the subject.
前記画像取得部は、時系列に作成された複数の前記撮像画像データを取得し、前記関係特定部は、前記相対関係の変化を特定し、前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit may acquire multiple captured image data created in time series, the relationship identification unit may identify a change in the relative relationship, and the estimation unit may estimate the behavior of the person based on a combination of the type of the subject and the change in the relative relationship.
前記推定部は、前記複数の撮像画像データのいずれかに、前記人検出部が前記人を検出する前に前記被写体が含まれていたか否かを判定した結果にさらに基づいて、前記行動内容を推定してもよい。 The estimation unit may estimate the behavioral content further based on a result of determining whether the subject was included in any of the plurality of captured image data before the person detection unit detected the person.
前記人検出部は、前記人の属性をさらに検出し、前記推定部は、前記人検出部が検出した前記人の属性にさらに基づいて、前記行動内容を推定してもよい。 The person detection unit may further detect attributes of the person, and the estimation unit may estimate the activity content based on the attributes of the person detected by the person detection unit.
前記被写体検出部は、前記撮像画像に含まれる第1被写体及び第2被写体を検出し、前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、前記人の行動内容を推定してもよい。 The subject detection unit detects a first subject and a second subject included in the captured image, the relationship identification unit identifies a first relative relationship that is a relationship between the person and the first subject associated with the person's movement, a second relative relationship that is a relationship between the person and the second subject associated with the person's movement, and a third relative relationship that is a relationship between the first subject and the second subject associated with the person's movement, and the estimation unit may estimate the behavior of the person based on a combination of the type of the subject and at least two of the relative relationships, the first relative relationship, the second relative relationship, or the third relative relationship.
前記撮像画像に含まれる前記被写体の属性の設定を受け付ける設定受付部をさらに有し、前記推定部は、前記被写体の属性にさらに基づいて前記行動内容を推定してもよい。 The apparatus may further include a setting reception unit that receives settings of attributes of the subject included in the captured image, and the estimation unit may estimate the action content based on the attributes of the subject.
前記関係特定部は、前記被写体検出部が検出した被写体と前記設定受付部が属性の設定を受け付けた被写体との位置関係をさらに特定し、前記推定部は、前記関係特定部が特定した前記位置関係と、前記設定受付部が設定を受け付けた被写体の属性とにさらに基づいて前記行動内容を推定してもよい。 The relationship identification unit may further identify a positional relationship between the subject detected by the subject detection unit and the subject for which the setting reception unit has accepted an attribute setting, and the estimation unit may further estimate the action content based on the positional relationship identified by the relationship identification unit and the attribute of the subject for which the setting reception unit has accepted an attribute setting.
前記撮像画像に写っている場所を特定する場所特定部と、前記推定部が推定した前記行動内容と、前記場所特定部が特定した場所とが所定の条件を満たす場合に通知情報を出力する出力部と、をさらに有してもよい。 The device may further include a location identification unit that identifies a location shown in the captured image, and an output unit that outputs notification information when the activity content estimated by the estimation unit and the location identified by the location identification unit satisfy a predetermined condition.
前記出力部は、前記場所特定部が特定した場所と前記行動内容との組み合わせに対応する種別の前記通知情報を出力してもよい。 The output unit may output the notification information of a type corresponding to a combination of the location identified by the location identification unit and the action content.
前記人の色の変化又は前記被写体の色の変化の少なくともいずれかを特定する色特定部をさらに有し、前記推定部は、前記色特定部が特定した前記人の色の変化又は前記被写体の色の変化の少なくともいずれかにさらに基づいて、前記行動内容を推定してもよい。 The device may further include a color identification unit that identifies at least one of the color changes of the person or the color changes of the subject, and the estimation unit may estimate the behavioral content based on at least one of the color changes of the person or the color changes of the subject identified by the color identification unit.
前記画像取得部は、複数の前記撮像画像データを取得し、前記関係特定部は、複数の前記相対関係を特定し、前記推定部は、複数の前記相対関係それぞれと前記被写体の種別との組み合わせに基づいて、前記人の行動内容を推定してもよい。 The image acquisition unit may acquire a plurality of the captured image data, the relationship identification unit may identify a plurality of the relative relationships, and the estimation unit may estimate the behavior of the person based on a combination of each of the plurality of relative relationships and the type of the subject.
本発明の第2の態様に係る行動推定方法は、コンピュータが実行する、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を有する。 The behavior estimation method according to the second aspect of the present invention includes the steps of acquiring captured image data representing a captured image, executed by a computer, detecting the movement of a person included in the captured image, detecting the type of subject included in the captured image, identifying a relative relationship between the person and the subject associated with the movement of the person, and estimating the behavior of the person based on a combination of the type of subject and the relative relationship.
本発明の第3の態様に係るプログラムは、コンピュータに、撮像画像を示す撮像画像データを取得するステップと、前記撮像画像に含まれる人の動きを検出するステップと、前記撮像画像に含まれる被写体の種別を検出するステップと、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の行動内容を推定するステップと、を実行させる。 The program according to the third aspect of the present invention causes a computer to execute the steps of acquiring captured image data representing a captured image, detecting the movement of a person included in the captured image, detecting the type of subject included in the captured image, identifying a relative relationship between the person and the subject associated with the person's movement, and estimating the behavior of the person based on a combination of the type of subject and the relative relationship.
本発明の第4の態様に係る行動推定システムは、撮像装置が生成した撮像画像に基づいて人の行動内容を推定する行動推定装置と、前記行動推定装置が推定した前記人の行動内容を表示する情報端末と、を備え、前記行動推定装置は、前記撮像画像を示す撮像画像データを取得する画像取得部と、前記撮像画像に含まれる人の動きを検出する人検出部と、前記撮像画像に含まれる被写体の種別を検出する被写体検出部と、前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記人の前記行動内容を推定する推定部と、前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、を有し、前記情報端末は、前記行動内容情報を受信する情報受信部と、前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、を有する。 The behavior estimation system according to the fourth aspect of the present invention includes a behavior estimation device that estimates a person's behavior based on an image generated by an imaging device, and an information terminal that displays the person's behavior estimated by the behavior estimation device. The behavior estimation device includes an image acquisition unit that acquires captured image data showing the captured image, a person detection unit that detects the movement of a person included in the captured image, a subject detection unit that detects the type of subject included in the captured image, a relationship identification unit that identifies a relative relationship between the person and the subject associated with the movement of the person, an estimation unit that estimates the behavior of the person based on a combination of the type of subject and the relative relationship, and a transmission unit that transmits behavior content information indicating the behavior estimated by the estimation unit to the information terminal. The information terminal includes an information receiving unit that receives the behavior content information, and a display unit that displays the behavior based on the behavior content information received by the information receiving unit.
本発明によれば、人の行動を推定する精度を向上させるという効果を奏する。 The present invention has the effect of improving the accuracy of estimating human behavior.
[行動推定システムSの概要]
図1は、本実施形態に係る行動推定システムSの概要を説明するための図である。図2は、行動推定システムSの構成を示す図である。行動推定システムSは、撮像装置1と、情報端末2と、行動推定装置10と、を備える。図2に示すように、撮像装置1と情報端末2と行動推定装置10とは、ネットワークNを介して接続されている。ネットワークNは、例えばイントラネット又はインターネットである。ネットワークNは、無線ネットワークを含んでもよい。
[Outline of behavior estimation system S]
Fig. 1 is a diagram for explaining an overview of a behavior estimation system S according to this embodiment. Fig. 2 is a diagram showing the configuration of the behavior estimation system S. The behavior estimation system S includes an imaging device 1, an information terminal 2, and a
図1(a)は、空間Rを上から見た図であり、図1(b)は、空間Rを横から見た図である。空間Rは、例えば店舗の売場、店舗の倉庫、工場の倉庫、又は施設の備品置き場のように物体が置かれた空間である。図1に示すように、空間Rには複数の棚T(T1~T4)が設置されている。図1(b)に示すように、複数の棚T(T1~T3)には、複数の物体P(P1~P3)がそれぞれ置かれている。図1に示すように、空間Rには、人Mが滞在している。人Mは、物体Pを入れることが可能なバッグBを所持している。 Figure 1(a) is a diagram of space R seen from above, and Figure 1(b) is a diagram of space R seen from the side. Space R is a space in which objects are placed, such as a store sales floor, a store warehouse, a factory warehouse, or a facility equipment storage area. As shown in Figure 1, multiple shelves T (T1 to T4) are installed in space R. As shown in Figure 1(b), multiple objects P (P1 to P3) are placed on each of the multiple shelves T (T1 to T3). As shown in Figure 1, a person M is staying in space R. Person M is carrying a bag B that can hold object P.
図1においては、行動推定システムSは、空間Rに設置された一以上の撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定する行動推定装置10を備える。撮像装置1は、例えば監視カメラであり、人の行動内容を推定する領域を撮像する。撮像装置1は、撮像して生成した撮像画像データを行動推定装置10に送信する。撮像装置1は、撮像画像データとして動画像データを生成してもよい。動画像データは、例えばH.264又はH.265等の圧縮規格により符号化されたデータである。
In FIG. 1, the behavior estimation system S includes a
行動推定装置10は、撮像装置1が生成した撮像画像に基づいて人Mの行動内容を推定し、推定した行動内容を示す行動内容情報を情報端末2に送信する。行動推定装置10は、撮像画像に含まれる人Mと被写体との相対関係に基づいて人Mの行動内容を推定する情報処理装置であり、例えばコンピュータである。被写体は、例えば複数の棚T、複数の物体P、バッグB又は他の人である。行動推定装置10は、単一の情報処理装置でもよいし、例えばクラウド型サーバのように複数の情報処理装置で構成されてもよい。
The
行動推定装置10は、人Mと被写体との関係である相対関係を特定し、特定した相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定する。相対関係は、例えば人Mと物体Pとの距離、人Mの目線の方向と物体Pの位置との関係、又は人Mの身体の向きと物体Pの位置との関係である。被写体の種別は、例えば缶飲料、ナイフ、商品カゴのように、形状又は色の少なくともいずれかに基づいて被写体を特定できる情報により表される。本実施形態においては、説明を簡単にするために、被写体の種別を商品名で表す場合がある。なお、被写体は、物体又は人である。
The
人Mが物体P2を手に取った後に物体P2をバッグBに入れた場合、行動推定装置10は、人Mの手と被写体との距離に基づいて「物体P2と接触している人Mの手がバッグBと近接している」と相対関係を特定する。続いて、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「ハンドバッグ」である場合、行動推定システムSは、特定した相対関係と、被写体の種別である缶飲料及びハンドバッグとの組み合わせに基づいて「人Mが缶飲料をハンドバッグに入れた」と特定することにより、人Mの行動内容が万引きであると推定する。
When person M picks up object P2 and then puts object P2 into bag B, the
一方、特定した相対関係が同じであっても、検出した物体P2の種別が「缶飲料」であり、検出したバッグBの種別が「商品カゴ」である場合、行動推定装置10は、相対関係と、被写体の種別である缶飲料及び商品カゴとの組み合わせに基づいて「人Mが缶飲料を商品カゴに入れた」と特定することにより、人Mの行動内容が買い物であると推定する。
On the other hand, even if the identified relative relationship is the same, if the type of the detected object P2 is a "canned drink" and the type of the detected bag B is a "shopping basket," the
行動推定装置10は、推定した結果を情報端末2に送信する。情報端末2は、例えばスマートフォン、タブレット又はパーソナルコンピュータである。情報端末2は、例えば店舗の売場を監視する店員又は工場の倉庫を管理する社員(以下、「管理者」という)が使用する端末である。
The
情報端末2は、行動推定装置10が推定した人の行動内容をディスプレイに表示する。情報端末2は、例えば行動推定装置10が推定した人の行動内容と当該人が写っている撮像画像とを含む行動内容情報を取得し、行動内容情報に含まれる撮像画像と当該撮像画像に含まれる人の行動内容とを関連付けて表示してもよい。
The information terminal 2 displays on a display the behavioral content of the person estimated by the
このように、行動推定装置10は、人Mと被写体との相対関係と被写体の種別との組み合わせに基づいて人Mの行動内容を推定することで、動きが類似する行動を高い精度で判別することができる。そして、行動推定装置10は、予め設定された行動(例えば万引き行為)を検出したことを情報端末2に通知することで、情報端末2を使用する管理者が、予め設定された行動が行われたことを高い精度で把握することができる。
In this way, the
なお、情報端末2の管理者は、行動推定装置10が人の行動内容を推定するために使用する各種の情報を設定することができる。情報端末2は、管理者の操作に応じて、人の行動内容を推定するために用いる情報である設定情報を行動推定装置10に送信する。
The administrator of the information terminal 2 can set various pieces of information that the
設定情報は、例えば被写体の属性情報又は被写体の種別情報のうち少なくとも1つを含む。被写体の属性情報は、被写体の位置又は形状と被写体の属性とが関連付けられた情報である。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、図1に示す棚T1の属性情報は、棚T1の位置又は形状と棚T1の属性を示す「店舗」とが関連付けられた情報である。 The setting information includes, for example, at least one of subject attribute information or subject type information. Subject attribute information is information that associates the subject's position or shape with the subject's attributes. The subject's attributes are information that indicates the subject's characteristics, such as the subject's owner or the subject's function. For example, the attribute information of shelf T1 shown in FIG. 1 is information that associates the shelf's position or shape with "store", which indicates the attribute of shelf T1.
被写体の種別情報は、被写体の形状と被写体の種別とが関連付けられた情報である。例えば被写体が缶飲料の場合、被写体の種別情報は、被写体の種別を示す「缶飲料」と当該缶飲料の形状とが関連付けられた情報である。 The subject type information is information that associates the shape of the subject with the type of the subject. For example, if the subject is a canned drink, the subject type information is information that associates "canned drink," which indicates the type of the subject, with the shape of the canned drink.
[情報端末2の構成]
図3は、情報端末2の構成を説明するための図である。情報端末2は、通信部21と、記憶部22と、制御部23と、表示部24と、操作部25と、を有する。制御部23は、情報送信部231と、情報受信部232とを有する。
[Configuration of information terminal 2]
3 is a diagram for explaining the configuration of the information terminal 2. The information terminal 2 has a
通信部21は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLAN(Local Area Network)コントローラ又は無線LANコントローラである。
The
記憶部22は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部22は、制御部23が実行するプログラムを記憶している。
The
制御部23は、例えばCPU(Central Processing Unit)である。制御部23は、記憶部22に記憶されているプログラムを実行することにより、情報送信部231及び情報受信部232として機能する。情報送信部231は、情報端末2を使用する管理者が作成した行動推定装置10の設定情報を、通信部21を介して行動推定装置10に送信する。情報受信部232は、行動推定装置10が送信した行動内容情報を、通信部21を介して受信する。
The
表示部24は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)等の表示デバイスを有する。表示部24は、情報受信部232が受信した行動内容情報に基づいて行動内容を表示する。表示部24は、例えば、情報受信部232が受信した行動内容情報に含まれる人の行動内容と当該人が写っている撮像画像とを抽出する。表示部24は、抽出した撮像画像をディスプレイに表示するとともに、当該撮像画像に写っている人の行動内容を当該撮像画像と関連付けて表示する。
The
操作部25は、情報端末2を使用する管理者の操作を受け付けるデバイスであり、キーボード、マウス又はタッチパネルである。操作部25は、管理者の操作内容を示す情報を情報送信部231に通知する。
The
[行動推定装置10の構成]
図4は、行動推定装置10の構成を説明するための図である。行動推定装置10は、通信部11と、記憶部12と、制御部13とを有する。制御部13は、画像取得部131と、人検出部132と、被写体検出部133と、設定受付部134と、関係特定部135と、推定部136と、場所特定部137と、出力部138とを有する。
[Configuration of behavior inference device 10]
4 is a diagram for explaining the configuration of the
通信部11は、ネットワークNを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラ又は無線LANコントローラである。記憶部12は、ROM、RAM及びSSD等の記憶媒体を有する。記憶部12は、制御部13が実行するプログラムを記憶している。記憶部12は、情報端末2から取得した設定情報を記憶する。
The communication unit 11 includes a communication device for transmitting and receiving information via the network N. The communication device is, for example, a LAN controller or a wireless LAN controller. The
記憶部12は、推定部136が人の行動内容を推定するために用いられる各種の情報をデータベースに記憶している。記憶部12は、例えば、人の行動内容と、人の動きと、被写体の種別と、人と被写体との相対関係とが関連付けられた行動内容データベースを記憶している。被写体は、物体又は人である。
The
図5は、行動内容データベースの一例を示す図である。図5においては、人の行動内容のカテゴリと、行動内容と、行動内容を特定するための複数の要件とが関連付けられている。複数の要件は、行動を推定する人の属性、人の動き、複数の被写体の種別(図5に示す「被写体1」「被写体2」)、及び人と被写体との相対関係である。人の属性は、例えば購買客又は従業員のように、人の行動を推定する空間における人の立場又は役割等を示す。 Figure 5 is a diagram showing an example of an activity content database. In Figure 5, categories of human activity content, activity content, and multiple requirements for identifying the activity content are associated with each other. The multiple requirements are the attributes of the person whose activity is to be estimated, the movement of the person, multiple types of subjects ("Subject 1" and "Subject 2" shown in Figure 5), and the relative relationship between the person and the subjects. The attributes of a person indicate the position or role of a person in the space in which the human activity is to be estimated, such as a shopper or an employee.
例えば、行動内容「眺める」は、人の属性が「購買客」、人の動きが「注視する」、被写体1が「商品」、相対関係が「人と被写体1との距離は距離A1未満」及び「人の目線と被写体1との方向差は方向差A2未満」という要件に関連付けられている。距離A1は、例えば人が被写体と接触することが可能と考えられる距離の最大値である。方向差A2は、例えば人が被写体を注視していると考えられる目線の方向のうち最も被写体から離れている方向である。詳細については後述するが、推定部136は、行動内容データベースに含まれている要件の組み合わせに対応する行動内容を特定することにより、撮像画像に含まれている被写体の行動内容を特定する。
For example, the activity content "looking" is associated with the requirements that the person's attribute is "shopper", the person's movement is "gazing", the subject 1 is "product", and the relative relationship is "the distance between the person and subject 1 is less than distance A1" and "the directional difference between the person's line of sight and subject 1 is less than directional difference A2". Distance A1 is, for example, the maximum distance at which a person can come into contact with the subject. Direction difference A2 is, for example, the direction of the person's line of sight that is thought to be gazing at the subject, which is the farthest from the subject. Details will be described later, but the
図4に戻って、制御部13は、例えばCPUである。制御部13は、記憶部12に記憶されているプログラムを実行することにより、画像取得部131、人検出部132、被写体検出部133、設定受付部134、関係特定部135、推定部136、場所特定部137及び出力部138として機能する。
Returning to FIG. 4, the control unit 13 is, for example, a CPU. The control unit 13 executes the programs stored in the
画像取得部131は、撮像画像を示す撮像画像データを取得する。画像取得部131は、撮像装置1が撮像して生成した撮像画像データを、通信部11を介して取得する。画像取得部131は、時系列に作成された複数の撮像画像データを取得してもよい。
The
人検出部132は、撮像画像に含まれる人の動きを検出する。人の動きは、例えば図5に示す「人の動き」の欄に記載されたような動きである。人検出部132は、撮像画像に含まれる人の位置を検出し、位置を検出した人の動きをさらに検出する。人検出部132は、例えば撮像画像に含まれる人の関節の位置及び人の目線の向きの変化を特定することにより、撮像画像に含まれる人の動きを検出する。人検出部132は、検出した人の動きを示す人検出情報を推定部136に出力する。
The
人検出部132は、人の属性をさらに検出してもよい。人検出部132は、例えば従業員が着用している作業服又は制服の模様又は色に基づいて従業員であるか否かを判定することにより人の属性を検出する。人検出部132は、記憶部12に記憶されている従業員の顔の輪郭及び形状等の従業員の特徴と、撮像画像に含まれる人の特徴とを比較した結果に基づいて従業員であるか否かを判定することにより人の属性を検出してもよい。
The
被写体検出部133は、撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、撮像画像に含まれる被写体の位置を検出し、位置を検出した被写体の種別をさらに検出する。被写体検出部133は、例えば記憶部12に記憶されている設定情報に含まれている被写体の形状に基づいて撮像画像に含まれる被写体を検出し、被写体の形状に関連付けられた被写体の種別に基づいて撮像画像に含まれる被写体の種別を検出する。被写体検出部133は、検出した被写体の位置と当該被写体の種別とを示す被写体検出情報を推定部136に出力する。
The
被写体検出部133は、撮像画像に含まれる複数の被写体を検出してもよい。被写体検出部133は、撮像画像に含まれる第1被写体及び第2被写体を検出してもよい。第1被写体及び第2被写体は、例えば、図5に示す「被写体1」及び「被写体2」の欄に記載された種別の物品である。被写体検出部133が複数の被写体を検出した場合、推定部136は、検出した複数の被写体のうち一以上の被写体の種別に基づいて人の行動内容を推定する。
The
設定受付部134は、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、例えば、情報端末2が送信した被写体の属性情報と被写体の種別情報とを含む設定情報を受信することで、撮像画像に含まれる被写体の属性の設定を受け付ける。設定受付部134は、受け付けた被写体の属性の設定を含む設定情報を記憶部12に記憶させてもよいし、被写体検出部133に出力してもよい。
The
関係特定部135は、人の動きに伴う人と被写体との関係である相対関係を特定する。関係特定部135は、人検出部132が出力した人検出情報と被写体検出部133が出力した被写体検出情報とに基づいて相対関係を特定する。関係特定部135は、例えば、人検出部132が検出した人の動きに対応する部位と被写体との相対関係を特定する。関係特定部135は、例えば人検出部132が検出した人の動きが「注視する」である場合、人の目と被写体との関係を特定し、「取る」である場合、人の手と被写体との関係を特定する。関係特定部135は、特定した相対関係を推定部136に通知する。相対関係は、推定部136が人の行動内容を特定するために用いられる。関係特定部135は、例えば、人と被写体との距離を相対関係として特定する。関係特定部135は、例えば人検出情報に含まれる人の関節の位置と被写体検出情報に含まれる被写体の位置との差に基づいて人と被写体との距離を特定する。
The
関係特定部135は、人の目線の方向と被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「注視する」又は「見る」等の人の目の動きである場合、人検出情報に含まれる人の目線の方向と被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体を直視した場合の目線の方向と人検出情報に含まれる目線の方向との差を相対関係として特定する。
The
関係特定部135は、人の身体の向きと被写体の位置との関係を、相対関係として特定してもよい。関係特定部135は、例えば人の動きが「会話する」である場合、人検出情報に含まれる人の関節の位置に基づいて特定した人の身体の向きと被写体検出情報に含まれる被写体の位置との関係を、相対関係として特定する。関係特定部135は、例えば人が被写体の正面を向いた場合の身体の向きと人の関節の位置に基づいて特定した身体の向きとの差を相対関係として特定する。
The
関係特定部135は、特定した複数の相対関係に基づいて、相対関係の変化を特定してもよい。関係特定部135は、例えば時系列に作成された複数の撮像画像に基づいて検出された人の複数の動きと被写体とに基づいて、複数の相対関係を特定し、特定した複数の相対関係それぞれに基づいて相対関係の変化を特定する。
The
例えば、時刻Tにおいて、関係特定部135が相対関係を「人と被写体との距離は10cm」と特定し、時刻T+1において、関係特定部135が相対関係を「人と被写体との距離は50cm」と特定した場合、時刻T及び時刻T+1に特定した相対関係に基づいて、関係特定部135は「人が被写体から遠ざかる方向に移動している」と特定する。このように、相対関係の変化を特定することで、関係特定部135は、精度の高い相対関係を特定できる。
For example, if at time T the
関係特定部135は、行動を推定する人と複数の被写体とが撮像画像に含まれている場合、複数の相対関係を特定してもよい。関係特定部135は、例えば人の動きに伴う人と第1被写体との関係である第1相対関係、人の動きに伴う人と第2被写体との関係である第2相対関係、及び人の動きに伴う第1被写体と第2被写体との関係である第3相対関係を特定してもよい。第1相対関係は、例えば人と図5に示す被写体1との相対関係であり、第2相対関係は、人と図5に示す被写体2との相対関係であり、第3相対関係は、被写体1と被写体2との相対関係である。
The
例えば店舗の売場に滞在する購買客が商品をバッグの中に入れた場合、行動を推定する人である購買客は、第1被写体である商品と第2被写体であるバッグとを用いて行動している。そこで、関係特定部135は、購買客と商品との関係である第1相対関係、購買客とバッグとの関係である第2相対関係、及び商品とバッグとの関係である第3相対関係を特定する。関係特定部135がこのような複数の相対関係を推定部136に通知することで、推定部136は、人の行動内容の特定精度を向上させることができる。
For example, if a customer staying in a sales floor of a store puts a product in a bag, the customer, who is the person estimating the behavior, is acting using the product, which is the first subject, and the bag, which is the second subject. Therefore, the
関係特定部135は、撮像画像に含まれている複数の被写体のうち、属性が設定されている被写体と他の被写体との位置関係を特定してもよい。関係特定部135は、例えば被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係をさらに特定する。
The
例えば店舗の売場を撮像した撮像画像は、固定的に設置された商品棚の画像と商品棚に置かれた商品の画像とを含んでいる。万引きを検出するという目的の場合、商品棚の位置と商品の位置との関係が、人が万引きしていると推定する際に有効である。そこで、関係特定部135は、被写体検出部133が検出した被写体である商品の位置と設定受付部134が属性の設定を受け付けた被写体である商品棚の位置との距離の変化を特定する。
For example, an image captured of a sales floor in a store includes images of fixedly installed product shelves and images of products placed on the product shelves. When the purpose is to detect shoplifting, the relationship between the position of the product shelves and the position of the products is effective in inferring that a person is shoplifting. Thus, the
推定部136は、人の行動内容を推定する。推定部136は、被写体の種別と、相対関係との組み合わせに基づいて、人の行動内容を推定する。推定部136は、例えば被写体の種別と相対関係との組み合わせが、記憶部12が記憶している行動内容データベースに含まれているか否かを検索する。推定部136は、行動内容データベースに類似又は一致する組み合わせが含まれている場合、類似又は一致する組み合わせに関連付けられた行動内容を、人の行動内容と推定する。
The
例えば店舗の売場に滞在する人が商品を入れ物に入れた場合、被写体検出部133は、第1被写体である商品と第2被写体である入れ物とを検出する。関係特定部135は、人の手と第1被写体との距離、及び第1被写体と第2被写体との距離に基づいて相対関係を特定する。関係特定部135は、相対関係を「人の手と第1被写体との距離、及び第1被写体と第2被写体との距離のそれぞれが所定の距離(例えば図5に示す距離D1及び距離D2)未満」であると特定する。
For example, when a person in a store's sales area places a product in a container, the
推定部136は、第2被写体の種別が「バッグ」である場合、人の行動内容を万引きと推定し、第2被写体の種別が「商品カゴ」である場合、人の行動内容を買い物と推定する。このように、推定部136は、人の行動が類似する場合であっても、被写体の種別を用いて人の行動内容を推定することで、人の行動を高い精度で推定することができる。
If the type of the second subject is a "bag," the
さらに、推定部136は、関係特定部135が相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定したことにさらに基づいて、人の行動内容を推定してもよい。このように動作することで、推定部136は、人の行動をさらに高い精度で推定することができる。
Furthermore, the
推定部136は、関係特定部135が人と被写体との距離を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた基準距離と、関係特定部135が特定した人と被写体との距離と、を比較した結果に基づいて行動内容を推定してもよい。基準距離は、例えば人の行動内容の特徴に対応する距離であり、図5に示す「距離A1未満」、「距離B1未満」等である。基準距離は、被写体の種別により異なる距離であってもよい。
When the
例えば、店舗に滞在する人が被写体である商品を注視している場合において、関係特定部135は、人と被写体との相対関係を「人と被写体との距離は距離Y1」と特定する。その場合、推定部136は、図5に示す基準距離である「距離A1未満」と関係特定部135が特定した距離Y1とを比較する。距離Y1が距離A1未満である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人と被写体1との距離は距離A1未満」と一致するので、人が商品を眺めている可能性があると判定する。
For example, when a person staying in a store is gazing at a product that is the subject, the
推定部136は、関係特定部135が人の目線の方向と被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた目線の方向と被写体の位置との関係である基準目線関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。目線の方向と被写体の位置との関係は、人の目線の方向と人が被写体を直視する場合の目線の方向との差により表される。基準目線関係は、行動内容の特徴に対応する方向差であり、例えば図5に示す「方向差A2未満」である。
When the
例えば、店舗に滞在する人が被写体である商品を眺めている場合において、関係特定部135は、人と被写体との相対関係を「人の目線の方向と被写体の位置との関係は方向差Y2」と特定する。その場合、推定部136は、図5に示す基準目線関係である「方向差A2未満」と関係特定部135が特定した方向差Y2とを比較する。方向差Y2が方向差A2よりも被写体に近い方向である場合、推定部136は、行動内容である「商品を眺める」に関連付けられた相対関係の1つである「人の目線と被写体1との方向差は方向差A2未満」と一致するので、人が商品を眺めている可能性があると判定する。
For example, when a person staying in a store is looking at a product that is the subject, the
推定部136は、人と被写体との距離、及び人の目線の方向と被写体の位置との方向差の両方が基準を満たしている場合に、人の行動が「商品を眺める」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。
The
推定部136は、関係特定部135が人の身体の向きと被写体の位置との関係を相対関係として特定した場合、被写体検出部133が検出した被写体の種別に関連付けられた身体の向きと被写体の位置との関係である基準身体向き関係と、関係特定部135が特定した人の目線の方向と被写体の位置との関係と、を比較した結果に基づいて行動内容を推定してもよい。身体の向きと被写体の位置との関係は、身体の向きと人が被写体の方向を向いた場合の身体の向きとの差により表される。基準身体向き関係は、行動内容の特徴に対応する向きの差であり、例えば図5に示す向き「角度差B2未満」である。
When the
例えば、店舗に滞在する人(購買客)が被写体である従業員と話している場合において、関係特定部135は、人と被写体との相対関係を「人の身体の向きと被写体の位置との関係は角度差X1」と特定する。その場合、推定部136は、図5に示す基準身体向き関係である「角度差B2未満」と関係特定部135が特定した角度差X1とを比較する。角度差X1が角度差B2よりも被写体に近い方向を向いている場合、推定部136は、行動内容である「従業員と話す」に関連付けられた相対関係の1つである「人の身体の向きと被写体1との角度差は角度差B2未満」と一致するので、人が従業員と話している可能性があると判定する。
For example, when a person (a shopper) staying in a store is talking to an employee who is the subject, the
推定部136は、人と被写体との距離、及び人の身体の向きと被写体の位置との角度差の両方が基準を満たしている場合に、人の行動が「従業員と話す」であると推定してもよい。推定部136が複数の相対関係に基づいて人の行動内容を推定することで、行動内容の推定精度がさらに向上する。
The
推定部136は、関係特定部135が複数の相対関係を用いて相対関係の変化を特定した場合、被写体の種別と、相対関係の変化との組み合わせに基づいて、人の行動内容を推定してもよい。例えば、店舗に滞在している人が手に取った商品をバッグに入れる場合、関係特定部135は、複数の時刻それぞれにおいて第1被写体である商品と第2被写体であるバッグとの距離を相対関係として特定する。関係特定部135は、相対関係の変化を「第1被写体と第2被写体との距離が短くなる」と特定する。
When the
推定部136は、関係特定部135が特定した相対関係の変化と被写体の種別である商品及びバッグとの組み合わせに基づいて、人が商品をバッグに入れる動作であると判定し、人の行動内容を「万引き」と推定する。このように、相対関係の変化を用いることで、推定部136は、人の行動内容の推定精度を向上させることができる。
The
推定部136は、被写体の種別と相対関係の変化との組み合わせに基づいて人の行動内容を推定する場合、複数の撮像画像データのいずれかに、人検出部132が人を検出する前に被写体が含まれていたか否かを判定した結果にさらに基づいて、行動内容を推定してもよい。
When the
例えば、店舗の売場に滞在している人が棚に置かれた物体を取った場合、物体の種別が商品であるか否かを判別する必要がある。この場合、推定部136は、例えば店舗が開店する前の時刻に作成された撮像画像データが示す撮像画像に写った物体と、人検出部132が棚に置かれた物体を取った人を検出した時刻に作成された撮像画像データが示す撮像画像に写った物体とが一致するか否かを判定する。一致すると判定した場合、推定部136は、物体の種別が商品であると特定する。推定部136は、人が物体をバッグに入れ、かつ物体が商品であるという場合に、人の行動内容が「万引き」であると推定する。
For example, if a person in a store's sales floor picks up an object placed on a shelf, it is necessary to determine whether the type of object is a product. In this case, the
このように推定部136が動作することで、例えば来店した購買客が店舗の棚に私物を置き忘れて移動し、一定の時間が経過した後に置き忘れた私物を取りに戻った場合、推定部136は、開店前の撮像画像に基づいて購買客が棚から取った私物と商品とを区別することができる。その結果、推定部136は、万引きではない行動の内容を誤って「万引き」と推定することを抑制できる。
By operating the
推定部136は、撮像画像に基づいて関係特定部135が複数の相対関係を特定した場合、複数の相対関係それぞれと被写体の種別との組み合わせに基づいて、人の行動内容を推定してもよい。
When the
例えば、店舗の売場に滞在している人が棚に置かれた商品をバッグに入れた場合、関係特定部135は、第1相対関係の一例である人と棚との距離、及び第2相対関係の一例である人と商品との距離を特定する。推定部136は、第1相対関係が示す距離と第2相対関係が示す距離とが、それぞれ基準距離未満である場合、第1相対関係と第2相対関係と被写体の種別である商品及びバッグとの組み合わせに基づいて人の行動内容を万引きと推定する。
For example, if a person in a store's sales floor puts a product placed on a shelf into a bag, the
さらに、関係特定部135が複数の時刻に特定した複数の第2相対関係に基づいて、第2相対関係の変化を特定した場合、推定部136は、第1相対関係と第2相対関係の変化と被写体の種別との組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば第1相対関係である「人と棚との距離が基準距離未満」と第2相対関係の変化である「人と商品との距離が短くなる」と被写体の種別である棚及び商品との組み合わせに基づいて人の行動内容を万引きと推定してもよい。
Furthermore, when the
推定部136は、関係特定部135が人と複数の被写体とに基づいて複数の相対関係を特定した場合、複数の相対関係の組み合わせに基づいて人の行動内容を推定してもよい。推定部136は、例えば被写体の種別と、第1相対関係、第2相対関係又は第3相対関係の少なくとも2つの相対関係と、の組み合わせに基づいて、人の行動内容を推定してもよい。
When the
例えば、店舗の売場で人が商品をバッグに入れた場合、被写体検出部133は、商品とバッグとを被写体として検出する。関係特定部135は、人と商品との関係を第1相対関係として特定し、人とバッグとの関係を第2相対関係として特定し、商品とバッグとの関係を第3相対関係として特定する。推定部136は、被写体の種別がバッグ及び商品であることと、人の手とバッグとが距離D1未満であることと、バッグと商品とが距離D2未満であることとに基づいて、人の行動内容を「万引き」と推定する。
For example, when a person puts an item into a bag on the sales floor of a store, the
なお、ここでは、推定部136が第2相対関係及び第3相対関係を用いて人の行動内容を「万引き」と推定する場合を例示したが、推定部136は、第1相対関係である「人が商品を把持している」をさらに用いて人の行動内容を推定してもよい。
Note that, although an example has been given here in which the
推定部136は、人検出部132が検出した人の属性にさらに基づいて、行動内容を推定してもよい。例えば、店舗の売場で人が商品をバッグに入れた場合、人の属性が購買客であれば、推定部136は人の行動内容を「万引き」と推定し、人の属性が従業員であれば、推定部136は人の行動内容を「商品整理」と推定する。このように推定部136が動作することで、推定部136は、例えば商品を手に取る行動である「万引き」と「商品整理」のように、人の動きが類似している場合であっても、行動内容を正しく推定することができる。
The
推定部136は、設定受付部134が受け付けた被写体の属性にさらに基づいて行動内容を推定してもよい。被写体の属性は、例えば被写体の所有者、被写体の機能といった被写体の特徴を示す情報である。例えば、店舗の倉庫等に設置された棚に置かれた物体の属性が「店舗の所有物」であることを設定受付部134が受け付けた場合、推定部136は、物体を取る動きをしている従業員の行動内容を「商品又は備品の整理」と推定する。一方、設定受付部134が物体の属性が「店舗の所有物」でない場合、推定部136は、物体を取る従業員の行動内容を、例えば「私物を動かしている」と推定する。
The
さらに、関係特定部135が、被写体検出部133が検出した被写体と設定受付部134が属性の設定を受け付けた被写体との位置関係を特定した場合、推定部136は、関係特定部135が特定した位置関係と、設定受付部134が設定を受け付けた被写体の属性とにさらに基づいて行動内容を推定してもよい。例えば、関係特定部135が特定した被写体が商品棚であり、設定受付部134が設定を受け付けた被写体が商品棚に置かれた物体である場合、推定部136は、関係特定部135が特定した位置関係に基づいて、従業員以外の人が商品棚に置かれた物体をカバンに入れる動きをしていると判定する。続いて、推定部136は、物体の属性が「店舗の所有物」である場合に、従業員以外の人の行動内容を万引きと推定する。
Furthermore, when the
推定部136は、このように被写体の属性に基づいて行動内容を推定することで、複数の商品と複数の商品とは異なる物体(例えば私物)とが同じ場所に置かれている場合であっても、商品と商品とは異なる物体とを区別して人の行動内容を推定することができる。
By estimating the behavioral content based on the attributes of the subject in this way, the
場所特定部137は、撮像画像に写っている場所を特定する。場所特定部137は、例えば撮像画像に写っている被写体に基づいて撮像画像に写っている場所を特定する。場所特定部137は、例えばGPS(Global Positioning System)信号に基づいて撮像画像に写っている場所を特定してもよい。場所特定部137は、特定した場所を示す情報を出力部138に通知する。
The
出力部138は、推定部136が推定した行動内容を示す行動内容情報を情報端末2に送信する送信部として機能する。出力部138は、推定部136が推定した行動内容と、場所特定部137が特定した場所とが所定の条件を満たす場合に通知情報を出力してもよい。所定の条件は、情報端末2のユーザが通知情報を受けて何かしらの対応をすべきことである。情報端末2のユーザは、例えば撮像装置が店舗に設置されている場合、店舗の従業員又は警備員である。
The
具体的には、推定部136が推定した行動内容が「万引き」であり、場所特定部137が特定した場所が「店舗」である場合、店舗の従業員又は警備員は、万引きをした人を確保する必要がある。したがって、出力部138は、所定の条件を満たすと判定し通知情報を出力する。
Specifically, if the behavior estimated by the
一方、推定部136が推定した行動内容が「商品整理」であり、場所特定部137が特定した場所が「店舗」である場合、推定した行動内容は従業員の通常の行動であるため、出力部138は、所定の条件を満たさないと判定し通知情報を出力しない。このように動作することで、出力部138は、情報端末2のユーザが必要とする情報を出力することができる。
On the other hand, if the activity content estimated by the
出力部138は、場所特定部137が特定した場所と行動内容との組み合わせに対応する種別の通知情報を出力してもよい。例えば、場所特定部137が特定した場所が「店舗の売場」であり、推定部136が推定した人の行動内容が「万引き」である場合、出力部138は、店舗の売場で万引きが行われたことを示す通知情報を出力する。
The
[行動推定装置10のフローチャート]
図6は、行動推定装置10が人の行動内容を推定する動作の一例を示すフローチャートである。図6においては、行動推定装置10が、時刻T1における相対関係と時刻T2における相対関係とに基づいて相対関係の変化を特定し、特定した相対関係の変化を用いて人の行動内容を推定する動作を説明する。
[Flowchart of the behavior inference device 10]
Fig. 6 is a flowchart showing an example of an operation of the
画像取得部131は、撮像装置1が時刻T1において生成した第1撮像画像データを取得する(S11)。場所特定部137は、画像取得部131が取得した第1撮像画像データが示す撮像画像に写っている場所を特定する。また、人検出部132は、第1撮像画像データが示す撮像画像に含まれる人の位置を検出する(S12)。被写体検出部133は、第1撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S13)。関係特定部135は、時刻T1における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S14)。
The
画像取得部131は、撮像装置1が時刻T2において生成した第2撮像画像データを取得する(S15)。人検出部132は、第2撮像画像データが示す撮像画像に含まれる人の位置を検出する(S16)。被写体検出部133は、第2撮像画像データが示す撮像画像に写っている被写体の位置と被写体の種別とを検出する(S17)。関係特定部135は、時刻T2における人の位置と被写体の位置と被写体の種別との関係である相対関係を特定する(S18)。
The
関係特定部135は、S14において特定した時刻T1での相対関係と、S18において特定した時刻T2での相対関係とに基づいて、相対関係の変化を特定する(S19)。推定部136は、関係特定部135が特定した相対関係の変化と被写体検出部133が検出した被写体の種別との組み合わせに基づいて人の行動内容を推定する(S20)。
The
行動推定装置10は、人の行動内容を推定する処理を終了する操作が行われていない場合(S21のNO)、S11からS19までの処理を繰り返す。人の行動内容を推定する処理を終了する操作が行われた場合(S21のYES)、行動推定装置10は、処理を終了する。
If an operation to end the process of estimating the person's behavioral content has not been performed (NO in S21), the
[他の応用例]
以上の説明においては、店舗内での購買客又は従業員の行動内容を推定する場合を例示したが、行動推定装置10は、他の場所の撮像画像に基づいて人の各種の行動内容を推定してもよい。
[Other application examples]
In the above description, an example was given of estimating the behavior of a customer or employee in a store. However, the
(色に基づく推定)
図7は、人又は被写体の色の変化に基づいて人の行動内容を推定する行動推定装置10の構成を示す図である。図7に示す行動推定装置10は、色特定部139を有する点で図4に示す行動推定装置10と異なり、他の点において同じである。色特定部139は、人の色の変化又は被写体の色の変化の少なくともいずれかを特定する。色特定部139は、人検出部132が検出した人の位置又は被写体検出部133が検出した被写体の位置に基づいて、画像取得部131が取得した撮像画像に含まれる人又は被写体の色の変化を特定する。
(Color-based estimation)
Fig. 7 is a diagram showing a configuration of the
推定部136は、色特定部139が特定した人の色の変化又は被写体の色の変化の少なくともいずれかにさらに基づいて、行動内容を推定してもよい。例えば、人がナイフを使用している場合、被写体検出部133は、被写体の種別であるナイフを検出する。関係特定部135は、人と被写体であるナイフとの関係である相対関係を「人と被写体との距離は基準距離未満である」と特定する。色特定部139は人の位置とナイフの位置とに基づいて、人の手及びナイフが赤色に変化したことを特定する。推定部136は、人の手及びナイフが赤色に変化したことに基づいて、人が怪我をしていることを推定する。
The
また、ナイフを使用している人の周囲に他の人が滞在している場合、関係特定部135が被写体であるナイフと他の人との相対関係の変化を「ナイフと他の人との距離が時刻ごとに大きく変化している」と特定したことにより、推定部136は、人の行動内容を危険行動と推定する。そして、色特定部139が、ナイフ又は他の人の色が赤色に変化したことを特定することにより、推定部136は、他の人が怪我をしていることを推定する。
In addition, when other people are around the person using the knife, the
このように色特定部139が人又は被写体の色の変化を特定し、推定部136が色の変化に基づいて人の行動を特定することで、行動推定装置10は、流血等の緊急に対応すべき行動内容を推定することができる。さらに、行動推定装置10は、例えば赤色と異なる色に変化したことを検出することにより、例えばペンキをこぼす等の行動内容を推定することができる。
In this way, the
(危険行為の検出)
行動推定装置10は、例えば屋外に設置された監視カメラの画像に基づいて、屋外で発生した危険行為を検出してもよい。危険行為は、例えば公園に設置されたベンチ等の器物を破壊する行為である。監視カメラの画像に基づいて、空手の動きをする人とベンチとを検出した場合、関係特定部135は、人と被写体であるベンチとの相対関係を特定する。
(Detection of dangerous behavior)
The
関係特定部135が相対関係を「人と被写体との距離は閾値以上」と特定した場合、推定部136は、人の行動内容を「空手の練習」と特定する。閾値は、例えば人が空手等の格技の練習で動く範囲を示す距離である。一方、関係特定部135が相対関係を「人と被写体との距離は閾値未満」と特定した場合、推定部136は、人の行動内容を「ベンチを破壊する」と推定する。このように動作することで、行動推定装置10は、屋外に設置された器物と当該器物の周囲の人の行動とを監視することができる。
When the
(禁止領域への侵入の検出)
行動推定装置10は、監視カメラの画像に基づいて、人が進入禁止の領域に立ち入る行動を推定してもよい。例えば進入禁止の領域の境界に柵が設置されている場合、被写体検出部133は、被写体である柵を検出する。人が柵を乗り越えて侵入した場合、人検出部132は、人が柵を乗り越える動きを検出する。関係特定部135は、相対関係を「人が被写体を乗り越えている」と特定する。推定部136は、被写体の種別である柵と相対関係との組み合わせに基づいて、人の行動内容を「柵の乗り越え」と推定する。
(Detection of intrusion into prohibited area)
The
進入禁止の領域に柵が設置されていない場合、被写体検出部133は、進入禁止の領域を被写体の種別として検出してもよい。進入禁止の領域に人が立ち入った場合、人検出部132は、人が移動していることを検出する。関係特定部135は、被写体である進入禁止の領域を示す位置情報と人が移動した位置とに基づいて、相対関係を「人が被写体の内部を移動している」と特定する。推定部136は、人の行動内容を「進入禁止の領域に侵入」と推定する。
If no fence is installed in the no-entry area, the
このように動作することで、行動推定装置10は、進入禁止の領域に人が立ち入ることを検出することができる。進入禁止の領域の管理者は、行動推定装置10が進入禁止の領域に人が侵入したことを情報端末2に通知することで、人が侵入したことを知るとともに、人に警告を発することができる。
By operating in this manner, the
[行動推定装置10の効果]
以上説明したように、行動推定装置10は、撮像画像に含まれる人の動きを検出する人検出部132と、撮像画像に含まれる被写体の種別を検出する被写体検出部133と、人の動きに伴う人と被写体との関係である相対関係を特定する関係特定部135とを有する。そして、推定部136は、被写体検出部133が検出した被写体の種別と関係特定部135が特定した相対関係とに基づいて人の行動内容を推定する。
[Effects of the behavior inference device 10]
As described above, the
行動推定装置10は、このように被写体の種別と、人と被写体との相対関係とを用いて人の行動内容を推定することで、動きが類似する行動であっても、精度よく人の行動内容を推定することができる。また、行動推定システムSによれば、行動推定装置10が推定した人の行動内容を示す行動内容情報を情報端末2が受信することで、例えば情報端末2のユーザである店舗の従業員は、人の異常行動を精度よく知ることができる。その結果、情報端末2のユーザは、人の行動に正確に対応することができる。
The
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist of the invention. For example, all or part of the device can be configured by distributing or integrating functionally or physically in any unit. In addition, new embodiments resulting from any combination of multiple embodiments are also included in the embodiments of the present invention. The effect of the new embodiment resulting from the combination also has the effect of the original embodiment.
1 撮像装置
2 情報端末
10 行動推定装置
11 通信部
12 記憶部
13 制御部
21 通信部
22 記憶部
23 制御部
24 表示部
25 操作部
131 画像取得部
132 人検出部
133 被写体検出部
134 設定受付部
135 関係特定部
136 推定部
137 場所特定部
138 出力部
139 色特定部
231 情報送信部
232 情報受信部
REFERENCE SIGNS LIST 1 Imaging device 2
Claims (11)
前記撮像画像に含まれる人の動き及び前記人の属性を検出する人検出部と、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、前記人検出部が検出した前記人の属性と、前記被写体検出部が検出した前記被写体の種別と、前記関係特定部が特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定する推定部と、
を有する行動推定装置。 an image acquisition unit that acquires captured image data representing a captured image;
a person detection unit that detects a movement of a person and an attribute of the person included in the captured image;
a subject detection unit that detects a type of subject other than the person included in the captured image;
a relationship specification unit that specifies a relative relationship between the person and the subject in association with the person's movement;
an estimation unit that estimates whether the behavioral content of the person is fraudulent behavior or not based on a combination of the attribute of the person detected by the person detection unit, the type of the subject detected by the subject detection unit, and the relative relationship identified by the relationship identification unit by referring to behavioral content data in which an attribute of the person, whether the person is an employee or not, a type of the subject, a relative relationship between the person and the subject, and information indicating whether the behavioral content of the person is fraudulent behavior or not ;
A behavior estimation device having the above configuration.
請求項1に記載の行動推定装置。The behavior inference device according to claim 1 .
請求項1に記載の行動推定装置。 The type of the subject is represented by any one of a product, equipment, person, or an item other than a product or equipment .
The behavior inference device according to claim 1 .
前記推定部は、前記行動内容データを参照することにより、前記被写体検出部が検出した前記被写体の種別と、前記相対関係との組み合わせに基づいて、前記進入禁止領域に入ったという前記人の行動内容を推定する、
請求項1に記載の行動推定装置。 the subject detection unit detects a no-entry area as a type of subject included in the captured image,
the estimation unit estimates the behavioral content of the person that has entered the no-entry area based on a combination of the type of the subject detected by the subject detection unit and the relative relationship by referring to the behavioral content data.
The behavior inference device according to claim 1 .
前記推定部は、前記人検出部が検出した前記人の位置が前記柵よりも高くなったという前記相対関係に基づいて、当該人が前記柵を乗り越えたと推定する、
請求項4に記載の行動推定装置。 the subject detection unit detects a fence as a boundary of the no-entry area,
the estimation unit estimates that the person has climbed over the fence based on the relative relationship that the position of the person detected by the person detection unit is higher than the fence.
The behavior inference device according to claim 4 .
前記推定部は、前記被写体検出部が検出した前記被写体の種別に関連付けられた基準距離と、前記関係特定部が特定した前記人と前記被写体との距離と、を比較した結果にさらに基づいて前記行動内容を推定する、
請求項1から5のいずれか一項に記載の行動推定装置。 the relationship specification unit specifies a distance between the person and the subject as the relative relationship;
the estimation unit estimates the activity content further based on a result of comparing a reference distance associated with the type of the subject detected by the subject detection unit with a distance between the person and the subject identified by the relationship identification unit.
The behavior inference device according to claim 1 .
前記関係特定部は、前記相対関係の変化を特定し、
前記推定部は、前記被写体の種別と、前記相対関係の変化との組み合わせにさらに基づいて、前記人の行動内容を推定する、
請求項1から6のいずれか一項に記載の行動推定装置。 the image acquisition unit acquires a plurality of pieces of captured image data created in chronological order;
The relationship specification unit specifies a change in the relative relationship,
The estimation unit estimates the action content of the person based on a combination of the type of the subject and the change in the relative relationship.
The behavior inference device according to claim 1 .
前記関係特定部は、前記人の動きに伴う前記人と前記第1被写体との関係である第1相対関係、前記人の動きに伴う前記人と前記第2被写体との関係である第2相対関係、及び前記人の動きに伴う前記第1被写体と前記第2被写体との関係である第3相対関係を特定し、
前記推定部は、前記被写体の種別と、前記第1相対関係、前記第2相対関係又は前記第3相対関係の少なくとも2つの相対関係と、の組み合わせにさらに基づいて、前記人の行動内容を推定する、
請求項1から7のいずれか一項に記載の行動推定装置。 the subject detection unit detects a first subject and a second subject included in the captured image;
the relationship specifying unit specifies a first relative relationship that is a relationship between the person and the first subject associated with a movement of the person, a second relative relationship that is a relationship between the person and the second subject associated with a movement of the person, and a third relative relationship that is a relationship between the first subject and the second subject associated with a movement of the person,
the estimation unit estimates the action content of the person based on a combination of the type of the subject and at least two of the first relative relationship, the second relative relationship, or the third relative relationship.
The behavior inference device according to claim 1 .
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動き及び前記人の属性を検出するステップと、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、検出した前記人の属性と、検出した前記被写体の種別と、特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定するステップと、
を有する行動推定方法。 The computer executes
acquiring captured image data indicative of a captured image;
detecting a movement of a person and an attribute of the person included in the captured image;
detecting a type of a subject other than the person included in the captured image;
Identifying a relative relationship between the person and the subject in association with the person's movement;
a step of referring to behavior content data in which an attribute of the person, whether or not the person is an employee, a type of the subject, a relative relationship between the person and the subject, and information indicating whether or not the behavior content of the person is fraudulent behavior are associated with each other, and estimating whether or not the behavior content of the person is fraudulent behavior based on a combination of the detected attribute of the person, the detected type of the subject, and the specified relative relationship;
The behavior estimation method has the following features.
撮像画像を示す撮像画像データを取得するステップと、
前記撮像画像に含まれる人の動き及び前記人の属性を検出するステップと、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出するステップと、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定するステップと、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、検出した前記人の属性と、検出した前記被写体の種別と、特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定するステップと、
を実行させるためのプログラム。 On the computer,
acquiring captured image data indicative of a captured image;
detecting a movement of a person and an attribute of the person included in the captured image;
detecting a type of a subject other than the person included in the captured image;
Identifying a relative relationship between the person and the subject in association with the person's movement;
a step of referring to behavior content data in which an attribute of the person, whether or not the person is an employee, a type of the subject, a relative relationship between the person and the subject, and information indicating whether or not the behavior content of the person is fraudulent behavior are associated with each other, and estimating whether or not the behavior content of the person is fraudulent behavior based on a combination of the detected attribute of the person, the detected type of the subject, and the specified relative relationship;
A program for executing.
前記行動推定装置は、
撮像画像を示す撮像画像データを取得する画像取得部と、
前記撮像画像に含まれる人の動き及び前記人の属性を検出する人検出部と、
前記撮像画像に含まれる前記人と異なる被写体の種別を検出する被写体検出部と、
前記人の動きに伴う前記人と前記被写体との関係である相対関係を特定する関係特定部と、
従業員であるか否かという前記人の属性と、前記被写体の種別と、前記人と前記被写体との相対関係と、前記人の行動内容が不正行動であるか否かを示す情報とが関連付けられた行動内容データを参照することにより、前記人検出部が検出した前記人の属性と、前記被写体検出部が検出した前記被写体の種別と、前記関係特定部が特定した前記相対関係と、の組み合わせに基づいて、前記人の行動内容が不正行動であるか否かを推定する推定部と、
前記推定部が推定した前記行動内容を示す行動内容情報を前記情報端末に送信する送信部と、
を有し、
前記情報端末は、
前記行動内容情報を受信する情報受信部と、
前記情報受信部が受信した前記行動内容情報に基づいて前記行動内容を表示する表示部と、
を有する行動推定システム。
A behavior estimation device that estimates a behavior of a person based on a captured image generated by an imaging device, and an information terminal that displays the behavior of the person estimated by the behavior estimation device,
The behavior estimation device includes:
an image acquisition unit that acquires captured image data representing a captured image;
a person detection unit that detects a movement of a person and an attribute of the person included in the captured image;
a subject detection unit that detects a type of subject other than the person included in the captured image;
a relationship specification unit that specifies a relative relationship between the person and the subject in association with the person's movement;
an estimation unit that estimates whether the behavioral content of the person is fraudulent behavior or not based on a combination of the attribute of the person detected by the person detection unit, the type of the subject detected by the subject detection unit, and the relative relationship identified by the relationship identification unit by referring to behavioral content data in which an attribute of the person, whether the person is an employee or not, a type of the subject, a relative relationship between the person and the subject, and information indicating whether the behavioral content of the person is fraudulent behavior or not ;
a transmission unit that transmits, to the information terminal, activity content information indicating the activity content estimated by the estimation unit;
having
The information terminal includes:
an information receiving unit for receiving the action content information;
a display unit that displays the activity content based on the activity content information received by the information receiving unit;
A behavior estimation system having the above configuration.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021042085A JP7649934B2 (en) | 2020-10-30 | 2021-03-16 | Behavior estimation device, behavior estimation method, program, and behavior estimation system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020182477A JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
JP2021042085A JP7649934B2 (en) | 2020-10-30 | 2021-03-16 | Behavior estimation device, behavior estimation method, program, and behavior estimation system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182477A Division JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022073882A JP2022073882A (en) | 2022-05-17 |
JP2022073882A5 JP2022073882A5 (en) | 2023-11-24 |
JP7649934B2 true JP7649934B2 (en) | 2025-03-24 |
Family
ID=75267983
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182477A Active JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
JP2021042085A Active JP7649934B2 (en) | 2020-10-30 | 2021-03-16 | Behavior estimation device, behavior estimation method, program, and behavior estimation system |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020182477A Active JP6854959B1 (en) | 2020-10-30 | 2020-10-30 | Behavior estimation device, behavior estimation method, program and behavior estimation system |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6854959B1 (en) |
WO (1) | WO2022092032A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023275968A1 (en) * | 2021-06-29 | 2023-01-05 | 日本電信電話株式会社 | Abnormality determination device, abnormality determination method, and abnormality determination program |
JP7624941B2 (en) | 2022-03-08 | 2025-01-31 | Kddi株式会社 | Motion prediction device, method and program |
WO2024004209A1 (en) * | 2022-07-01 | 2024-01-04 | 日本電信電話株式会社 | Estimation device, learning device, method, and program |
WO2024252494A1 (en) * | 2023-06-05 | 2024-12-12 | 日本電信電話株式会社 | Video processing device, method, and program |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252248A (en) | 2005-03-11 | 2006-09-21 | Meidensha Corp | Trespasser detecting system by image processing |
JP2007048249A (en) | 2005-08-08 | 2007-02-22 | Ara Software:Kk | Safety monitoring system |
JP2011227647A (en) | 2010-04-19 | 2011-11-10 | Secom Co Ltd | Suspicious person detection device |
JP2015011649A (en) | 2013-07-02 | 2015-01-19 | パナソニック株式会社 | Personal behavior analysis device, personal behavior analysis system, personal behavior analysis method, and monitoring device |
WO2015033576A1 (en) | 2013-09-06 | 2015-03-12 | 日本電気株式会社 | Security system, security method, and non-temporary computer-readable medium |
JP2015179984A (en) | 2014-03-19 | 2015-10-08 | 株式会社東芝 | Image processing apparatus, and method and program therefor |
JP2016057738A (en) | 2014-09-08 | 2016-04-21 | 富士ゼロックス株式会社 | Confirmation action detection device and confirmation action detection program |
JP2016081174A (en) | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | Associated program and information processing apparatus |
JP2017174272A (en) | 2016-03-25 | 2017-09-28 | 富士ゼロックス株式会社 | Information processing device and program |
WO2019146385A1 (en) | 2018-01-29 | 2019-08-01 | 京セラ株式会社 | Image processing device, imaging device, moving body, and image processing method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016201105A (en) * | 2015-04-07 | 2016-12-01 | 三菱電機株式会社 | Information processor and information processing method |
JP2017033401A (en) * | 2015-08-04 | 2017-02-09 | 株式会社 impactTV | Customer information collection device, customer information collection system and customer information collection method |
US11922482B2 (en) * | 2018-03-09 | 2024-03-05 | Nec Corporation | Self-checkout system, purchased product management method, and purchased product management program |
US10535146B1 (en) * | 2018-07-16 | 2020-01-14 | Accel Robotics Corporation | Projected image item tracking system |
-
2020
- 2020-10-30 JP JP2020182477A patent/JP6854959B1/en active Active
-
2021
- 2021-03-16 JP JP2021042085A patent/JP7649934B2/en active Active
- 2021-10-25 WO PCT/JP2021/039325 patent/WO2022092032A1/en active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006252248A (en) | 2005-03-11 | 2006-09-21 | Meidensha Corp | Trespasser detecting system by image processing |
JP2007048249A (en) | 2005-08-08 | 2007-02-22 | Ara Software:Kk | Safety monitoring system |
JP2011227647A (en) | 2010-04-19 | 2011-11-10 | Secom Co Ltd | Suspicious person detection device |
JP2015011649A (en) | 2013-07-02 | 2015-01-19 | パナソニック株式会社 | Personal behavior analysis device, personal behavior analysis system, personal behavior analysis method, and monitoring device |
WO2015033576A1 (en) | 2013-09-06 | 2015-03-12 | 日本電気株式会社 | Security system, security method, and non-temporary computer-readable medium |
JP2015179984A (en) | 2014-03-19 | 2015-10-08 | 株式会社東芝 | Image processing apparatus, and method and program therefor |
JP2016057738A (en) | 2014-09-08 | 2016-04-21 | 富士ゼロックス株式会社 | Confirmation action detection device and confirmation action detection program |
JP2016081174A (en) | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | Associated program and information processing apparatus |
JP2017174272A (en) | 2016-03-25 | 2017-09-28 | 富士ゼロックス株式会社 | Information processing device and program |
WO2019146385A1 (en) | 2018-01-29 | 2019-08-01 | 京セラ株式会社 | Image processing device, imaging device, moving body, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2022072825A (en) | 2022-05-17 |
JP2022073882A (en) | 2022-05-17 |
JP6854959B1 (en) | 2021-04-07 |
WO2022092032A1 (en) | 2022-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7649934B2 (en) | Behavior estimation device, behavior estimation method, program, and behavior estimation system | |
US10636267B2 (en) | RFID tag tracking systems and methods in identifying suspicious activities | |
US8267316B2 (en) | Systems and methods for merchandise checkout | |
RU2753959C2 (en) | Video analysis module and method for generating materials for investigating user's behavior | |
EP1459272B1 (en) | A surveillance system with suspicious behaviour detection | |
US11270562B2 (en) | Video surveillance system and video surveillance method | |
WO2012024303A1 (en) | Theft prevention system and method | |
US20140225734A1 (en) | Inhibiting alarming of an electronic article surviellance system | |
US20250225851A1 (en) | Monitoring device, suspicious object detecting method, and recording medium | |
CN109558785A (en) | Safety defense monitoring system and the unmanned convenience store for applying it | |
WO2020134100A1 (en) | Control method, device and system for vending machine, and vending machine | |
JP5594879B2 (en) | Image monitoring device | |
US20250029421A1 (en) | Person-of-interest (poi) detection | |
US10891480B2 (en) | Image zone processing | |
US20200084416A1 (en) | Information processing apparatus, control method, and program | |
JP6536643B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM | |
TWI538503B (en) | Monitoring method and camera | |
CN118447445B (en) | Goods anti-theft method and system based on Internet of things technology | |
JP2017076171A (en) | Shoplifting detection system, shoplifting detection method, and shoplifting detection program | |
CN117912174A (en) | Anti-theft early warning method, device, equipment and computer readable storage medium | |
CN111583521A (en) | Safety protection method and device | |
JP2021135646A (en) | Abnormal behavior detection method, abnormal behavior detection program and abnormal behavior detection device | |
US12211280B2 (en) | Vision system for classifying persons based on visual appearance and dwell locations | |
Song et al. | Continual Learning Based Personalized Abnormal Behavior Recognition Alarm System | |
WO2018104998A1 (en) | Information processing device, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231026 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20231027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7649934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |