JP2019012328A - Person action estimation system - Google Patents
Person action estimation system Download PDFInfo
- Publication number
- JP2019012328A JP2019012328A JP2017127426A JP2017127426A JP2019012328A JP 2019012328 A JP2019012328 A JP 2019012328A JP 2017127426 A JP2017127426 A JP 2017127426A JP 2017127426 A JP2017127426 A JP 2017127426A JP 2019012328 A JP2019012328 A JP 2019012328A
- Authority
- JP
- Japan
- Prior art keywords
- tool
- action
- video
- human
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006399 behavior Effects 0.000 claims description 71
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、人物の行動推定システムに関する。 The present invention relates to a human behavior estimation system.
特許文献1には、「人物行動判定装置は、映像に含まれる1以上の人物領域を所定のフレーム間隔で機械学習により検出する人物領域検出手段と、人物領域毎に特徴量を算出すると共に、複数のフレーム画像において人物領域の特徴量が類似する人物領域を同一人物の人物領域と判定し、同一人物の人物領域の重心位置を連結して人物軌跡を生成する人物軌跡生成手段と、人物軌跡毎に特徴量を算出すると共に、人物軌跡の特徴量が行動条件を満たすか否かを判定し、人物軌跡の特徴量が行動条件を満たすときは、人物が行動条件に対応する行動を行っていると判定する人物行動判定手段と、を備える。」と記載されている。
映像解析による人物の動作認識は、映像中から人物領域を切り出し、その人物の輪郭を正確に取得し、人物を正確に抽出できていることが前提となっている。しかし、人物が抽出できたとしても、人の行動は、カメラの位置、手の位置、体の位置などにより死角が生じてしまい、正確な人物の行動推定が困難である。 Human motion recognition by video analysis is based on the premise that a person region is cut out from video, the outline of the person is accurately acquired, and the person can be extracted accurately. However, even if a person can be extracted, a blind spot occurs in the human action due to the position of the camera, the position of the hand, the position of the body, etc., and it is difficult to accurately estimate the action of the person.
特許文献1では、人物軌跡の特徴量が人物の行動毎に予め設定された行動条件を満たすか否かにより、人物の行動を判定する人物行動判定装置について記載されている。しかし、死角に隠れた行動に行動条件を設定することは難しく、このような場合に人物の行動を正確に判定するためには情報が不足していると考えられる。
このために、特許請求の範囲に記載の構成を採用する。例えば、本発明に係る、人が道具を用いて行う行動を判別する人行動推定システムは、行動を撮影した映像を取得する映像取得部と、映像取得部からの映像に基づき、あらかじめ定められた人行動定義から、映像に撮影された行動に対しての人行動候補を出力する人行動判別部と、道具に付されたセンサからセンサ情報を取得する道具データ取得部と、道具データ取得部からのセンサ情報に基づき、あらかじめ定められた道具動作定義から、センサ情報が取得された道具に対しての道具動作候補を出力する道具動作判別部と、人行動判別部より出力された人行動候補及び道具動作判別部より出力された道具動作候補に基づき、映像取得部からの映像に撮影された行動を推定する総合人行動判別部とを有する。 For this purpose, the configuration described in the claims is adopted. For example, according to the present invention, a human behavior estimation system that discriminates a behavior performed by a person using a tool is determined in advance based on a video acquisition unit that acquires a video of the action and a video from the video acquisition unit. From a human action definition, a human action discriminating section that outputs human action candidates for actions taken in the video, a tool data acquiring section that acquires sensor information from a sensor attached to the tool, and a tool data acquiring section Based on the sensor information of the tool, a tool motion discrimination unit that outputs tool motion candidates for the tool for which sensor information has been acquired from a predetermined tool motion definition, and a human behavior candidate output from the human behavior discrimination unit and And a general human action discriminating unit for estimating an action photographed in the video from the video acquiring unit based on the tool motion candidate output from the tool motion discriminating unit.
行動推定対象とする人の行動を、人を撮影している映像からの行動推定と、人が使用している工具の動作推定とを用いることで、精度よく実現することができる。 The action of the person to be the action estimation target can be realized with high accuracy by using the action estimation from the video of photographing the person and the motion estimation of the tool used by the person.
図1に人行動推定システム1の処理フローを示す。人行動推定システム1は一般的なPC(Personal Computer)などのローカル環境で実現しても、クラウドのようなネットワーク経由で実現しても、どちらでもよい。
FIG. 1 shows a processing flow of the human
図8に人行動推定システム1を実現するハードウェア構成例を示す。計算機800は、プロセッサ801、主記憶802、補助記憶803、入出力インタフェース804、表示インタフェース805、ネットワークインタフェース806を含み、これらはバス807により結合されている。入出力インタフェース804は、キーボードやマウス等の入力装置809と接続されてユーザインタフェースを提供する。表示インタフェース805は、ディスプレイ808に接続される。ネットワークインタフェース806は計算機800と外部ネットワーク(図示せず)とを接続するためのインタフェースである。
FIG. 8 shows a hardware configuration example for realizing the human
補助記憶803は通常、HDDやフラッシュメモリなどの不揮発性メモリで構成され、計算機800が実行するプログラムやプログラムが処理対象とするデータ等を記憶する。主記憶802はRAMで構成され、プロセッサ801の命令により、プログラムやプログラムの実行に必要なデータ等を一時的に記憶する。プロセッサ801は、補助記憶803から主記憶802にロードしたプログラムを実行する。
The
人行動推定システム1の処理ブロックのそれぞれはプログラムとして補助記憶803に格納されており、補助記憶803から主記憶802にロードされ、プロセッサ801により実行される。また、図1に特定のデータの格納するデータベースについても、それぞれ補助記憶803に記憶され、あるいは補助記憶803から主記憶802に呼び出されて処理がなされる。以下では、一応用例として、製造ラインの作業員が正しく部品の取り付けや加工を行っているかを監視する監視システムに人行動推定システム1を適用した場合を例にとって説明する。
Each processing block of the human
カメラ装置200は行動推定対象の人(この例では製造ラインの作業者)を撮影する。映像取得部10はカメラ装置200で撮影された映像(動画像)を取得し、映像情報蓄積部11に格納する。システムではあらかじめ判別したい人の行動を人行動定義12として定義しておく。例えば、図3のテーブル400では、「人」「領域」「動作」の3カテゴリについて、人の行動を定義する例を示している。
The
「人」カテゴリは、行動推定対象の人が誰かを定義する。この例では「人A」、「人B」が定義されている。「領域」カテゴリは、行動推定対象の人が撮影された映像のどの領域において行動(作業)しているかを定義する。これは、製造ラインの作業員がどの作業をどこで行うか、およそ定まっているため、行動推定対象の人がどこで行動しているかは行動推定に重要な情報であるためである。このため、図2のようにカメラ装置200によって撮影される映像空間を区分し(この例では3×3の9領域に区分している)、行動推定対象の人が映っている位置を定義する。なお、単純化のためカメラ装置200を固定として、映像空間により領域を区分する例で本実施例は説明するが、カメラ装置200がステレオカメラであれば、3次元空間で定義してもよい。さらに、現実空間の領域を区分し、公知の映像処理技術により、映像から行動推定対象の人がどの現実空間の領域にいるか解析してもよい。「動作」カテゴリは、行動推定対象の人が何の行動(作業)をしているかを定義する。この例では「ねじをしめる」、「穴をあける」、「ねじをゆるめる」といった作業が定義されている。この定義はカメラ装置200で撮影された映像(動画像)から判別したい内容にしたがって定めればよい。「動作」カテゴリは作業マニュアル等により作業者が製造ラインにおいて実行する作業であって監視システムにおいて判別したい作業を洗い出して定めることができる。なお、これらの全てのカテゴリについて定義することを要求するものではなく、行動推定対象の人が誰であるか特定不要であれば、「人」カテゴリを定義する必要はない。あるいは、例えば、作業者の服装や装備のように、必要に応じて別の定義カテゴリを設けてもよい。
The “person” category defines who is the target of behavior estimation. In this example, “person A” and “person B” are defined. The “region” category defines in which region of the video where the person who is the target of behavior estimation is photographed (working). This is because what work is performed by the worker on the production line is roughly determined, and where the person who is the object of the action estimation is acting is important information for action estimation. For this reason, as shown in FIG. 2, the video space photographed by the
一方、行動推定対象とする人が用いる工具であるドライバ101a、錐101bには、振動センサや加速度センサなどのセンサ103a,bが取り付けられている。センサの種類は特に限定されず、工具ごとに異なっていても、また複数のセンサが設けられていても構わない。工具データ取得部20は、工具101が使用される位置を示す位置情報及び、工具101に取り付けられたセンサ103からのセンサデータやセンサデータを加工した情報もしくは、工具の出力情報を取得し、工具データ蓄積部21へ格納する。例えば、ドライバ101aに加速度センサ103aが取り付けられている場合、ねじをしめる動作時に取得した加速度データや加工した軌跡データを蓄積する。また、工具101が使用される位置情報については工具から取得しても、映像取得部10で取得された映像から検出するようにしてもよい。システムではあらかじめ判別したい人の行動に伴う工具動作を工具動作定義22として定義しておく。例えば、図4のテーブル500では、「工具」「領域」「動作」の3カテゴリについて、人の行動を定義する例を示している。
On the other hand,
「工具」カテゴリは、行動推定対象の人が使用する工具を定義する。この例では「ドライバ」、「錐」が定義されている。「領域」カテゴリは、工具が用いられている領域を定義する。これは、製造ラインの作業員がどの作業をどこで行うか、およそ定まっているため、工具が用いられる場所もそれに伴って限定されることによる。領域は人行動定義と同様に定めることができ、人行動定義と同じ領域定義をしてもよいし、異なる領域定義をしてもよい。図4の例では同じ領域定義をしている。「動作」カテゴリは、工具で行われる動作を定義する。この例ではドライバであれば「ねじをしめる」、「ねじをゆるめる」、錐であれば「穴をあける」といった動作が定義されている。 The “tool” category defines a tool used by a person whose behavior is to be estimated. In this example, “driver” and “cone” are defined. The “region” category defines the region in which the tool is used. This is due to the fact that where the workers on the production line perform what operations and where, the places where the tools are used are limited accordingly. The area can be defined in the same manner as the human action definition, and the same area definition as the human action definition or a different area definition may be used. In the example of FIG. 4, the same area definition is made. The “Action” category defines actions performed on the tool. In this example, an operation such as “tighten a screw”, “loosen a screw” for a driver, and “open a hole” for a cone is defined.
人行動学習部13では、まずカメラ装置200から取得し、映像情報蓄積部11に蓄積された映像を人行動定義12に基づき定義する。これが学習データとなる。図3に示すテーブル400は学習データの例であり、例えば、レコード401は映像「a.mpeg」は「人A」が領域「X1Y1及びX1Y2」において「ねじをしめる」動作をおこなっている映像であると定義するものである。学習データ400により人の行動を判別するモデルをつくる。例えば、ディープラーニング等の機械学習を用いて、カメラ装置200から取得した映像から人の行動を判別するモデルを作成する。人行動学習結果であるモデルは、人行動学習結果蓄積部14に保存される。
The human
工具動作学習部23では、まず工具101に取り付けられたセンサ103から取得し、工具データ蓄積部21に蓄積された工具データを工具動作定義22に基づき定義する。これが学習データとなる。図4に示すテーブル500は学習データの例であり、例えば、レコード501は、工具データ「a.csv」は「ドライバ」が領域「X1Y3」において「ねじをしめる」動作をおこなっている工具データであると定義するものである。なお、工具に取り付けられたセンサが加速度センサであれば、工具データ「a.csv」とは、検出した加速度の時系列データやそれを加工した特徴量データ(テキストデータファイル)である。学習データ500により工具動作を判別するモデルをつくる。例えば、ディープラーニング等の機械学習を用いて、工具に取り付けられたセンサ103から取得した工具データから工具動作を判別するモデルを作成する。工具動作学習結果であるモデルは、工具動作学習結果蓄積部24に保存される。
The tool
人行動判別部15は、人行動学習結果蓄積部14に保存されたモデルを映像取得部10からの映像に適用して、人の行動を推定して人の行動候補を出力する。ここでは複数の行動候補を出力することを許容する。同様に、工具動作判別部25は、工具動作学習結果蓄積部24に保存されたモデルを工具データ取得部20からの工具データに適用して、工具動作を推定して工具の動作候補を出力する。ここでは複数の動作候補を出力することを許容する。
The human
図5に総合人行動判別部2のフローチャートを示す。まず、工具動作判別部25の結果の有無を判定する(S51)。工具動作判別部25からの工具動作候補がない場合は人行動判別部15の人の行動候補を結果として出力する。工具動作判別部25の工具動作候補がある場合、人行動判別部15の人の行動候補と工具動作判別部25の工具動作候補を比較して一致判定する(S52)。人行動判別部15からの人の行動候補と工具動作判別部25からの工具動作候補とが一致する場合は、一致したものを人の行動判別結果として出力する。不一致の場合、人の行動候補と工具の動作候補から人の行動を推定して、推定結果を出力する(S53)。
FIG. 5 shows a flowchart of the general human
総合人行動判別部2は、映像のみからでは行動推定対象の人の行動を判定することが困難であることが多いことから、工具からの動作情報により判定精度を高めるものである。例えば、図6Aは、「人A」が、「ドライバ101a」で領域「X1Y1, X1Y2」において「ねじをしめる」状況を映した映像の一シーンである。同様に、図6Bは、「人A」が、「錐101b」で領域「X2Y1, X2Y2」において「穴をあける」状況を映した映像の一シーンである。また同様に、図6Cは、「人B」が、「ドライバ101a」で領域「X2Y1, X2Y2」において「ねじをゆるめる」状況を映した映像の一シーンである。これらは、人が目視で行動を判定する場合でも、類似の映像であるため判定が難しいものである。まして、画像処理による行動判定では、これらの類似行動を正確に判別することは難しく、さらに、重要な行動判定のもととなる工具は人の影に隠れてしまい、映像から常時確認することが難しい。
The general human
例えば、人Aが監視領域全体のおよそ左下半分の領域においてドライバによりねじをしめる作業を行っているとし、本実施例では、まず、その状況に対する映像を映像取得部10が、その状況に対する工具データを工具データ取得部20が取得し、それぞれ人行動判別部15及び工具動作判別部25がそれぞれ学習結果蓄積部のモデルを用いて判別する。ここで、人行動定義は図3に、工具動作定義は図4のようであったとする。
For example, it is assumed that the person A is performing an operation of screwing with a driver in the lower left half region of the entire monitoring region. In this embodiment, first, the
このとき、人行動判別部15は、「人A」が領域「X1Y1, X1Y2」において「ねじをしめる」という人行動候補401と、「人A」が領域「X2Y1, X2Y2」において「ねじをしめる」という人行動候補402と、「人B」が領域「X2Y1, X2Y2」において「穴をあける」という人行動候補403と、「人A」が領域「X2Y1, X2Y2」において「ねじをゆるめる」という人行動候補405とを人行動候補として出力する可能性がある。
At this time, the human
なお、人は動きながら行動したり、あるいは作業位置が人行動定義における監視領域の区分を跨っていたりする場合には、一連の作業であったとしても人行動判別部15は複数の人行動候補を出力する可能性がある。例えば、上述の例であれば人行動候補401と人行動候補402の双方を出力する。このような場合には、連続動作である場合には、いずれか一方(例えば、候補を推定したときの領域)を出力するようにしてもかまわない。
In addition, when a person moves while moving or the work position crosses the section of the monitoring area in the human action definition, the human
一方、工具動作判別部25は、「ドライバ」が領域「X2Y1」において「ねじをしめる」という動作候補502と、「ドライバ」が領域「X2Y2」において「ねじをしめる」という動作候補503とを出力する可能性がある。なお、工具の位置情報にずれが生じたりや工具の位置が工具動作定義における監視領域の区分を跨っていたりする場合には、一連の作業であったとしても工具動作判別部25は複数の工具動作候補を出力する可能性がある。このような場合には、人行動候補と同様に、連続動作である場合には、いずれか一方(例えば、候補を推定したときの領域)を出力するようにしてもかまわない。
On the other hand, the tool
総合人行動判別部2では、まず、人行動判別部15で出力した人行動候補と工具動作判別部25の出力した工具動作候補とを照合し、矛盾するものを除く。例えば、「穴をあける」人行動候補403、「ねじをゆるめる」人行動候補405は出力された工具動作候補から排除される。さらに、図7のように、人行動判別部15が推定した人行動候補と、工具動作判別部25が推定した工具動作候補とのマッピングを行い、その重なりに基づき人行動推定候補として出力する。この場合、「人A」が領域「X2Y1, X2Y2」において、「ドライバ101a」で「ねじをしめる」を人行動推定候補とする。なお、総合人行動判別部2においても、図7のようなマッピング状況をディープラーニングなどの機械学習により分類問題として学習し、人行動推定するようにしてもよい。
First, the comprehensive human
また、本実施例では工具の使用領域を定義しているため、例えば、工具動作定義が図4のようであれば、錐101bは領域「X2Y2」、「X3Y1」での使用のみが定義されているため、工具動作判別部25または総合人行動判別部2により、領域「X2Y2」、「X3Y1」以外での使用状況が取得できれば警告を発することが可能となり、工具の誤使用や誤作業防止を図ることも可能である。具体的には、工具動作判別部25は、該当する道具動作定義がないと判別する場合、あるいは総合人行動判別部2が該当する人行動定義がないと推定する場合に警告を発する。
In addition, since the tool use area is defined in this embodiment, for example, if the tool motion definition is as shown in FIG. 4, the
以上、本発明を製造ラインにおける監視システムに適用した場合を例に説明したが、記載の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、工具は行動推定対象の人が使用する一般的な道具やものに拡張可能である。上述の実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 As described above, the case where the present invention is applied to the monitoring system in the production line has been described as an example. However, the present invention is not limited to the described embodiment, and includes various modifications. For example, the tool can be extended to a general tool or thing used by a person whose behavior is to be estimated. The above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
1:人行動推定システム、2:総合人行動判別部、10:映像取得部、11:映像情報蓄積部、12:人行動定義、13:人行動学習部、14:人行動学習結果蓄積部、15:人行動判別部、20:工具データ取得部、21:工具データ蓄積部、22:工具動作定義、23:工具動作学習部、24:工具動作学習結果蓄積部、25:工具動作判別部、101:工具、103:センサ、200:カメラ装置。 1: human behavior estimation system, 2: comprehensive human behavior determination unit, 10: video acquisition unit, 11: video information storage unit, 12: human behavior definition, 13: human behavior learning unit, 14: human behavior learning result storage unit, 15: Human action determination unit, 20: Tool data acquisition unit, 21: Tool data storage unit, 22: Tool motion definition, 23: Tool motion learning unit, 24: Tool motion learning result storage unit, 25: Tool motion determination unit, 101: Tool, 103: Sensor, 200: Camera device.
Claims (6)
前記行動を撮影した映像を取得する映像取得部と、
前記映像取得部からの前記映像に基づき、あらかじめ定められた人行動定義から、前記映像に撮影された前記行動に対しての人行動候補を出力する人行動判別部と、
前記道具に付されたセンサからセンサ情報を取得する道具データ取得部と、
前記道具データ取得部からの前記センサ情報に基づき、あらかじめ定められた道具動作定義から、前記センサ情報が取得された前記道具に対しての道具動作候補を出力する道具動作判別部と、
前記人行動判別部より出力された前記人行動候補及び前記道具動作判別部より出力された前記道具動作候補に基づき、前記映像取得部からの前記映像に撮影された前記行動を推定する総合人行動判別部とを有する人行動推定システム。 A human behavior estimation system that discriminates a human action using a tool,
A video acquisition unit that acquires a video of the behavior;
Based on the video from the video acquisition unit, from a predetermined human behavior definition, a human behavior determination unit that outputs human behavior candidates for the behavior photographed in the video,
A tool data acquisition unit for acquiring sensor information from a sensor attached to the tool;
Based on the sensor information from the tool data acquisition unit, a tool operation determination unit that outputs a tool operation candidate for the tool from which the sensor information has been acquired from a predetermined tool operation definition;
Based on the human action candidate output from the human action determination unit and the tool action candidate output from the tool action determination unit, a comprehensive human action that estimates the action taken in the video from the video acquisition unit A human behavior estimation system having a discrimination unit.
前記人行動定義は、前記行動が行われる領域を示す第1領域情報を含み、
前記道具動作定義は、前記道具が使用される領域を示す第2領域情報を含み、
前記総合人行動判別部は、前記人行動候補の前記第1領域情報及び前記道具動作候補の前記第2領域情報に基づきマッピングすることにより、前記映像取得部からの前記映像に撮影された前記行動を推定する人行動推定システム。 In claim 1,
The human action definition includes first area information indicating an area where the action is performed,
The tool action definition includes second area information indicating an area where the tool is used,
The comprehensive human action determination unit performs mapping based on the first area information of the human action candidate and the second area information of the tool action candidate, thereby performing the action taken on the video from the video acquisition unit. Human behavior estimation system that estimates
前記第1領域情報は、前記映像の映像空間を区分することにより定義される人行動推定システム。 In claim 2,
The first area information is a human behavior estimation system defined by dividing a video space of the video.
前記道具動作判別部が、前記センサ情報が取得された前記道具に対して該当する前記道具動作定義がないと判別する場合、または前記総合人行動判別部が前記映像に撮影された前記行動に対して該当する前記人行動定義がないと推定する場合に警告を発する人行動推定システム。 In claim 2,
When the tool motion determination unit determines that there is no corresponding tool motion definition for the tool from which the sensor information is acquired, or the comprehensive human behavior determination unit responds to the action photographed in the video A human behavior estimation system that issues a warning when it is estimated that there is no corresponding human behavior definition.
前記人行動判別部は、前記人行動定義と前記映像取得部からの前記映像とを対応付けた学習データによって機械学習させることによって得られる学習モデルを用いて前記映像に撮影された前記行動に対しての前記人行動候補を出力する人行動推定システム。 In claim 1,
The human behavior determination unit is configured to detect the behavior captured in the video using a learning model obtained by machine learning using learning data in which the human behavior definition and the video from the video acquisition unit are associated with each other. A human behavior estimation system for outputting all human behavior candidates.
前記道具動作判別部は、前記道具動作定義と前記前記道具データ取得部からの前記センサ情報とを対応付けた学習データによって機械学習させることによって得られる学習モデルを用いて前記センサ情報が取得された前記道具に対しての前記道具動作候補を出力する人行動推定システム。 In claim 1,
The tool motion determination unit has acquired the sensor information using a learning model obtained by machine learning using learning data in which the tool motion definition and the sensor information from the tool data acquisition unit are associated with each other. A human behavior estimation system that outputs the tool motion candidates for the tool.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017127426A JP6783713B2 (en) | 2017-06-29 | 2017-06-29 | Human behavior estimation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017127426A JP6783713B2 (en) | 2017-06-29 | 2017-06-29 | Human behavior estimation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019012328A true JP2019012328A (en) | 2019-01-24 |
JP6783713B2 JP6783713B2 (en) | 2020-11-11 |
Family
ID=65226949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017127426A Active JP6783713B2 (en) | 2017-06-29 | 2017-06-29 | Human behavior estimation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6783713B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020131813A (en) * | 2019-02-14 | 2020-08-31 | 株式会社シマノ | Output device, generation method for learning model, computer program, and storage medium |
WO2021192084A1 (en) * | 2020-03-25 | 2021-09-30 | 株式会社日立製作所 | Work learning model generation device, work inference device, and work learning model generation method |
WO2022107521A1 (en) * | 2020-11-19 | 2022-05-27 | 株式会社日立製作所 | Work observation system, work analysis method, and education assistance system |
JP2022097461A (en) * | 2020-12-18 | 2022-06-30 | トヨタ自動車株式会社 | Computer-enhanced process monitoring methods, equipment, systems, computer programs, and recording media |
WO2022157988A1 (en) * | 2021-01-22 | 2022-07-28 | オムロン株式会社 | Work estimation device, control method for work estimation device, information processing program, and recording medium |
WO2023090274A1 (en) | 2021-11-18 | 2023-05-25 | オムロン株式会社 | Work recognition device, work recognition method, and work recognition program |
WO2023152825A1 (en) * | 2022-02-09 | 2023-08-17 | 日本電気株式会社 | Movement evaluation system, movement evaluation method, and non-transitory computer-readable medium |
WO2023152893A1 (en) * | 2022-02-10 | 2023-08-17 | 日本電気株式会社 | Management device, management system, management method, and program |
JP7471435B2 (en) | 2020-09-17 | 2024-04-19 | 株式会社日立国際電気 | Image processing device, imaging device, and image processing method |
WO2025013191A1 (en) * | 2023-07-11 | 2025-01-16 | 日本電気株式会社 | Behavior inference device, behavior inference method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12118741B2 (en) * | 2019-06-13 | 2024-10-15 | Nec Corporation | Three-dimensional person behavior estimation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250708A (en) * | 2004-03-03 | 2005-09-15 | Nippon Telegr & Teleph Corp <Ntt> | Tool movement recognition device and tool movement recognition method |
JP2016038716A (en) * | 2014-08-07 | 2016-03-22 | 株式会社ナ・デックス | Work supervisory device, work supervisory system and program |
JP2016181220A (en) * | 2015-03-25 | 2016-10-13 | 株式会社Screenホールディングス | Work management device |
-
2017
- 2017-06-29 JP JP2017127426A patent/JP6783713B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250708A (en) * | 2004-03-03 | 2005-09-15 | Nippon Telegr & Teleph Corp <Ntt> | Tool movement recognition device and tool movement recognition method |
JP2016038716A (en) * | 2014-08-07 | 2016-03-22 | 株式会社ナ・デックス | Work supervisory device, work supervisory system and program |
JP2016181220A (en) * | 2015-03-25 | 2016-10-13 | 株式会社Screenホールディングス | Work management device |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020131813A (en) * | 2019-02-14 | 2020-08-31 | 株式会社シマノ | Output device, generation method for learning model, computer program, and storage medium |
JP7337510B2 (en) | 2019-02-14 | 2023-09-04 | 株式会社シマノ | Output device, learning model generation method, computer program, and storage medium |
WO2021192084A1 (en) * | 2020-03-25 | 2021-09-30 | 株式会社日立製作所 | Work learning model generation device, work inference device, and work learning model generation method |
JP7471435B2 (en) | 2020-09-17 | 2024-04-19 | 株式会社日立国際電気 | Image processing device, imaging device, and image processing method |
WO2022107521A1 (en) * | 2020-11-19 | 2022-05-27 | 株式会社日立製作所 | Work observation system, work analysis method, and education assistance system |
JP7453126B2 (en) | 2020-11-19 | 2024-03-19 | 株式会社日立製作所 | Work observation system, work analysis method, and educational support system |
JP2022097461A (en) * | 2020-12-18 | 2022-06-30 | トヨタ自動車株式会社 | Computer-enhanced process monitoring methods, equipment, systems, computer programs, and recording media |
WO2022157988A1 (en) * | 2021-01-22 | 2022-07-28 | オムロン株式会社 | Work estimation device, control method for work estimation device, information processing program, and recording medium |
WO2023090274A1 (en) | 2021-11-18 | 2023-05-25 | オムロン株式会社 | Work recognition device, work recognition method, and work recognition program |
WO2023152825A1 (en) * | 2022-02-09 | 2023-08-17 | 日本電気株式会社 | Movement evaluation system, movement evaluation method, and non-transitory computer-readable medium |
WO2023152893A1 (en) * | 2022-02-10 | 2023-08-17 | 日本電気株式会社 | Management device, management system, management method, and program |
WO2025013191A1 (en) * | 2023-07-11 | 2025-01-16 | 日本電気株式会社 | Behavior inference device, behavior inference method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6783713B2 (en) | 2020-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019012328A (en) | Person action estimation system | |
JP5455787B2 (en) | Motion analysis apparatus and motion analysis method | |
CN111402287B (en) | System and method for standardized evaluation of activity sequences | |
JP7114885B2 (en) | Worksite monitoring devices and programs | |
TW201818297A (en) | Work recognition device and work recognition method | |
JP7234787B2 (en) | Work analysis device, work analysis method and program | |
JPWO2018154709A1 (en) | Motion learning device, skill discrimination device and skill discrimination system | |
JP7222231B2 (en) | Action recognition device, action recognition method and program | |
US11756326B2 (en) | Keepout zone detection and active safety system | |
US11138805B2 (en) | Quantitative quality assurance for mixed reality | |
JP6504180B2 (en) | Anomaly detection device, anomaly detection method and anomaly detection program | |
JPWO2016199356A1 (en) | Motion analysis apparatus, motion analysis method, and motion analysis program | |
JP7401280B2 (en) | Work process discrimination device and work process discrimination system | |
US10996235B2 (en) | System and method for cycle duration measurement in repeated activity sequences | |
KR101812089B1 (en) | Apparatus and method for discriminating of bloodstains, and computer program for executing the method | |
WO2020194386A1 (en) | Information processing device, determination output method, and determination output program | |
JPWO2023286149A5 (en) | ||
WO2022004189A1 (en) | Work evaluation device and work evaluation method | |
JP2018529130A5 (en) | ||
JP2020008932A (en) | Image processing device, image processing method, and program | |
JP2008165705A (en) | Image processor and image processing method | |
JP2015112215A (en) | Office space monitoring system | |
JP2014002502A (en) | Stretched-out hand detector, stretched-out hand detecting method and program | |
JP7376446B2 (en) | Work analysis program and work analysis device | |
US12106566B2 (en) | Image processing apparatus that manages checking work performed on articles and image processing method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6783713 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |