JP6710644B2 - 動作解析装置、動作解析方法およびプログラム - Google Patents
動作解析装置、動作解析方法およびプログラム Download PDFInfo
- Publication number
- JP6710644B2 JP6710644B2 JP2017000316A JP2017000316A JP6710644B2 JP 6710644 B2 JP6710644 B2 JP 6710644B2 JP 2017000316 A JP2017000316 A JP 2017000316A JP 2017000316 A JP2017000316 A JP 2017000316A JP 6710644 B2 JP6710644 B2 JP 6710644B2
- Authority
- JP
- Japan
- Prior art keywords
- series data
- time series
- time
- section
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- General Factory Administration (AREA)
Description
本実施形態では、現場で作業を行う作業者と、作業者が使用する工具、部品、現場の稼動設備などの物体にそれぞれ小型のセンサを取り付けて、作業者と物体の双方の動きを計測する。そして、作業者側のセンサ出力に基づく時系列データと、物体側のセンサ出力に基づく時系列データとを照合することにより、作業者が物体を使用して作業を行った区間を検出し、その区間の作業者の動きを表す時系列データに対して物体を特定するラベル付けを行う。ラベル付けされた時系列データは、作業者による動作を推定するための推定器を機械学習により構築するための学習データの生成に用いることができる。学習データを用いて推定器を構築した後は、この推定器を用いて、作業者側のセンサ出力に基づく時系列データのみから、作業者による物体の使用を推定することが可能となる。
本実施形態の動作解析装置100は、図11に示すように、第1処理部120に動作区間抽出部124を設け、対応区間検出部122が、動作区間検出部124により抽出された動作区間を用いて対応区間を検出する構成であってもよい。
本実施形態の動作解析装置100は、図14に示すように、第2処理部130と第3処理部140とにそれぞれ特徴量算出部134,142を設け、第1時系列データから算出された特徴量を用いて学習データの生成や動作の推定を行う構成であってもよい。第1時系列データから算出する特徴量としては、解析区間における波形の振幅平均値・分散値・標準偏差値、高周波数帯および低周波数帯での波形の振幅平均値や、分散値、また周波数解析後に最大パワー値を持つ周波数値の少なくとも1つを用いることができる。
本実施形態では、複数の作業者が同一の工具を使用することが想定される場合に、複数の作業者の各々に装着された第1センサユニット10からの複数の第1時系列データと、工具に装着された第2センサユニット20からの第2時系列データとを用いて、工具がいつ、どの作業者により使用されたかを特定する。上述の第1実施形態では、推定器の構築に用いる学習データを生成する目的で、第1時系列データと第2時系列データとの対応区間を検出して第1時系列データにラベル付けしたが、本実施形態では、主に複数の作業者が使用する工具の使用履歴を記録する目的で、複数の第1時系列データのいずれかと第2時系列データとの対応区間を検出して第2時系列データにラベル付けする。
本実施形態では、検出された対応区間における第1波形と第2波形との類似度と、この対応区間の時系列データから算出される特徴量の少なくともいずれかを、指定された数のクラスタに分類して、その分類結果を含むオブジェクト対応情報180を、ストレージデバイス103などに記憶させる。
上述した各実施形態では、現場における作業者の動作を解析する用途を想定して、動きの計測対象となるオブジェクトについて、第1オブジェクトは作業者(人)であり、第2オブジェクトは作業者が使用する工具、部品、現場の稼動設備など(物体)であるものとして説明した。しかし、上述した各実施形態は、現場における作業者の動作を解析する用途に限らず様々な用途での応用が可能であり、その用途における動きの計測対象が第1オブジェクトおよび第2オブジェクトとなる。例えば、第1オブジェクトをロボットとし、第2オブジェクトをそのロボットが使用する道具とすれば、ロボットの動作を解析する用途での応用が可能となる。
20 第2センサユニット
100 動作解析装置
122 対応区間検出部
123 対応付け部
124 動作区間抽出部
131 学習データ生成部
132 推定器構築部
134 特徴量算出部
141 動作推定部
142 特徴量算出部
180 オブジェクト対応情報
200 動作解析装置
300 動作解析装置
301 特徴量算出部
302 分類部
Claims (16)
- 第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データを表す第1波形、または、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データを表す第2波形の高周波帯の波形に対して所定の時間長さの解析窓を用いて求めた統計量が第1閾値以上である区間と、前記第1波形または前記第2波形の低周波帯の波形に対して所定の時間長さの解析窓を用いて求めた変化量が第2閾値以上である区間と、該変化量が前記第2閾値を下回ってから次に前記第2閾値以上となるまでの区間であって区間長が第3閾値以下である区間とを、動きがあったと推定される動作区間として抽出する動作区間抽出部と、
抽出された前記動作区間を用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する対応区間検出部と、
検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける対応付け部と、
を備える動作解析装置。 - 第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとを用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する対応区間検出部と、
検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける対応付け部と、
前記対応付け部による対応付けの結果を用いて、前記第1時系列データにおける前記対応区間に対して前記第2オブジェクトを特定する情報をラベル付けし、ラベル付けした前記第1時系列データを用いて学習データを生成する学習データ生成部と、
前記学習データを用いた機械学習により推定器を構築する推定器構築部と、
を備える動作解析装置。 - 前記対応区間検出部は、前記第1時系列データを表す第1波形と前記第2時系列データを表す第2波形との類似度が基準値以上となる区間を前記対応区間として検出し、
前記対応付け部は、前記対応区間における前記第1波形と前記第2波形との類似度をさらに対応付ける、
請求項1または請求項2に記載の動作解析装置。 - 前記第1センサと前記第2センサは、振動を計測する加速度センサ、回転運動を計測するジャイロセンサ、または、地磁気を検出する地磁気センサのうちの少なくとも1つである、
請求項1乃至3のいずれか一項に記載の動作解析装置。 - 前記第1オブジェクトは人であり、前記第2オブジェクトは前記人が使用する物体である、
請求項1乃至4のいずれか一項に記載の動作解析装置。 - 前記学習データ生成部は、前記第1時系列データから算出された特徴量を用いて前記学習データを生成する、
請求項2に記載の動作解析装置。 - 前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定する動作推定部をさらに備える、
請求項2または6に記載の動作解析装置。 - 前記対応区間検出部は、前記第2時系列データから、複数の第1オブジェクトに対応する複数の前記第1時系列データのうちのいずれか1つに類似または共起している前記対応区間を検出し、
前記対応付け部は、検出された前記対応区間を特定する情報に対し、前記第2時系列データに類似または共起している前記第1時系列データに対応する前記第1オブジェクトを特定する情報を対応付ける、
請求項1乃至7のいずれか一項に記載の動作解析装置。 - 前記対応区間における前記第1時系列データを表す第1波形と前記第2時系列データを表す第2波形との類似度、または、前記対応区間の前記第1時系列データまたは前記第2時系列データから算出された特徴量を、指定された数のクラスタに分類する分類部をさらに備え、
前記対応付け部は、前記分類部による分類結果をさらに対応付ける、
請求項1乃至7のいずれか一項に記載の動作解析装置。 - 第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データであって、前記第1時系列データの区間のうち、前記第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとが類似または共起している区間である対応区間に対して前記第2オブジェクトを特定する情報がラベル付けされた前記第1時系列データを用いて生成された学習データを用いた機械学習により構築された推定器に対して、前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定する動作推定部
を備える動作解析装置。 - コンピュータにより実行される動作解析方法であって、
動作区間抽出部が、第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データを表す第1波形、または、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データを表す第2波形の高周波帯の波形に対して所定の時間長さの解析窓を用いて求めた統計量が第1閾値以上である区間と、前記第1波形または前記第2波形の低周波帯の波形に対して所定の時間長さの解析窓を用いて求めた変化量が第2閾値以上である区間と、該変化量が前記第2閾値を下回ってから次に前記第2閾値以上となるまでの区間であって区間長が第3閾値以下である区間とを、動きがあったと推定される動作区間として抽出するステップと、
対応区間検出部が、抽出された前記動作区間を用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出するステップと、
対応付け部が、検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付けるステップと、
を含む動作解析方法。 - コンピュータにより実行される動作解析方法であって、
対応区間検出部が、第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとを用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出するステップと、
対応付け部が、検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付けるステップと、
学習データ生成部が、前記対応付け部による対応付けの結果を用いて、前記第1時系列データにおける前記対応区間に対して前記第2オブジェクトを特定する情報をラベル付けし、ラベル付けした前記第1時系列データを用いて学習データを生成するステップと、
推定器構築部が、前記学習データを用いた機械学習により推定器を構築するステップと、
を含む動作解析方法。 - コンピュータにより実行される動作解析方法であって、
動作推定部が、第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データであって、前記第1時系列データの区間のうち、前記第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとが類似または共起している区間である対応区間に対して前記第2オブジェクトを特定する情報がラベル付けされた前記第1時系列データを用いて生成された学習データを用いた機械学習により構築された推定器に対して、前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定するステップ
を含む動作解析方法。 - コンピュータに、
第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データを表す第1波形、または、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データを表す第2波形の高周波帯の波形に対して所定の時間長さの解析窓を用いて求めた統計量が第1閾値以上である区間と、前記第1波形または前記第2波形の低周波帯の波形に対して所定の時間長さの解析窓を用いて求めた変化量が第2閾値以上である区間と、該変化量が前記第2閾値を下回ってから次に前記第2閾値以上となるまでの区間であって区間長が第3閾値以下である区間とを、動きがあったと推定される動作区間として抽出する機能と、
抽出された前記動作区間を用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する機能と、
検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける機能と、
を実現させるためのプログラム。 - コンピュータに、
第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとを用いて、前記第1時系列データと前記第2時系列データとが類似または共起している区間である対応区間を検出する機能と、
検出された前記対応区間を特定する情報に対し、前記第1オブジェクトを特定する情報と前記第2オブジェクトを特定する情報の少なくとも一方を対応付ける機能と、
対応付けの結果を用いて、前記第1時系列データにおける前記対応区間に対して前記第2オブジェクトを特定する情報をラベル付けし、ラベル付けした前記第1時系列データを用いて学習データを生成する機能と、
前記学習データを用いた機械学習により推定器を構築する機能と、
を実現させるためのプログラム。 - コンピュータに、
第1オブジェクトの動きを計測する第1センサの出力に基づく第1時系列データであって、前記第1時系列データの区間のうち、前記第1時系列データと、第2オブジェクトの動きを計測する第2センサの出力に基づく第2時系列データとが類似または共起している区間である対応区間に対して前記第2オブジェクトを特定する情報がラベル付けされた前記第1時系列データを用いて生成された学習データを用いた機械学習により構築された推定器に対して、前記第1時系列データまたは該第1時系列データから算出された特徴量を入力とし、前記推定器のプログラムおよびパラメータに基づいて前記第1オブジェクトの動作を推定する機能
を実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017000316A JP6710644B2 (ja) | 2017-01-05 | 2017-01-05 | 動作解析装置、動作解析方法およびプログラム |
US15/659,948 US11030564B2 (en) | 2017-01-05 | 2017-07-26 | Motion analysis apparatus, motion analysis method, and computer program product |
CN201710759598.6A CN108279767A (zh) | 2017-01-05 | 2017-08-30 | 动作分析装置以及动作分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017000316A JP6710644B2 (ja) | 2017-01-05 | 2017-01-05 | 動作解析装置、動作解析方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018109882A JP2018109882A (ja) | 2018-07-12 |
JP6710644B2 true JP6710644B2 (ja) | 2020-06-17 |
Family
ID=62712447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017000316A Active JP6710644B2 (ja) | 2017-01-05 | 2017-01-05 | 動作解析装置、動作解析方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11030564B2 (ja) |
JP (1) | JP6710644B2 (ja) |
CN (1) | CN108279767A (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6922983B2 (ja) * | 2017-07-13 | 2021-08-18 | 日本電気株式会社 | 分析システム、分析方法及びプログラム |
KR102180149B1 (ko) * | 2018-08-26 | 2020-11-17 | (주)아이티공간 | IoT 기반 센서의 데이터 추출 및 전송방법 |
JP6952660B2 (ja) * | 2018-08-28 | 2021-10-20 | 株式会社東芝 | 更新支援装置、更新支援方法およびプログラム |
CN109379762B (zh) * | 2018-09-10 | 2021-09-14 | 中国联合网络通信集团有限公司 | 一种随机信号数据统计方法和系统 |
JP7048896B2 (ja) * | 2018-09-20 | 2022-04-06 | 日本電信電話株式会社 | 学習データ生成装置、学習データ生成方法およびプログラム |
JP7502849B2 (ja) * | 2019-01-23 | 2024-06-19 | オムロン株式会社 | 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム |
JP7137150B2 (ja) * | 2019-03-14 | 2022-09-14 | オムロン株式会社 | 動作分析装置、動作分析方法及び動作分析プログラム |
CN115467382A (zh) * | 2019-05-24 | 2022-12-13 | 川崎重工业株式会社 | 带学习功能的建筑机械 |
US11651249B2 (en) * | 2019-10-22 | 2023-05-16 | EMC IP Holding Company LLC | Determining similarity between time series using machine learning techniques |
JP7173373B2 (ja) * | 2019-11-01 | 2022-11-16 | 株式会社デンソー | 同期装置、同期方法、および同期プログラム |
JP7362037B2 (ja) * | 2019-11-05 | 2023-10-17 | オムロン株式会社 | 要素作業分割装置、要素作業分割方法、要素作業分割プログラム及び要素作業分割システム |
JP7385826B2 (ja) * | 2019-11-08 | 2023-11-24 | オムロン株式会社 | 動作分析装置、動作分析方法及び動作分析プログラム |
WO2021100128A1 (ja) * | 2019-11-19 | 2021-05-27 | 三菱電機株式会社 | 教師データ生成装置、教師データ生成方法、教師データ生成プログラムおよび記憶媒体 |
JP2021140303A (ja) | 2020-03-03 | 2021-09-16 | トヨタ自動車株式会社 | 学習方法、学習システム及び学習プログラム |
JP7414678B2 (ja) * | 2020-09-15 | 2024-01-16 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3823804B2 (ja) * | 2001-10-22 | 2006-09-20 | ソニー株式会社 | 信号処理方法及び装置、信号処理プログラム、並びに記録媒体 |
JP2006338373A (ja) * | 2005-06-02 | 2006-12-14 | Toshiba Corp | 多変数時系列データ分析装置、方法およびプログラム |
JP4262726B2 (ja) * | 2005-08-24 | 2009-05-13 | 任天堂株式会社 | ゲームコントローラおよびゲームシステム |
JP5159263B2 (ja) * | 2007-11-14 | 2013-03-06 | 株式会社日立製作所 | 作業情報処理装置、プログラム及び作業情報処理方法 |
JP2010263953A (ja) * | 2009-05-12 | 2010-11-25 | Oki Electric Ind Co Ltd | 運動分析装置、プログラム及び方法、並びに、運動分析システム |
JP5337241B2 (ja) * | 2009-06-05 | 2013-11-06 | 株式会社東芝 | 映像編集装置 |
JP5440080B2 (ja) * | 2009-10-02 | 2014-03-12 | ソニー株式会社 | 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム |
JP4785975B1 (ja) * | 2010-03-26 | 2011-10-05 | 有限会社グーテック | 動作判別装置、動作判別方法、及び動作判別コンピュータ・プログラム |
US8909497B1 (en) * | 2010-04-06 | 2014-12-09 | Keynetik, Inc. | System and method for fall detection |
JP5541085B2 (ja) * | 2010-10-27 | 2014-07-09 | カシオ計算機株式会社 | 動物監視支援装置、及び動物監視支援方法、監視支援サーバ、監視支援端末、プログラム |
US9116220B2 (en) * | 2010-12-27 | 2015-08-25 | Microsoft Technology Licensing, Llc | Time synchronizing sensor continuous and state data signals between nodes across a network |
JP5885549B2 (ja) | 2012-03-15 | 2016-03-15 | 株式会社東日製作所 | 締付工具、締付位置管理システムおよび締付位置特定方法 |
JP5803962B2 (ja) * | 2013-03-22 | 2015-11-04 | ソニー株式会社 | 情報処理装置、センサ装置、情報処理システムおよび記録媒体 |
WO2015177835A1 (ja) * | 2014-05-19 | 2015-11-26 | 株式会社Moff | 配信システム、配信方法及び配信装置 |
JP5998182B2 (ja) * | 2014-08-04 | 2016-09-28 | ヤフー株式会社 | Poiデータ生成装置、端末装置、poiデータ生成方法およびプログラム |
WO2016035464A1 (ja) * | 2014-09-04 | 2016-03-10 | ソニー株式会社 | 解析方法、システムおよび解析装置 |
US9911031B2 (en) * | 2014-09-05 | 2018-03-06 | The Boeing Company | Obtaining metrics for a position using frames classified by an associative memory |
CN105581798A (zh) * | 2014-11-17 | 2016-05-18 | 吕俊逸 | 脚部动作的辨识装置及脚部动作的辨识方法 |
WO2016081946A1 (en) * | 2014-11-21 | 2016-05-26 | The Regents Of The University Of California | Fast behavior and abnormality detection |
EP3270346A4 (en) * | 2015-03-12 | 2019-03-13 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
-
2017
- 2017-01-05 JP JP2017000316A patent/JP6710644B2/ja active Active
- 2017-07-26 US US15/659,948 patent/US11030564B2/en active Active
- 2017-08-30 CN CN201710759598.6A patent/CN108279767A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2018109882A (ja) | 2018-07-12 |
CN108279767A (zh) | 2018-07-13 |
US11030564B2 (en) | 2021-06-08 |
US20180189700A1 (en) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6710644B2 (ja) | 動作解析装置、動作解析方法およびプログラム | |
Ward et al. | Activity recognition of assembly tasks using body-worn microphones and accelerometers | |
US9891701B2 (en) | Apparatus, system, and method for automatic identification of sensor placement | |
US11373289B2 (en) | Analysis apparatus and analysis method | |
JP2010207488A (ja) | 行動解析装置及びプログラム | |
JP6083799B2 (ja) | 携帯デバイスの携帯場所判定方法、携帯デバイス、携帯デバイスの携帯場所判定システム、プログラム及び情報記憶媒体 | |
US12242987B2 (en) | Techniques for tailoring fabrication environments based on user, task, and expertise | |
JP4719826B2 (ja) | 作業認識装置 | |
JP2018045512A (ja) | 作業性評価装置 | |
EP3322327B1 (en) | Methods for adaptive noise quantification in dynamic biosignal analysis | |
JP2016206033A (ja) | 振動状態推定装置、振動状態推定方法、およびプログラム | |
EP3001281A1 (en) | Obtaining metrics for a position using frames classified by an associative memory | |
JP5118620B2 (ja) | 動態認識装置、動態認識システムおよび動態認識方法 | |
Wu et al. | A multi-sensor fall detection system based on multivariate statistical process analysis | |
Azadi et al. | Feasibility analysis of unsupervised industrial activity recognition based on a frequent micro action | |
US20240104456A1 (en) | Work action recognition system and work action recognition method | |
US20200012993A1 (en) | Task estimation method and information processing apparatus | |
JP2019103609A (ja) | 動作状態推定装置、動作状態推定方法及びプログラム | |
Yordanova et al. | Kitchen task assessment dataset for measuring errors due to cognitive impairments | |
JP2015016135A (ja) | 特徴量抽出装置、方法、およびプログラム | |
WO2019039448A1 (ja) | 動作判定プログラム、動作判定装置、動作判定用画像生成プログラム、動作判定用画像生成装置 | |
JP2013175043A (ja) | 動作主識別方法、動作主識別システム、動作主識別プログラム及び情報記憶媒体 | |
Park et al. | A watch-type human activity detector for the aged care | |
CN119314692B (zh) | 基于康复需求的心脏康复管理系统及方法 | |
Kyritsis et al. | Considerations for the design of an activity recognition system using inertial sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200403 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200527 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6710644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |