JP7665986B2 - Work level conversion device, work level conversion method, and work level conversion program - Google Patents
Work level conversion device, work level conversion method, and work level conversion program Download PDFInfo
- Publication number
- JP7665986B2 JP7665986B2 JP2021005059A JP2021005059A JP7665986B2 JP 7665986 B2 JP7665986 B2 JP 7665986B2 JP 2021005059 A JP2021005059 A JP 2021005059A JP 2021005059 A JP2021005059 A JP 2021005059A JP 7665986 B2 JP7665986 B2 JP 7665986B2
- Authority
- JP
- Japan
- Prior art keywords
- level
- information
- task
- sequence data
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Economics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Strategic Management (AREA)
- Biophysics (AREA)
- Human Resources & Organizations (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
Description
本発明は、作業レベル変換装置、作業レベル変換方法及び作業レベル変換プログラムに関する。 The present invention relates to a task level conversion device, a task level conversion method, and a task level conversion program.
工場等の生産現場では、作業者の動作を分析して作業者が実施した作業を認識し、その作業の内容を評価することが行われている。例えば、下記特許文献1には、物体とその物体を用いて作業した作業者の体の部位との関連付けを行って、その作業者が実施した作業を認識し、その認識結果に基づいて作業の内容を評価する作業認識装置が開示されている。 At production sites such as factories, the movements of workers are analyzed to recognize the work performed by the worker and evaluate the content of that work. For example, the following Patent Document 1 discloses a work recognition device that associates an object with a part of the body of the worker who used the object, recognizes the work performed by the worker, and evaluates the content of the work based on the recognition results.
ところで、生産現場において実施される作業は、粒度が異なる作業レベルに分けることができる。例えば、箱詰めの作業は、箱を治具に固定する作業と製品を箱に収納する作業とに分けることができる。この場合、箱詰めの作業が、上位レベルの作業となり、箱を治具に固定する作業及び製品を箱に収納する作業が、下位レベルの作業となる。この下位レベルの作業に分けられた箱を治具に固定する作業は、箱を把持する作業と箱を運搬する作業と箱を調整する作業とにさらに分けることができる。この場合、箱を治具に固定する作業が、上位レベルの作業となり、箱を把持する作業、箱を運搬する作業及び箱を調整する作業が、下位レベルの作業となる。 Meanwhile, the work carried out at a production site can be divided into work levels with different granularity. For example, the work of packing a box can be divided into the work of fixing the box to a jig and the work of storing the product in the box. In this case, the work of packing a box is a higher-level work, and the work of fixing the box to a jig and the work of storing the product in the box are lower-level work. The work of fixing a box to a jig, which has been divided into this lower-level work, can be further divided into the work of gripping the box, the work of transporting the box, and the work of adjusting the box. In this case, the work of fixing the box to the jig is a higher-level work, and the work of gripping the box, the work of transporting the box, and the work of adjusting the box are lower-level work.
作業の内容を評価する場合、作業レベルごとに評価の内容を設定することがある。したがって、作業を認識するときに、異なるレベルの作業を認識できると、より有効な評価を行うことが可能となる。 When evaluating the content of work, the content of the evaluation may be set for each level of work. Therefore, when recognizing work, being able to recognize different levels of work allows for more effective evaluation.
しかしながら、特許文献1では、同じレベルの作業を認識することにとどまっており、認識する作業を異なるレベルの作業に変換することはできない。 However, the technology in Patent Document 1 is limited to recognizing tasks at the same level and cannot convert the recognized tasks into tasks at a different level.
ここで、本願出願人による特願2019-200826には、対象となる動作に基づく作業を、部品単位の作業に分割することで、上位レベルの作業を下位レベルの複数の作業に変換する手法が記載されている。しかしながら、下位レベルの複数の作業を上位レベルの作業に変換する手法については記載がない。 Here, Japanese Patent Application No. 2019-200826 filed by the applicant of the present application describes a method for converting a higher-level task into multiple lower-level tasks by dividing a task based on a target motion into tasks on a component-by-component basis. However, there is no description of a method for converting multiple lower-level tasks into higher-level tasks.
そこで、本発明は、下位レベルの複数の作業を上位レベルの作業に変換することができる作業レベル変換装置、作業レベル変換方法及び作業レベル変換プログラムを提供する。 The present invention provides a task level conversion device, a task level conversion method, and a task level conversion program that can convert multiple lower-level tasks into higher-level tasks.
本開示の一態様に係る作業レベル変換装置は、作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報の系列データを生成する生成部と、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データを、複数の下位レベルの作業により構成される上位レベルの作業系列データに変換する変換器、並びに対象動作情報の系列データに基づいて、対象動作情報の系列データを上位レベルの作業系列データに変換して出力する変換出力部と、を備える。 The activity level conversion device according to one aspect of the present disclosure includes a generation unit that generates sequence data of target activity information that associates a target activity detected from time-series information related to a worker's activity with incidental information associated with the target activity, a converter that converts lower-level activity sequence data identified by a combination of the target activity and the incidental information into higher-level activity sequence data composed of a plurality of lower-level activities, and a conversion output unit that converts the sequence data of the target activity information into higher-level activity sequence data based on the sequence data of the target activity information and outputs the converted sequence data.
この態様によれば、作業者の動作に関する時系列情報から検出された対象動作及び付帯情報に基づいて対象動作情報の系列データを生成し、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データを上位レベルの作業系列データに変換する変換器と対象動作情報の系列データとに基づいて、対象動作情報の系列データを上位レベルの作業系列データに変換して出力することができる。 According to this aspect, series data of target action information is generated based on the target action and incidental information detected from the time-series information on the worker's actions, and the series data of the target action information is converted to higher-level work series data based on a converter that converts lower-level work series data identified by a combination of the target action and incidental information into higher-level work series data and the series data of the target action information, and can be output.
上記態様において、変換器は、教師データとして下位レベルの作業系列データと上位レベルの作業系列データとの対応関係を示す作業情報を用い、対象動作情報の系列データを入力として、上位レベルの作業系列データに変換して出力するように学習させた学習済モデルにより構成されることとしてもよい。 In the above aspect, the converter may be configured with a trained model that uses task information indicating the correspondence between lower-level task sequence data and higher-level task sequence data as training data, and is trained to convert the target action information sequence data into higher-level task sequence data and output it.
これにより、学習済モデルに対象動作情報の系列データを入力することで、上位レベルの作業系列データを取得することができる。 This makes it possible to obtain higher-level task sequence data by inputting sequence data of target action information into the trained model.
上記態様において、変換出力部は、対象動作により上位レベルの作業が開始されたかどうかを示す開始タイミング情報を、対象動作ごとに、さらに出力することとしてもよい。 In the above aspect, the conversion output unit may further output, for each target action, start timing information indicating whether or not a higher-level task has been started by the target action.
これにより、上位レベルの作業が開始されたタイミングを特定することができる。 This allows you to determine when higher level work begins.
上記態様において、付帯情報には、時系列情報から認識できる情報、及び時系列情報にアノテーションされている情報が含まれることとしてもよい。 In the above aspect, the supplementary information may include information that can be recognized from the time-series information and information that is annotated to the time-series information.
これにより、対象動作を特定する精度を向上させることができる。 This can improve the accuracy of identifying the target action.
本開示の他の態様に係る作業レベル変換方法は、プロセッサにより実行される方法であって、作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報の系列データを生成することと、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データを、複数の下位レベルの作業により構成される上位レベルの作業系列データに変換する変換器、並びに対象動作情報の系列データに基づいて、対象動作情報の系列データを上位レベルの作業系列データに変換して出力することと、を含む。 A task level conversion method according to another aspect of the present disclosure is a method executed by a processor, and includes generating sequence data of target task information that associates a target task detected from time-series information related to a worker's task with accompanying information accompanying the target task, a converter that converts lower-level task sequence data identified by a combination of the target task and the accompanying information into higher-level task sequence data composed of a plurality of lower-level tasks, and converting the sequence data of the target task information into higher-level task sequence data based on the sequence data of the target task information and outputting the converted sequence data.
この態様によれば、作業者の動作に関する時系列情報から検出された対象動作及び付帯情報に基づいて対象動作情報の系列データを生成し、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データを上位レベルの作業系列データに変換する変換器と対象動作情報の系列データとに基づいて、対象動作情報の系列データを上位レベルの作業系列データに変換して出力することができる。 According to this aspect, series data of target action information is generated based on the target action and incidental information detected from the time-series information on the worker's actions, and the series data of the target action information is converted to higher-level work series data based on a converter that converts lower-level work series data identified by a combination of the target action and incidental information into higher-level work series data and the series data of the target action information, and can be output.
本開示の他の態様に係る作業レベル変換プログラムは、コンピュータを、作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報の系列データを生成する生成部、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データを、複数の下位レベルの作業により構成される上位レベルの作業系列データに変換する変換器、並びに対象動作情報の系列データに基づいて、対象動作情報の系列データを上位レベルの作業系列データに変換して出力する変換出力部、として機能させる。 A task level conversion program according to another aspect of the present disclosure causes a computer to function as a generator that generates sequence data of target task information that associates a target task detected from time-series information related to a worker's task with accompanying information associated with the target task, a converter that converts lower-level task sequence data identified by a combination of the target task and the accompanying information into higher-level task sequence data composed of multiple lower-level tasks, and a conversion output unit that converts the sequence data of the target task information into higher-level task sequence data based on the sequence data of the target task information and outputs the converted data.
この態様によれば、作業者の動作に関する時系列情報から検出された対象動作及び付帯情報に基づいて対象動作情報の系列データを生成し、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データを上位レベルの作業系列データに変換する変換器と対象動作情報の系列データとに基づいて、対象動作情報の系列データを上位レベルの作業系列データに変換して出力することができる。 According to this aspect, series data of target action information is generated based on the target action and incidental information detected from the time-series information on the worker's actions, and the series data of the target action information is converted to higher-level work series data based on a converter that converts lower-level work series data identified by a combination of the target action and incidental information into higher-level work series data and the series data of the target action information, and can be output.
本発明によれば、下位レベルの複数の作業を上位レベルの作業に変換することができる作業レベル変換装置、作業レベル変換方法及び作業レベル変換プログラムを提供することができる。 The present invention provides a task level conversion device, a task level conversion method, and a task level conversion program that can convert multiple lower-level tasks into higher-level tasks.
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」と表記する。)を、図面に基づいて説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 Below, an embodiment of one aspect of the present invention (hereinafter, referred to as "this embodiment") will be described with reference to the drawings. Note that in each drawing, parts with the same reference numerals have the same or similar configurations.
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。本実施形態に係る作業レベル変換装置10を含むシステム100は、ある作業領域Rで行われる作業者Aの動作を画像センサ20a、20b、20cで撮影し、その撮影した動画を取得した作業レベル変換装置10が、動画から検出した下位レベルの作業に相当する対象動作に基づいて、上位レベルの作業を出力する。作業レベルの上位、下位について以下に説明する。
§1 Application Example First, an example of a situation to which the present invention is applied will be described with reference to Fig. 1. In a system 100 including an activity level conversion device 10 according to this embodiment, the image sensors 20a, 20b, and 20c capture the actions of a worker A performed in a certain activity area R, and the activity level conversion device 10, which acquires the captured video, outputs a higher-level activity based on a target action corresponding to a lower-level activity detected from the video. The higher and lower activity levels will be described below.
粒度が異なる作業レベルを設定した場合に、より粒度が粗い(高い)作業レベルに設定された作業が上位レベルの作業となり、より粒度が細かい(低い)作業レベルに設定された作業が下位レベルの作業となる。 When work levels with different granularity are set, the work set at the coarser (higher) work level will be the higher level work, and the work set at the finer (lower) work level will be the lower level work.
例えば、「箱詰めの作業」が、「箱を治具に固定する作業」と「製品を箱に収納する作業」とにより構成される場合、「箱詰めの作業」が上位レベルの作業となり、「箱を治具に固定する作業」と「製品を箱に収納する作業」とが下位レベルの作業となる。 For example, if the "packing task" consists of the "task of fixing the box to the jig" and the "task of storing the product in the box," then the "packing task" is a higher-level task, and the "task of fixing the box to the jig" and the "task of storing the product in the box" are lower-level tasks.
また、下位レベルとなった「箱を治具に固定する作業」が、「箱を把持する作業」と「箱を運搬する作業」と「箱を調整する作業」とにより構成される場合、「箱を治具に固定する作業」が上位レベルの作業となり、「箱を把持する作業」と「箱を運搬する作業」と「箱を調整する作業」とが下位レベルの作業となる。 Also, if the lower level "task of fixing the box to the jig" is composed of "task of gripping the box", "task of transporting the box", and "task of adjusting the box", then "task of fixing the box to the jig" will be the higher level task, and "task of gripping the box", "task of transporting the box", and "task of adjusting the box" will be the lower level tasks.
ここで、把持は、作業対象に手を移動して掴む動作として定義され、例えば、部品や器具を掴みに行く動作が該当する。運搬は、作業対象を目的の場所に移動させる動作として定義され、例えば、組み立てている製品に向けて部品や器具を運ぶ動作が該当する。調整は、作業を目標状態に移行する動作として定義され、例えば、部品の組み立てを行う動作が該当する。 Here, grasping is defined as the action of moving the hand to the work object and grabbing it, for example, the action of going to grab a part or tool. Transport is defined as the action of moving the work object to the target location, for example, the action of carrying a part or tool toward the product being assembled. Adjustment is defined as the action of moving the work to the target state, for example, the action of assembling parts.
本願発明は、下位レベルの作業系列データと上位レベルの作業系列データとの対応関係をモデルに学習させて、作業レベル変換用の学習済モデルを生成し、その学習済モデルに、動画から検出した作業系列のデータを入力し、変換された後の上位レベルの作業系列データを学習済モデルから出力させることとしたものである。 The present invention involves training a model to learn the correspondence between lower-level task sequence data and higher-level task sequence data, generating a trained model for task level conversion, inputting task sequence data detected from a video into the trained model, and outputting the converted higher-level task sequence data from the trained model.
これにより、動画から検出された複数の作業からなる作業系列データを、上位レベルの作業系列データに変換させることが可能となる。 This makes it possible to convert task sequence data consisting of multiple tasks detected from a video into higher-level task sequence data.
すなわち、本実施形態に係る作業レベル変換装置10によれば、下位レベルの複数の作業を上位レベルの作業に変換させることができる。 In other words, the task level conversion device 10 according to this embodiment can convert multiple tasks at a lower level into tasks at a higher level.
§2 構成例
[機能構成]
次に、図2を参照し、本実施形態に係る作業レベル変換装置10を含むシステム100の機能構成について、その一例を説明する。システム100は、三台の画像センサ20a、20b、20cと、作業レベル変換装置10と、を備える。以下において、三台の画像センサ20a、20b、20cを特に区別して記載する必要がない場合には、画像センサ20と記載する。作業レベル変換装置10は、機能的な構成として、例えば、取得部11、検出部12、生成部13、変換出力部14及び記憶部19を有する。記憶部19は、例えば、動画19a、対象動作情報19b、作業情報19c及び学習済モデル19dを記憶する。
§2 Configuration example [Functional configuration]
Next, an example of the functional configuration of a system 100 including an activity level conversion device 10 according to the present embodiment will be described with reference to FIG. 2. The system 100 includes three image sensors 20a, 20b, and 20c, and an activity level conversion device 10. In the following, when there is no need to distinguish between the three image sensors 20a, 20b, and 20c, they will be referred to as image sensors 20. The activity level conversion device 10 has, as its functional configuration, for example, an acquisition unit 11, a detection unit 12, a generation unit 13, a conversion output unit 14, and a storage unit 19. The storage unit 19 stores, for example, a video 19a, target action information 19b, activity information 19c, and a learned model 19d.
作業レベル変換装置10を含むシステム100が有する各機能構成の詳細を、以下において順次説明する。 The details of each functional configuration of the system 100, including the task level conversion device 10, are explained below.
<画像センサ>
画像センサ20は、例えば、汎用のカメラであり、作業者Aが作業領域Rで動作を行っている場面を含む動画を撮影する。画像センサ20は、機能的な構成として、例えば、検知部を有する。検知部は、作業者Aの動作を検知し、その動作を示す動画を時系列情報として出力する。
<Image sensor>
The image sensor 20 is, for example, a general-purpose camera, and captures a video including a scene in which the worker A is performing an action in the working area R. The image sensor 20 has, for example, a detection unit as a functional configuration. The detection unit detects the action of the worker A, and outputs a video showing the action as time-series information.
各画像センサ20a、20b、20cは、作業領域Rの全域及び作業者Aの全身を撮影できるように配置される。この場合、例えば、各画像センサ20a、20b、20cのそれぞれが、作業領域Rの全域及び作業者Aの全身を撮影できるように配置されてもよいし、各画像センサ20a、20b、20cのそれぞれが、作業領域R及び作業者Aの一部分を撮影し、それぞれの動画を合わせることで作業領域Rの全域及び作業者Aの全身をカバーできるように配置されてもよい。また、各画像センサ20a、20b、20cが、それぞれ異なる倍率で作業領域R及び作業者Aを撮影することとしてもよい。画像センサ20は、三台備える必要はなく、少なくとも一台以上備えることとすればよい。 Each image sensor 20a, 20b, 20c is positioned so that it can capture the entire work area R and the entire body of worker A. In this case, for example, each image sensor 20a, 20b, 20c may be positioned so that it can capture the entire work area R and the entire body of worker A, or each image sensor 20a, 20b, 20c may be positioned so that it can capture a portion of the work area R and worker A and cover the entire work area R and the entire body of worker A by combining the respective videos. Also, each image sensor 20a, 20b, 20c may capture the work area R and worker A at different magnifications. There is no need to provide three image sensors 20; at least one or more may be provided.
<取得部>
取得部11は、作業者Aが行った動作に関する時系列情報(本実施形態では動画)を画像センサ20から取得する。取得部11が取得した時系列情報は、記憶部19に伝送され、動画19aとして記憶される。取得部11は、記憶部19に記憶された動画19aを取得することも行う。
<Acquisition Department>
The acquisition unit 11 acquires time-series information (video in this embodiment) related to the actions performed by the worker A from the image sensor 20. The time-series information acquired by the acquisition unit 11 is transmitted to the storage unit 19 and stored as a video 19a. The acquisition unit 11 also acquires the video 19a stored in the storage unit 19.
<検出部>
検出部12は、動画19aの中から、作業者Aの手が存在する画像上の位置を認識し、認識した位置での動きに基づいて対象動作を検出する。対象動作として、例えば、把持、運搬、調整を設定することができる。また、把持に対応する動きとして、例えば、箱又は部品を掴む動きを設定し、運搬に対応する動きとして、例えば、箱又は部品を運ぶ動きを設定し、調整に対応する動きとして、例えば、箱又は部品を固定又は組み込む動きを設定することができる。対象動作及びその対象動作に対応する動きは、作業内容に応じて適宜設定することができ、それらの対応関係を予め記憶部19に記憶させておくことが好ましい。
<Detection unit>
The detection unit 12 recognizes the position on the image where the hand of the worker A is present from within the video 19a, and detects the target motion based on the motion at the recognized position. For example, grasping, transporting, and adjustment can be set as the target motion. In addition, for example, a motion of grabbing a box or part can be set as a motion corresponding to grasping, for example, a motion of carrying a box or part can be set as a motion corresponding to transporting, and for example, a motion of fixing or assembling a box or part can be set as a motion corresponding to adjustment. The target motion and the motion corresponding to the target motion can be set as appropriate according to the work content, and it is preferable to store the correspondence between them in the storage unit 19 in advance.
具体的に、検出部12は、作業者Aの手が存在する動画19a上の位置を認識し、作業者Aが部品を掴む動きをしていると判定した場合に、対象動作として把持を検出する。 Specifically, the detection unit 12 recognizes the position on the video 19a where the hand of the worker A is present, and if it determines that the worker A is making a movement to grasp a part, it detects grasping as the target motion.
<生成部>
生成部13は、検出部12により検出された対象動作と、その対象動作に付帯する付帯情報とを対応付けた対象動作情報19bを生成する。図3を参照し、対象動作情報19bについて説明する。
<Generation section>
The generating unit 13 generates object motion information 19b in which the object motion detected by the detecting unit 12 is associated with the accompanying information associated with the object motion. The object motion information 19b will be described with reference to FIG.
対象動作情報19bは、データ項目として、例えば、NO項目、対象動作項目及び付帯情報項目を有する系列データである。NO項目は、対象動作が発生した順番を格納する。なお、対象動作が発生した順番に替えて、対象動作が発生した時間や、作業開始からの経過時間を格納することとしてもよい。対象動作項目は、対象動作の内容を格納する。付帯情報項目は、対象動作に付帯する付帯情報を格納する。付帯情報として、例えば、動画19aから認識できる情報や、動画19aにアノテーションされている情報を含むことができる。具体的に、部品や箱等の物体、部品や箱と手との接触分離状態、作業者、作業工程、動画の撮影時に判明している情報等が該当する。 The target action information 19b is sequence data having, for example, a NO item, a target action item, and an additional information item as data items. The NO item stores the order in which the target action occurred. Instead of the order in which the target action occurred, the time at which the target action occurred or the elapsed time from the start of the work may be stored. The target action item stores the content of the target action. The additional information item stores additional information that is associated with the target action. The additional information may include, for example, information that can be recognized from the video 19a and information that is annotated to the video 19a. Specifically, this includes objects such as parts and boxes, the contact/separation state between the parts or boxes and the hands, the worker, the work process, and information that is known at the time the video was shot.
例えば、図3のNOが“1”である対象動作情報は、対象動作として“把持”が格納され、付帯情報として“箱”が格納されている。この対象動作情報により、NO“1”の時点では、作業者が箱を把持する作業を行っていると特定することができる。また、NOが“4”である対象動作情報は、対象動作として“把持”が格納され、付帯情報として“部品1”が格納されている。この対象動作情報により、NO“4”の時点では、作業者が部品1を把持する作業を行っていると特定することができる。さらに、NOが“6”である対象動作情報は、対象動作として“運搬”が格納され、付帯情報として“部品1”が格納されている。この対象動作情報により、NO“6”の時点では、作業者が箱を把持する作業を行っていると特定することができる。 For example, in the target action information with a NO of "1" in FIG. 3, "grasp" is stored as the target action, and "box" is stored as the additional information. This target action information allows specification that the worker is gripping a box at the time of NO "1". Furthermore, in the target action information with a NO of "4", "grasp" is stored as the target action, and "part 1" is stored as the additional information. This target action information allows specification that the worker is gripping part 1 at the time of NO "4". Furthermore, in the target action information with a NO of "6", "transport" is stored as the target action, and "part 1" is stored as the additional information. This target action information allows specification that the worker is gripping a box at the time of NO "6".
<変換出力部>
図2の説明に戻る。変換出力部14は、生成部13により生成された対象動作情報19bの系列データを学習済モデル19dに入力し、変換された後の上位レベルの作業系列データを学習済モデル19dから出力させる。
<Conversion output section>
Returning to the description of Fig. 2, the conversion output unit 14 inputs the sequence data of the target action information 19b generated by the generation unit 13 to the trained model 19d, and causes the trained model 19d to output the converted higher-level task sequence data.
学習済モデル19dは、作業レベル変換用の学習済モデルであり、例えば、下位レベルの作業系列データと上位レベルの作業系列データとの対応関係をモデルに学習させて生成する。学習済モデルとして、例えば、Transformer等の自然言語処理(NLP)分野で使用される深層学習モデルを用いることができる。 The trained model 19d is a trained model for task level conversion, and is generated, for example, by having a model learn the correspondence between lower-level task series data and higher-level task series data. As the trained model, for example, a deep learning model used in the field of natural language processing (NLP), such as Transformer, can be used.
本実施形態では、例示的に、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データと、上位レベルの作業系列データとの対応関係を示す作業情報19cを教師データとして用い、学習済モデル19dを生成する。 In this embodiment, for example, task information 19c indicating the correspondence between lower-level task sequence data identified by a combination of target actions and accompanying information and higher-level task sequence data is used as training data to generate a trained model 19d.
図4を参照し、作業情報19cについて説明する。図4では、例示的に、作業レベルとして“レベル1”、“レベル2”及び“レベル3”が設定されている。“レベル1”が最下位に位置するレベルであり、“レベル3”が最上位に位置するレベルであり、“レベル2”が中間に位置するレベルである。 Work information 19c will be described with reference to FIG. 4. In FIG. 4, "Level 1", "Level 2", and "Level 3" are set as work levels by way of example. "Level 1" is the lowest level, "Level 3" is the highest level, and "Level 2" is the middle level.
“レベル1”には、作業の最小単位となる対象動作の内容と、その対象動作に付帯する付帯情報との組み合わせを時系列に並べた下位レベルの作業系列データが設定される。 At "Level 1," lower-level task sequence data is set that chronologically arranges the contents of the target action, which is the smallest unit of work, and the associated information that accompanies that target action.
“レベル2”には、下位レベルの作業系列データを構成する各時系列データのそれぞれに対応する上位レベルの作業系列データが設定される。“レベル2”の作業系列データには、“レベル2”の各作業が開始されたタイミングを示す開始タイミング情報が設定される。例えば、作業が開始されたデータに“1”が設定され、それ以外のデータに“0”が設定される。 In "Level 2", higher level work sequence data corresponding to each time series data constituting the lower level work sequence data is set. In the "Level 2" work sequence data, start timing information is set that indicates the timing when each work in "Level 2" started. For example, "1" is set to data when a work has started, and "0" is set to other data.
例えば、レベル2の上段にある三つのデータは、“箱を治具に固定する”作業で共通し、最上段にあるデータの開始タイミング情報に“1”が設定されている。したがって、開始タイミング情報に“1”が設定されている作業を特定することで、“箱を治具に固定する”作業が開始されたタイミングを特定することができる。 For example, the three data in the top row of level 2 are common to the task of "fixing the box to the jig," and the start timing information of the data in the top row is set to "1." Therefore, by identifying the task whose start timing information is set to "1," it is possible to identify the timing at which the task of "fixing the box to the jig" began.
レベル2の下段にある五つのデータは“部品1を箱に入れる”作業と“部品2を箱に入れる”作業とが交互に並んでいるが、例えば、右手で“部品1を箱に入れる”作業を行い、並行して左手で“部品2を箱に入れる”作業を行う場合に、このような作業系列データが設定される。このような作業では、右手で“部品1を箱に入れる”作業が開始されたタイミング、及び左手で“部品2を箱に入れる”作業が開始されたタイミングに対応する開始タイミング情報に、それぞれ“1”が設定されることになる。 The five data in the lower row of level 2 alternate between the tasks of "putting part 1 in a box" and "putting part 2 in a box." For example, this type of task sequence data is set when the task of "putting part 1 in a box" is performed with the right hand and the task of "putting part 2 in a box" is performed in parallel with the left hand. In this type of task, "1" is set to the start timing information corresponding to the timing when the task of "putting part 1 in a box" is started with the right hand, and the timing when the task of "putting part 2 in a box" is started with the left hand.
なお、“レベル2”のように、各作業項目に“レベル1”の付帯情報が含まれている場合には、付帯情報の設定を省略することができる。 Note that if each work item includes "Level 1" additional information, such as "Level 2," the setting of the additional information can be omitted.
“レベル3”には、“レベル1”及び“レベル2”の作業系列データを構成する各時系列データのそれぞれに対応する最上位レベルの作業系列データが設定される。なお、“レベル3”のように、最上位レベルとして一つの作業が設定されている場合には、付帯情報及び開始タイミング情報の各設定を省略することができる。 At "Level 3", the highest level of task sequence data corresponding to each of the time series data constituting the task sequence data at "Level 1" and "Level 2" is set. Note that when one task is set as the highest level, such as at "Level 3", the settings of the additional information and start timing information can be omitted.
ここで、変換出力部14は、変換後の上位レベルの作業系列データを出力する際に、開始タイミング情報を作業(対象動作)ごとにさらに出力することとしてもよい。 Here, when outputting the converted higher-level task sequence data, the conversion output unit 14 may further output start timing information for each task (target action).
[ハードウェア構成]
次に、図5を用いて、本実施形態に係る作業レベル変換装置10のハードウェア構成について、その一例を説明する。作業レベル変換装置10は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶部19に相当するRAM(Random Access Memory)10b及びROM(Read only Memory)10cと、通信装置10dと、入力装置10eと、表示装置10fとを有する。これらの各構成は、バスを介して相互にデータを送受信できるように接続される。なお、本実施形態では作業レベル変換装置10が一台のコンピュータで構成される場合について説明するが、作業レベル変換装置10は、複数のコンピュータを用いて実現されてもよい。
[Hardware configuration]
Next, an example of the hardware configuration of the activity level conversion device 10 according to this embodiment will be described with reference to Fig. 5. The activity level conversion device 10 has a CPU (Central Processing Unit) 10a corresponding to a calculation device, a RAM (Random Access Memory) 10b and a ROM (Read Only Memory) 10c corresponding to a storage unit 19, a communication device 10d, an input device 10e, and a display device 10f. These components are connected to each other via a bus so that they can transmit and receive data to each other. In this embodiment, the activity level conversion device 10 is configured by one computer, but the activity level conversion device 10 may be realized by using multiple computers.
CPU10aは、RAM10b又はROM10cに記憶されたプログラムを実行し、データの演算や加工を行う制御部として機能する。CPU10aは、入力装置10eや通信装置10dから種々の入力データを受信し、入力データを演算した結果を表示装置10fに表示したり、RAM10bやROM10cに格納したりする。 The CPU 10a executes programs stored in the RAM 10b or ROM 10c and functions as a control unit that performs calculations and processing of data. The CPU 10a receives various input data from the input device 10e or communication device 10d, and displays the results of calculations on the input data on the display device 10f or stores them in the RAM 10b or ROM 10c.
RAM10bは、例えば半導体記憶素子で構成され、書き換え可能なデータを記憶する。ROM10cは、例えば半導体記憶素子で構成され、読み出し可能かつ書き換え不可能なデータを記憶する。 RAM 10b is composed of, for example, a semiconductor memory element, and stores rewritable data. ROM 10c is composed of, for example, a semiconductor memory element, and stores readable but non-rewritable data.
通信装置10dは、作業レベル変換装置10を外部機器に接続するインターフェースである。通信装置10dは、例えば、画像センサ20とLAN(Local Area Network)やインターネット等の通信ネットワークにより接続され、画像センサ20から動画を受信する。 The communication device 10d is an interface that connects the operation level conversion device 10 to an external device. The communication device 10d is connected to the image sensor 20 via a communication network such as a LAN (Local Area Network) or the Internet, for example, and receives video from the image sensor 20.
入力装置10eは、ユーザからデータの入力を受け付けるインターフェースであり、例えば、キーボード、マウス及びタッチパネルを含むことができる。 The input device 10e is an interface that accepts data input from a user and may include, for example, a keyboard, a mouse, and a touch panel.
表示装置10fは、CPU10aによる演算結果等を視覚的に表示するインターフェースであり、例えば、LCD(Liquid Crystal Display)により構成することができる。 The display device 10f is an interface that visually displays the results of calculations performed by the CPU 10a, and can be configured, for example, with an LCD (Liquid Crystal Display).
プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信装置10dにより接続される通信ネットワークを介して提供されてもよい。作業レベル変換装置10は、CPU10aがプログラムを実行することで、図2に示す取得部11、検出部12、生成部13及び変換出力部14の動作を行う。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、作業レベル変換装置10は、CPU10aとRAM10bやROM10cとを一体化したLSI(Large-Scale Integration)を備えることとしてもよい。 The program may be provided by being stored in a computer-readable storage medium such as RAM 10b or ROM 10c, or may be provided via a communication network connected by communication device 10d. In the work level conversion device 10, the CPU 10a executes the program to perform the operations of the acquisition unit 11, detection unit 12, generation unit 13, and conversion output unit 14 shown in FIG. 2. Note that these physical configurations are examples and do not necessarily have to be independent configurations. For example, the work level conversion device 10 may be equipped with an LSI (Large-Scale Integration) that integrates the CPU 10a with the RAM 10b and ROM 10c.
§3 動作例
図6は、本実施形態に係る作業レベル変換装置10で実行される作業レベル変換処理の一例を示すフローチャートである。
§3 Operation Example FIG. 6 is a flow chart showing an example of the task level conversion process executed by the task level conversion device 10 according to this embodiment.
最初に、作業レベル変換装置10の取得部11は、作業者Aの動作に関する時系列情報である動画を画像センサ20から取得する(ステップS101)。この取得した動画は、動画19aとして記憶部19に記憶される。 First, the acquisition unit 11 of the task level conversion device 10 acquires a video, which is time-series information on the actions of the worker A, from the image sensor 20 (step S101). This acquired video is stored in the storage unit 19 as video 19a.
続いて、作業レベル変換装置10の検出部12は、動画19aに基づいて、作業者Aの手が存在する画像上の位置を認識し、対象動作を検出する(ステップS102)。 Next, the detection unit 12 of the work level conversion device 10 recognizes the position on the image where the hand of the worker A is located based on the video 19a, and detects the target action (step S102).
続いて、作業レベル変換装置10の生成部13は、上記ステップS102で検出された対象動作及び対象動作に付帯する付帯情報に基づいて、対象動作情報19bを生成する(ステップS103)。この生成した対象動作情報19bは、記憶部19に記憶される。 Then, the generating unit 13 of the activity level conversion device 10 generates target action information 19b based on the target action detected in step S102 and the associated information associated with the target action (step S103). This generated target action information 19b is stored in the storage unit 19.
続いて、作業レベル変換装置10の変換出力部14は、上記ステップS103で生成された対象動作情報19bの系列データを学習済モデル19dに入力し、変換された後の上位レベルの作業系列データを学習済モデル19dから出力させる(ステップS104)。そして、作業レベル変換処理を終了する。 Then, the conversion output unit 14 of the task level conversion device 10 inputs the sequence data of the target action information 19b generated in step S103 to the trained model 19d, and outputs the converted higher-level task sequence data from the trained model 19d (step S104). Then, the task level conversion process is terminated.
前述したように、本実施形態に係る作業レベル変換装置10によれば、作業者Aの動作に関する動画19aから検出された対象動作及び付帯情報に基づいて対象動作情報19bの系列データを生成し、対象動作及び付帯情報の組合せにより特定される下位レベルの作業系列データを上位レベルの作業系列データに変換する学習済モデル19dと対象動作情報19bの系列データとに基づいて、対象動作情報19bの系列データを上位レベルの作業系列データに変換して出力することができる。 As described above, the task level conversion device 10 according to this embodiment generates sequence data of target task information 19b based on the target task and associated information detected from the video 19a relating to the task of worker A, and converts the sequence data of target task information 19b into higher-level task sequence data based on the trained model 19d that converts lower-level task sequence data identified by a combination of the target task and associated information into higher-level task sequence data and the sequence data of target task information 19b, and outputs the converted sequence data.
それゆえ、本実施形態に係る作業レベル変換装置10によれば、下位レベルの複数の作業を上位レベルの作業に変換させることができる。 Therefore, the task level conversion device 10 according to this embodiment can convert multiple tasks at a lower level into tasks at a higher level.
§4 変形例
なお、本発明は、前述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
§4 Modifications The present invention is not limited to the above-described embodiment, and can be embodied in various other forms without departing from the spirit of the present invention. Therefore, the above-described embodiment is merely illustrative in all respects and should not be interpreted as being restrictive.
例えば、前述した実施形態では、下位レベルの作業系列データを上位レベルの作業系列データに変換する際に、学習済モデル(変換器)を用いているが、これに限定されない。例えば、図4に示すような作業情報テーブル(変換器)を用いて下位レベルの作業系列データを上位レベルの作業系列データに変換することとしてもよい。 For example, in the above-described embodiment, a trained model (converter) is used when converting lower-level work sequence data into higher-level work sequence data, but this is not limited to this. For example, a work information table (converter) such as that shown in FIG. 4 may be used to convert lower-level work sequence data into higher-level work sequence data.
また、前述した実施形態では、時系列情報が動画である場合について説明したが、時系列情報は動画に限定されない。具体的に、時系列情報は、画像センサ20の替わりに備えるモーションキャプチャによって測定される作業者Aの動作を示す座標値に関する情報であったり、画像センサ20の替わりに、加速度センサやジャイロセンサを作業者Aに装着させることによって測定される作業者Aの動作を示す情報であったりしてもよい。また、時系列情報は、画像センサ20の替わりに作業領域Rに配置した圧力センサによって測定される圧力値の変化状態を示す情報であったり、画像センサ20の替わりに作業領域Rに配置した光電センサによって検知されるイベントの変化を示す情報であったりしてもよい。さらに、時系列情報は、上記の各情報を個別に用いることに限定されず、上記の各情報を二つ以上組合せることとしてもよい。 In the above embodiment, the time series information is a video, but the time series information is not limited to a video. Specifically, the time series information may be information on coordinate values indicating the motion of worker A measured by a motion capture device provided in place of the image sensor 20, or information indicating the motion of worker A measured by having worker A wear an acceleration sensor or a gyro sensor in place of the image sensor 20. The time series information may be information indicating the change in pressure value measured by a pressure sensor placed in the work area R in place of the image sensor 20, or information indicating a change in an event detected by a photoelectric sensor placed in the work area R in place of the image sensor 20. Furthermore, the time series information is not limited to using each of the above information individually, and may be a combination of two or more of the above information.
また、本発明の実施形態は、以下の付記のようにも記載され得る。ただし、本発明の実施形態は、以下の付記に記載した形態に限定されない。また、本発明の実施形態は、付記間の記載を置換したり、組み合わせたりした形態であってもよい。 The embodiment of the present invention may also be described as in the following appendices. However, the embodiment of the present invention is not limited to the form described in the appendices below. The embodiment of the present invention may also be in a form in which the descriptions between the appendices are substituted or combined.
[付記1]
作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報(19b)の系列データを生成する生成部(13)と、
前記対象動作及び前記付帯情報の組合せにより特定される下位レベルの作業系列データを、複数の前記下位レベルの作業により構成される上位レベルの作業系列データに変換する変換器、並びに前記対象動作情報(19b)の系列データに基づいて、前記対象動作情報(19b)の系列データを前記上位レベルの作業系列データに変換して出力する変換出力部(14)と、
を備える作業レベル変換装置(10)。
[Appendix 1]
a generation unit (13) that generates sequence data of target action information (19b) in which a target action detected from time-series information related to a task of a worker is associated with attendant information associated with the target action;
a converter for converting lower-level task sequence data specified by a combination of the target motion and the incidental information into higher-level task sequence data composed of a plurality of the lower-level tasks, and a conversion output unit (14) for converting the sequence data of the target motion information (19b) into the higher-level task sequence data based on the sequence data of the target motion information (19b) and outputting the converted sequence data;
A working level conversion device (10) comprising:
[付記2]
前記変換器は、教師データとして前記下位レベルの作業系列データと前記上位レベルの作業系列データとの対応関係を示す作業情報(19c)を用い、前記対象動作情報(19b)の系列データを入力として、前記上位レベルの作業系列データに変換して出力するように学習させた学習済モデル(19d)により構成される、
付記1記載の作業レベル変換装置(10)。
[Appendix 2]
The converter is configured by a trained model (19d) that uses task information (19c) indicating a correspondence relationship between the lower level task series data and the higher level task series data as teacher data, and trains the trained model (19d) to convert the sequence data of the target action information (19b) into the higher level task series data and output the converted data.
2. The working level conversion device (10) of claim 1.
[付記3]
前記変換出力部(14)は、前記対象動作により上位レベルの作業が開始されたかどうかを示す開始タイミング情報を、前記対象動作ごとに、さらに出力する、
付記2記載の作業レベル変換装置(10)。
[Appendix 3]
The conversion output unit (14) further outputs, for each of the target movements, start timing information indicating whether or not a higher-level task has been started by the target movement.
3. The working level conversion device (10) according to claim 2.
[付記4]
前記付帯情報には、前記時系列情報から認識できる情報、及び前記時系列情報にアノテーションされている情報が含まれる、
付記2記載の作業レベル変換装置(10)。
[Appendix 4]
The supplementary information includes information that can be recognized from the time-series information and information that is annotated to the time-series information.
3. The working level conversion device (10) according to claim 2.
[付記5]
プロセッサにより実行される方法であって、
作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報(19b)の系列データを生成することと、
前記対象動作及び前記付帯情報の組合せにより特定される下位レベルの作業系列データを、複数の前記下位レベルの作業により構成される上位レベルの作業系列データに変換する変換器、並びに前記対象動作情報(19b)の系列データに基づいて、前記対象動作情報(19b)の系列データを前記上位レベルの作業系列データに変換して出力することと、
を含む作業レベル変換方法。
[Appendix 5]
1. A processor-implemented method, comprising:
generating sequence data of target action information (19b) in which a target action detected from time-series information related to a task of a worker is associated with attendant information associated with the target action;
a converter for converting lower-level task sequence data specified by a combination of the target motion and the incidental information into higher-level task sequence data composed of a plurality of the lower-level tasks, and converting the sequence data of the target motion information (19b) into the higher-level task sequence data based on the sequence data of the target motion information (19b) and outputting the converted sequence data;
A working level conversion method including:
[付記6]
コンピュータを、
作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報(19b)の系列データを生成する生成部(13)、
前記対象動作及び前記付帯情報の組合せにより特定される下位レベルの作業系列データを、複数の前記下位レベルの作業により構成される上位レベルの作業系列データに変換する変換器、並びに前記対象動作情報(19b)の系列データに基づいて、前記対象動作情報(19b)の系列データを前記上位レベルの作業系列データに変換して出力する変換出力部(14)、
として機能させる作業レベル変換プログラム。
[Appendix 6]
Computer,
a generation unit (13) for generating sequence data of target action information (19b) in which a target action detected from time-series information related to a task of a worker is associated with attendant information associated with the target action;
a converter for converting lower-level task sequence data specified by a combination of the target motion and the incidental information into higher-level task sequence data composed of a plurality of the lower-level tasks, and a conversion output unit (14) for converting the sequence data of the target motion information (19b) into the higher-level task sequence data based on the sequence data of the target motion information (19b) and outputting the converted sequence data;
A working level conversion program that acts as a.
10…作業レベル変換装置、10a…CPU、10b…RAM、10c…ROM、10d…通信装置、10e…入力装置、10f…表示装置、11…取得部、12…検出部、13…生成部、14…変換出力部、19…記憶部、19a…動画、19b…対象動作情報、19c…作業情報、19d…学習済モデル、20…画像センサ、100…システム、A…作業者、R…作業領域 10... Activity level conversion device, 10a... CPU, 10b... RAM, 10c... ROM, 10d... communication device, 10e... input device, 10f... display device, 11... acquisition unit, 12... detection unit, 13... generation unit, 14... conversion output unit, 19... storage unit, 19a... video, 19b... target action information, 19c... activity information, 19d... trained model, 20... image sensor, 100... system, A... worker, R... work area
Claims (4)
前記対象動作及び前記付帯情報の組合せにより特定される下位レベルの作業系列データと、複数の前記下位レベルの作業により構成される上位レベルの作業系列データと、を対応付けた作業情報を、教師データとして用い、前記対象動作情報の系列データを入力とし、入力した前記対象動作情報の系列データを前記上位レベルの作業系列データに変換して出力するように学習させた学習済モデルと、
を備え、
前記学習済モデルは、前記上位レベルの作業系列データに含まれる上位レベルの作業が開始されたタイミングであるかどうかを示す開始タイミング情報を、前記対象動作ごとに設定した前記上位レベルの作業系列データを出力する、
作業レベル変換装置。 a generation unit that generates sequence data of target action information in which a target action detected from time-series information related to a task of a worker is associated with attendant information associated with the target action;
a trained model that uses task information that associates lower-level task series data specified by a combination of the target task and the incidental information with higher-level task series data composed of a plurality of the lower- level tasks as teacher data, inputs sequence data of the target task information, and trains the trained model to convert the input sequence data of the target task information into the higher-level task series data and output the converted sequence data;
Equipped with
The trained model outputs the higher-level work sequence data, with start timing information indicating whether or not a higher-level work included in the higher-level work sequence data is started, set for each target action.
Working level conversion device.
請求項1記載の作業レベル変換装置。 The supplementary information includes information that can be recognized from the time-series information and information that is annotated to the time-series information.
2. The working level conversion device according to claim 1 .
作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報の系列データを生成することと、
前記対象動作及び前記付帯情報の組合せにより特定される下位レベルの作業系列データと、複数の前記下位レベルの作業により構成される上位レベルの作業系列データと、を対応付けた作業情報を、教師データとして用い、前記対象動作情報の系列データを入力とし、入力した前記対象動作情報の系列データを前記上位レベルの作業系列データに変換して出力するように学習させて学習済モデルを生成することと、
を含み、
前記学習済モデルは、前記上位レベルの作業系列データに含まれる上位レベルの作業が開始されたタイミングであるかどうかを示す開始タイミング情報を、前記対象動作ごとに設定した前記上位レベルの作業系列データを出力する、
作業レベル変換方法。 1. A processor-implemented method, comprising:
generating sequence data of target action information in which a target action detected from time-series information related to a task of a worker is associated with attendant information associated with the target action;
using task information that associates lower-level task series data identified by a combination of the target task and the incidental information with higher-level task series data composed of a plurality of tasks at the lower level as teacher data , inputting the sequence data of the target task information, and converting the input sequence data of the target task information into the higher-level task series data and outputting the converted sequence data, thereby generating a trained model;
Including,
The trained model outputs the higher-level work sequence data, with start timing information indicating whether or not a higher-level work included in the higher-level work sequence data is started, set for each target action.
How to convert work levels.
作業者の作業に関する時系列情報から検出された対象動作と当該対象動作に付帯する付帯情報とを対応付けた対象動作情報の系列データを生成する生成部、
前記対象動作及び前記付帯情報の組合せにより特定される下位レベルの作業系列データと、複数の前記下位レベルの作業により構成される上位レベルの作業系列データと、を対応付けた作業情報を、教師データとして用い、前記対象動作情報の系列データを入力とし、入力した前記対象動作情報の系列データを前記上位レベルの作業系列データに変換して出力するように学習させた学習済モデル、
として機能させ、
前記学習済モデルは、前記上位レベルの作業系列データに含まれる上位レベルの作業が開始されたタイミングであるかどうかを示す開始タイミング情報を、前記対象動作ごとに設定した前記上位レベルの作業系列データを出力する、
作業レベル変換プログラム。 Computer,
a generation unit that generates sequence data of target action information in which a target action detected from time-series information related to a task of a worker is associated with attendant information associated with the target action;
a trained model that uses task information that associates lower-level task series data specified by a combination of the target task and the incidental information with higher-level task series data composed of a plurality of the lower- level tasks as teacher data, inputs the sequence data of the target task information, and trains the trained model to convert the input sequence data of the target task information into the higher-level task series data and output the converted sequence data;
Function as a
The trained model outputs the higher-level work sequence data, with start timing information indicating whether or not a higher-level work included in the higher-level work sequence data is started, set for each target action.
Work level conversion program.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021005059A JP7665986B2 (en) | 2021-01-15 | 2021-01-15 | Work level conversion device, work level conversion method, and work level conversion program |
| PCT/JP2021/033694 WO2022153597A1 (en) | 2021-01-15 | 2021-09-14 | Task level conversion device, task level conversion method, and task level conversion program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021005059A JP7665986B2 (en) | 2021-01-15 | 2021-01-15 | Work level conversion device, work level conversion method, and work level conversion program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022109646A JP2022109646A (en) | 2022-07-28 |
| JP7665986B2 true JP7665986B2 (en) | 2025-04-22 |
Family
ID=82448151
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021005059A Active JP7665986B2 (en) | 2021-01-15 | 2021-01-15 | Work level conversion device, work level conversion method, and work level conversion program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7665986B2 (en) |
| WO (1) | WO2022153597A1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024257498A1 (en) * | 2023-06-13 | 2024-12-19 | パナソニックIpマネジメント株式会社 | Work classification device, work classification method, and program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012130522A (en) | 2010-12-21 | 2012-07-12 | Fujitsu Ltd | Action recognizing apparatus, action recognizing method, and action recognizing program |
| JP2013003649A (en) | 2011-06-13 | 2013-01-07 | Sony Corp | Information processing device, information processing method, and computer program |
| JP2018147153A (en) | 2017-03-03 | 2018-09-20 | 株式会社日立製作所 | Action recognition system and action recognition method |
| JP2020087312A (en) | 2018-11-30 | 2020-06-04 | 株式会社リコー | Action recognition device, action recognition method, and program |
-
2021
- 2021-01-15 JP JP2021005059A patent/JP7665986B2/en active Active
- 2021-09-14 WO PCT/JP2021/033694 patent/WO2022153597A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012130522A (en) | 2010-12-21 | 2012-07-12 | Fujitsu Ltd | Action recognizing apparatus, action recognizing method, and action recognizing program |
| JP2013003649A (en) | 2011-06-13 | 2013-01-07 | Sony Corp | Information processing device, information processing method, and computer program |
| JP2018147153A (en) | 2017-03-03 | 2018-09-20 | 株式会社日立製作所 | Action recognition system and action recognition method |
| JP2020087312A (en) | 2018-11-30 | 2020-06-04 | 株式会社リコー | Action recognition device, action recognition method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2022153597A1 (en) | 2022-07-21 |
| JP2022109646A (en) | 2022-07-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Moutinho et al. | Deep learning-based human action recognition to leverage context awareness in collaborative assembly | |
| Makrini et al. | Task allocation for improved ergonomics in Human-Robot Collaborative Assembly | |
| JP6583537B2 (en) | Operation information generator | |
| JP6897037B2 (en) | Workability evaluation device | |
| US11443558B2 (en) | Hand-eye, body part motion recognition and chronologically aligned display of recognized body parts | |
| Lee et al. | Machine learning in manufacturing ergonomics: Recent advances, challenges, and opportunities | |
| Rückert et al. | Classification of assembly operations using machine learning algorithms based on visual sensor data | |
| JP7665986B2 (en) | Work level conversion device, work level conversion method, and work level conversion program | |
| JP7561319B2 (en) | Motion recognition system, method, and program | |
| KR20220078458A (en) | Method and device for classification of daily life activities based on ensemble supervised learning using nameplate wearable devices | |
| Liu et al. | Adaptive real-time similar repetitive manual procedure prediction and robotic procedure generation for human-robot collaboration | |
| JP7362037B2 (en) | Element work division device, element work division method, element work division program, and element work division system | |
| Wu et al. | Incremental learning introspective movement primitives from multimodal unstructured demonstrations | |
| Bittencourt et al. | Surrogate modelling for continuous ergonomic assessment and adaptive configuration of industrial human-centered workplaces | |
| Igelmo et al. | Aiding observational ergonomic evaluation methods using MOCAP systems supported by AI-based posture recognition | |
| Bose et al. | In-situ enhanced anchor-free deep CNN framework for a high-speed human-machine interaction | |
| JP7633588B2 (en) | Motion recognition device, motion recognition method, and motion recognition program | |
| Wallhoff et al. | Adaptive human-machine interfaces in cognitive production environments | |
| Saraiva et al. | Mobile multirobot manipulation by image recognition | |
| Thompson et al. | Identification of unknown object properties based on tactile motion sequence using 2-finger gripper robot | |
| JP7614998B2 (en) | Work estimation device, work estimation method, and program | |
| JP7385825B2 (en) | Motion analysis device, motion analysis method, and motion analysis program | |
| Li et al. | Perception-enhancement based task learning and action scheduling for robotic limb in CPS environment | |
| Akhshik et al. | Pressure Sensor Positioning for Accurate Human Interaction with a Robotic Hand | |
| Forkuo | A systematic survey of conventional and new postural assessment methods |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231109 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241101 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241224 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250311 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250324 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7665986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |