JP2022113042A - Task estimation device, control method thereof, information processing program, and recording medium - Google Patents
Task estimation device, control method thereof, information processing program, and recording medium Download PDFInfo
- Publication number
- JP2022113042A JP2022113042A JP2021009138A JP2021009138A JP2022113042A JP 2022113042 A JP2022113042 A JP 2022113042A JP 2021009138 A JP2021009138 A JP 2021009138A JP 2021009138 A JP2021009138 A JP 2021009138A JP 2022113042 A JP2022113042 A JP 2022113042A
- Authority
- JP
- Japan
- Prior art keywords
- work
- workplace
- prediction
- image
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Manufacturing & Machinery (AREA)
- Quality & Reliability (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Operations Research (AREA)
- Primary Health Care (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
Abstract
【課題】撮像画像から、十分な精度をもって、作業者が作業対象物について行っている作業の内容を推定する。
【解決手段】情報処理装置(10)は、学習済モデルである作業予測モデル(171)を用いた予測の内容を、作業予測モデル(171)を用いずに予測した内容によって検証する。
【選択図】図1
An object of the present invention is to estimate, with sufficient accuracy, the details of a work performed by a worker on a work object from a captured image.
An information processing device (10) verifies the content of prediction using a work prediction model (171), which is a learned model, by the content predicted without using the work prediction model (171).
[Selection drawing] Fig. 1
Description
本発明は、作業場において作業者が行っている作業の内容を推定する作業推定装置等に関する。
BACKGROUND OF THE
従来、工場等の生産現場における作業工程の実施状況を撮像した撮像データを、当該作業工程の改善等に利用する種々の試みが知られている。例えば、下掲の特許文献1には、画像データの解析結果を利用して作業者の行動を判別する安全管理システムが開示されている。また、撮像画像から、撮像画像に撮像されている人間とオブジェクトとの間の相互作用(HOI、Human Object Interaction)として、人間がオブジェクトについて行っている動作を検出するHOI検出についても、研究が進められている。
2. Description of the Related Art Conventionally, there have been known various attempts to use imaging data obtained by imaging the implementation status of a work process at a production site such as a factory to improve the work process. For example,
しかしながら、HOI検出による作業内容の予測は、それ単体では、精度が十分とはいえないとの問題がある。 However, there is a problem that the prediction of work content based on HOI detection alone cannot be said to have sufficient accuracy.
本発明の一態様は、撮像画像から、十分な精度をもって、作業者が作業対象物について行っている作業の内容を推定することのできる作業推定装置等を実現することを目的とする。 An object of one aspect of the present invention is to realize a work estimation device or the like capable of estimating the content of work performed by a worker on a work target from a captured image with sufficient accuracy.
上記の課題を解決するために、本発明の一態様に係る作業推定装置は、作業場において作業者が行っている作業の内容を推定する作業推定装置であって、前記作業場を撮像した作業場画像または前記作業場画像から生成された特徴情報を入力とし、前記作業場画像に撮像されている前記作業者が、前記作業場画像に撮像されている作業対象物について行っている作業の内容を出力とする学習済モデルである作業予測モデルを用いて、前記作業場画像または前記特徴情報から、前記作業者が前記作業対象物について行っている作業の内容を予測する予測部と、前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場に前記作業者が存在するか否かの判定結果の少なくとも一方を用いて、前記予測部の予測の正否を判定する判定部と、前記判定部によって前記予測部の予測が正しいと判定されると、前記予測部によって予測された前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容として推定する推定部と、を備える。 In order to solve the above problems, a work estimation device according to one aspect of the present invention is a work estimation device for estimating the content of a work performed by a worker in a workplace, the workplace image capturing the workplace, or The feature information generated from the workplace image is input, and the content of the work performed by the worker captured in the workplace image on the work object captured in the workplace image is learned. A prediction unit that uses a work prediction model, which is a model, to predict the content of the work that the worker is performing on the work object from the workplace image or the feature information, and a prediction that does not use the work prediction model. a judgment unit for judging whether or not the prediction by the prediction unit is correct using at least one of the content of the work performed and a judgment result as to whether or not the worker is present in the workplace; an estimating unit for estimating the content of the work predicted by the prediction unit as the content of the work performed by the worker in the workplace when the prediction by the prediction unit is determined to be correct.
前記の構成によれば、前記作業推定装置は、前記作業予測モデルを用いて予測した前記作業の内容の正否を、前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場における前記作業者の存否の判定結果の少なくとも一方を用いて判定する。そして、前記作業推定装置は、前記作業予測モデルを用いた予測が正しいと判定されると、前記作業予測モデルを用いて予測した前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容であると推定する。 According to the above configuration, the work estimating device determines whether the content of the work predicted using the work prediction model is correct or not, the content of the work predicted without using the work prediction model, and the work location. It is determined using at least one of the determination results of the presence or absence of the worker in the above. Then, when it is determined that the prediction using the work prediction model is correct, the work estimation device predicts the content of the work predicted using the work prediction model to the work performed by the worker in the work place. Presumed to be the content of the work.
つまり、前記作業推定装置は、前記作業予測モデルを用いて予測した前記作業の内容の正否を、前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場に前記作業者が存在するか否かの判定結果の少なくとも一方を用いて検証する。 That is, the work estimating device determines whether the content of the work predicted using the work prediction model is correct or not, the content of the work predicted without using the work prediction model, and the worker at the work place. Verification is performed using at least one of the determination results of existence or non-existence.
したがって、前記作業推定装置は、前記作業場画像から、前記作業場において前記作業者が行っている前記作業の内容を、高精度に推定することができるとの効果を奏する。 Therefore, the work estimating device has the effect of being able to estimate with high accuracy the content of the work performed by the worker in the work place from the work place image.
本発明の一態様に係る作業推定装置は、前記作業に用いられる工具、前記作業対象物、および、前記作業場の少なくとも1つの状態を検知するセンサの検知情報から、前記作業場において前記作業者が行っている前記作業の内容を予測する作業検知部をさらに備えてもよく、前記判定部は、前記予測部によって予測された前記作業の内容と、前記作業検知部によって予測された前記作業の内容とが一致すると、前記予測部の予測が正しいと判定してもよい。 A work estimating device according to an aspect of the present invention is a work estimating device, based on detection information of a sensor that detects at least one state of a tool used in the work, the work target, and the work place, and the work performed by the worker in the work place. a work detection unit that predicts the content of the work that is being performed, and the determination unit detects the content of the work predicted by the prediction unit and the content of the work predicted by the work detection unit; match, it may be determined that the prediction of the prediction unit is correct.
前記の構成によれば、前記作業推定装置は、前記センサの検知情報から予測した前記作業の内容と、前記作業予測モデルを用いて予測した前記作業の内容とが一致するか否かを判定する。そして、前記作業推定装置は、両者が一致すると判定すると、前記作業予測モデルを用いて予測した前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容であると推定する。 According to the above configuration, the work estimation device determines whether or not the work content predicted from the detection information of the sensor matches the work content predicted using the work prediction model. . Then, when it is determined that the two match, the work estimation device estimates that the content of the work predicted using the work prediction model is the content of the work performed by the worker in the workplace.
つまり、前記作業推定装置は、前記作業予測モデルを用いて予測した前記作業の内容の正否を、前記センサの検知情報から予測した前記作業の内容によって検証する。 That is, the work estimating device verifies whether the work content predicted using the work prediction model is correct or not based on the work content predicted from the detection information of the sensor.
したがって、前記作業推定装置は、前記作業場画像から、前記作業場において前記作業者が行っている前記作業の内容を、高精度に推定することができるとの効果を奏する。 Therefore, the work estimating device has the effect of being able to estimate with high accuracy the content of the work performed by the worker in the work place from the work place image.
本発明の一態様に係る作業推定装置は、(A)前記作業場を含む複数の作業場を撮像した全体画像、または、(B)前記作業場画像、または、(C)前記全体画像または前記作業場画像から生成された特徴情報を入力とし、前記作業場に前記作業者が存在するか否かを出力とする学習済モデルである存否モデルを用いて、前記全体画像、または、前記作業場画像、または、前記全体画像または前記作業場画像から生成された特徴情報から、前記作業場に前記作業者が存在するか否かを予測する存否予測部をさらに備えてもよく、前記判定部は、前記存否予測部によって前記作業場に前記作業者が存在すると予測されると、前記予測部の予測が正しいと判定してもよい。 A work estimating device according to an aspect of the present invention includes (A) an overall image obtained by imaging a plurality of workplaces including the workplace, or (B) the workplace image, or (C) from the overall image or the workplace image. Using a presence/absence model, which is a learned model whose input is the generated feature information and whose output is whether or not the worker is present in the workplace, the entire image, the workplace image, or the entire A presence/absence prediction unit that predicts whether or not the worker is present in the workplace from an image or feature information generated from the workplace image, and the determination unit determines whether the worker is present in the workplace by the presence/absence prediction unit. If it is predicted that the worker will be present at , it may be determined that the prediction by the prediction unit is correct.
前記の構成によれば、前記作業推定装置は、前記存否モデルを用いて、前記作業場に前記作業者が存在するか否かを予測する。そして、前記作業推定装置は、前記作業場に前記作業者が存在すると予測すると、前記作業予測モデルを用いて予測した前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容であると推定する。 According to the above configuration, the work estimation device uses the presence/absence model to predict whether or not the worker is present in the workplace. Then, when predicting that the worker is present in the workplace, the work estimation device converts the content of the work predicted using the work prediction model to the content of the work performed by the worker in the workplace. Assume there is.
つまり、前記作業推定装置は、前記作業予測モデルを用いて予測した前記作業の内容の正否を、前記存否モデルを用いて予測した前記作業場における前記作業者の存否によって検証する。 In other words, the work estimation device verifies the correctness of the content of the work predicted using the work prediction model based on the presence or absence of the worker in the workplace predicted using the presence/absence model.
したがって、前記作業推定装置は、前記作業場画像から、前記作業場において前記作業者が行っている前記作業の内容を、高精度に推定することができるとの効果を奏する。 Therefore, the work estimating device has the effect of being able to estimate with high accuracy the content of the work performed by the worker in the work place from the work place image.
本発明の一態様に係る作業推定装置は、前記作業に用いられる工具、前記作業対象物、および、前記作業場の少なくとも1つの状態を検知するセンサの検知情報から、前記作業場において前記作業者が行っている前記作業の内容を予測する作業検知部と、(A)前記作業場を含む複数の作業場を撮像した全体画像、または、(B)前記作業場画像、または、(C)前記全体画像または前記作業場画像から生成された特徴情報を入力とし、前記作業場に前記作業者が存在するか否かを出力とする学習済モデルである存否モデルを用いて、前記全体画像、または、前記作業場画像、または、前記全体画像または前記作業場画像から生成された特徴情報から、前記作業場に前記作業者が存在するか否かを予測する存否予測部と、をさらに備えてもよく、前記判定部は、前記存否予測部によって前記作業場に前記作業者が存在すると予測され、かつ、前記予測部によって予測された前記作業の内容と、前記作業検知部によって予測された前記作業の内容とが一致すると、前記予測部の予測が正しいと判定してもよい。 A work estimating device according to an aspect of the present invention is a work estimating device, based on detection information of a sensor that detects at least one state of a tool used in the work, the work target, and the work place, and the work performed by the worker in the work place. (A) an overall image captured of a plurality of workplaces including the workplace, or (B) the workplace image, or (C) the overall image or the workplace The entire image, the workplace image, or a presence/absence prediction unit that predicts whether or not the worker is present in the workplace based on feature information generated from the overall image or the workplace image; When it is predicted by the unit that the worker is present in the workplace, and when the content of the work predicted by the prediction unit matches the content of the work predicted by the work detection unit, the prediction unit It may be determined that the prediction is correct.
前記の構成によれば、前記作業推定装置は、前記センサの検知情報から予測した前記作業の内容、および、前記作業場における前記作業者の存否を予測する。そして、前記作業推定装置は、前記作業場に前記作業者が存在すると予測し、かつ、前記センサの検知情報から予測した内容と前記作業予測モデルを用いて予測した内容とが一致すると、前記作業予測モデルを用いて予測した内容が正しいと判定する。 According to the above configuration, the work estimating device predicts the content of the work predicted from the detection information of the sensor, and the presence or absence of the worker in the workplace. Then, the work estimation device predicts that the worker is present in the workplace, and when the content predicted from the detection information of the sensor matches the content predicted using the work prediction model, the work prediction It determines that the content predicted using the model is correct.
つまり、前記作業推定装置は、前記作業予測モデルを用いて予測した前記作業の内容の正否を、前記センサの検知情報から予測した前記作業の内容と、前記存否モデルを用いて予測した前記作業場における前記作業者の存否とによって検証する。 In other words, the work estimation device predicts the correctness of the work content predicted using the work prediction model, the work content predicted from the detection information of the sensor, and the work content predicted using the presence/absence model. The presence or absence of the worker is verified.
したがって、前記作業推定装置は、前記作業場画像から、前記作業場において前記作業者が行っている前記作業の内容を、高精度に推定することができるとの効果を奏する。 Therefore, the work estimating device has the effect of being able to estimate with high accuracy the content of the work performed by the worker in the work place from the work place image.
本発明の一態様に係る作業推定装置において、前記作業予測モデルは、前記作業に用いられる工具、前記作業対象物、および、前記作業場の少なくとも1つの状態を検知するセンサの検知情報から予測された、前記作業場において前記作業者が行っている前記作業の内容が、前記作業場画像または前記作業場画像から生成された特徴情報に対してラベルとして付された学習用データセットを用いた機械学習によって、構築されてもよい。 In the work estimating device according to one aspect of the present invention, the work prediction model is predicted from detection information of a sensor that detects at least one state of a tool used in the work, the work object, and the work place. , the content of the work performed by the worker in the workplace is constructed by machine learning using a learning data set in which the workplace image or feature information generated from the workplace image is labeled. may be
前記の構成によれば、前記作業推定装置は、前記センサの検知情報から予測した「前記作業場において前記作業者が行っている前記作業の内容」がラベルとして付された学習用データセットを用いた機械学習によって、前記作業予測モデルを構築する。 According to the above configuration, the work estimation device uses a learning data set labeled with "the content of the work performed by the worker in the workplace" predicted from the detection information of the sensor. Build the work prediction model by machine learning.
教師あり学習のためには、大量の教師データ(学習用データセット)が必要であることが知られており、そのような教師データの生成に必要なラベリング作業、および、教師データに付されているラベル(メタデータ)は、「アノテーション」とも呼ばれる。 It is known that supervised learning requires a large amount of teacher data (learning data set). The labels (metadata) that are present are also called “annotations”.
例えば、前記作業予測モデルの構築に際して学習される教師データには、前記作業者を検出するためのバウンディングボックス(Bounding Box)の設定が不要であったとしても、前記作業場画像に対して以下の5つのアノテーションが必要となる。すなわち、前記作業場画像に対して、前記作業対象物を検出するためのバウンディングボックスの範囲を示す4点のうち、左下の点および右上の点の各々のX座標およびY座標を設定することが必要であり、つまり、4つのアノテーションが必要となる。さらに、前記作業場画像に対して、「前記作業場画像に撮像されている前記作業者が、前記作業場画像に撮像されている作業対象物について行っている作業の内容」を示す情報(ラベル)の付与が必要であり、つまり、1つのアノテーションが必要となる。 For example, even if the training data learned when building the work prediction model does not require setting of a bounding box for detecting the worker, the following 5 one annotation is required. That is, it is necessary to set the X and Y coordinates of the lower left point and the upper right point of the four points indicating the range of the bounding box for detecting the work object with respect to the workplace image. , which means that four annotations are required. Furthermore, information (label) indicating "contents of work performed by the worker imaged in the workplace image on the work target imaged in the workplace image" is added to the workplace image. is required, which means one annotation is required.
そして、大量の前記作業場画像の各々について、「前記作業場画像に撮像されている前記作業者が、前記作業場画像に撮像されている作業対象物について行っている作業の内容」を人間に判定させようとする場合、それに要するコストは極めて大きい。 Then, for each of the large number of workplace images, let a human determine "the details of the work that the worker imaged in the workplace image is doing with respect to the work target imaged in the workplace image". If so, the cost required for it is extremely high.
そこで、前記作業予測モデルの構築に際して学習される教師データの生成に際しては、前記作業場画像から人間が判定した「作業の内容」ではなく、前記センサの検知情報から予測された「作業の内容」が、前記「作業の内容」を示すラベルとして付与される。つまり、前記作業予測モデルの構築に際して学習される教師データにおいては、前記作業場画像から人間が判定した「作業の内容」ではなく、前記センサの検知情報から予測された「作業の内容」が、前記「作業の内容」を示すラベルとして付されている。 Therefore, when generating the training data to be learned when constructing the work prediction model, the "work content" predicted from the detection information of the sensor is used instead of the "work content" determined by a person from the workplace image. , is given as a label indicating the "work content". In other words, in the training data learned when building the work prediction model, the "work content" predicted from the detection information of the sensor is not the "work content" determined by a person from the workplace image. It is affixed as a label indicating "work content".
そのため、前記作業予測モデルの構築に必要となるコスト(特に、前記学習用データセットの生成に必要なアノテーションコスト)は、前記「作業の内容」を示すラベルとして「前記作業場画像から人間が判定した内容」を用いる場合と比べて、大幅に抑制できる。例えば、前記作業場画像に対して必要な上述の5つのアノテーションの内の1つを、「人間による判定内容」から「前記作業推定装置等の装置が前記センサの検知情報から予測した内容」へと変更するので、アノテーションコストを20%抑制することができる。 Therefore, the cost required to construct the work prediction model (in particular, the annotation cost required to generate the learning data set) is the label indicating the work content, which is determined by a human from the workplace image. Compared to the case of using "content", it can be greatly suppressed. For example, one of the above-mentioned five annotations required for the workplace image is changed from "contents determined by humans" to "contents predicted by a device such as the work estimation device from the detection information of the sensor". Since it is changed, the annotation cost can be suppressed by 20%.
したがって、前記の構成によれば、前記作業推定装置は、アノテーションコストが大幅に抑制された前記作業予測モデルを用いて、前記作業場画像から、前記作業場で前記作業者が行っている前記作業の内容を、高精度に推定することができるとの効果を奏する。 Therefore, according to the above configuration, the work estimating device uses the work prediction model whose annotation cost is significantly reduced, and from the work place image, the content of the work performed by the worker in the work place. can be estimated with high precision.
上記の課題を解決するために、本発明の一態様に係る制御方法は、作業場において作業者が行っている作業の内容を推定する作業推定装置の制御方法であって、前記作業場を撮像した作業場画像または前記作業場画像から生成された特徴情報を入力とし、前記作業場画像に撮像されている前記作業者が、前記作業場画像に撮像されている作業対象物について行っている作業の内容を出力とする学習済モデルである作業予測モデルを用いて、前記作業場画像または前記特徴情報から、前記作業者が前記作業対象物について行っている作業の内容を予測する予測ステップと、前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場に前記作業者が存在するか否かの判定結果の少なくとも一方を用いて、前記予測ステップでの予測の正否を判定する判定ステップと、前記判定ステップにて前記予測ステップでの予測が正しいと判定されると、前記予測ステップにて予測された前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容として推定する推定ステップと、を含む。 In order to solve the above problems, a control method according to one aspect of the present invention is a control method for a work estimating device for estimating the content of work performed by a worker in a workplace, the workplace capturing an image of the workplace. An image or feature information generated from the workplace image is input, and the content of work performed by the worker captured in the workplace image on the work object captured in the workplace image is output. a prediction step of predicting the content of the work that the worker is performing on the work object from the workplace image or the feature information using a work prediction model that is a learned model; and a determination step of determining whether the prediction in the prediction step is correct or not using at least one of the content of the work predicted in the prediction step and the determination result of whether or not the worker is present in the workplace; an estimation step of estimating the content of the work predicted in the prediction step as the content of the work performed by the worker in the workplace when the prediction in the prediction step is determined to be correct in the step; and including.
前記の構成によれば、前記制御方法は、前記作業予測モデルを用いて予測した前記作業の内容の正否を、前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場における前記作業者の存否の判定結果の少なくとも一方を用いて判定する。そして、前記制御方法は、前記作業予測モデルを用いた予測が正しいと判定されると、前記作業予測モデルを用いて予測した前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容であると推定する。 According to the above configuration, the control method determines whether the content of the work predicted using the work prediction model is correct, the content of the work predicted without using the work prediction model, and the content of the work predicted without using the work prediction model. It is determined using at least one of the determination results of the presence or absence of the worker. Then, in the control method, when the prediction using the work prediction model is determined to be correct, the content of the work predicted using the work prediction model is changed to the work performed by the worker in the work place. presumed to be the contents of
つまり、前記制御方法は、前記作業予測モデルを用いて予測した前記作業の内容の正否を、前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場に前記作業者が存在するか否かの判定結果の少なくとも一方を用いて検証する。 That is, the control method determines whether the content of the work predicted using the work prediction model is correct or not, the content of the work predicted without using the work prediction model, and the presence of the worker in the work place. Verification is performed using at least one of the determination results as to whether or not to
したがって、前記制御方法は、前記作業場画像から、前記作業場において前記作業者が行っている前記作業の内容を、高精度に推定することができるとの効果を奏する。 Therefore, the control method has the effect of being able to estimate with high accuracy the content of the work performed by the worker in the workplace from the workplace image.
本発明の一態様によれば、撮像画像から、十分な精度をもって、作業者が作業対象物について行っている作業の内容を推定することができるとの効果を奏する。 Advantageous Effects of Invention According to one aspect of the present invention, it is possible to estimate, with sufficient accuracy, the content of work performed by a worker on a work target from a captured image.
〔実施形態1〕
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。なお、図中同一または相当部分には同一符号を付してその説明は繰返さない。本実施の形態においては、情報処理装置10を、「作業場Arにおいて作業者Huが行っている作業Opの内容を推定する作業推定装置」の典型例として説明を行なう。
[Embodiment 1]
Hereinafter, an embodiment (hereinafter also referred to as "this embodiment") according to one aspect of the present invention will be described based on the drawings. The same or corresponding parts in the drawings are denoted by the same reference numerals, and the description thereof will not be repeated. In the present embodiment, the
以下の説明において、「n」、「m」、「p」、「q」、「x」、「y」は、各々、「1」以上の整数を示すものとし、「p」と「q」とは互いに異なる整数であり、「x」と「y」とは互いに異なる整数であるものとする。 In the following description, "n", "m", "p", "q", "x", and "y" each represent an integer of "1" or more, and "p" and "q" are integers different from each other, and "x" and "y" are integers different from each other.
§1.適用例
本発明の一態様に係る情報処理装置10(作業推定装置)についての理解を容易にするため、先ず、情報処理装置10が適用される環境について説明する。情報処理装置10は、例えば、作業場Arを撮像した作業場画像Icの解析結果を利用して、作業者Huが作業対象物Obについて行う作業Opの効率化等に資する情報(支援情報)を生成する。そこで先ず、作業者Hu、作業対象物Ob、作業Op、作業場Ar、および、1つ以上の作業場Arを含む工場Fa等について、説明する。
§1. Application Example To facilitate understanding of the information processing apparatus 10 (work estimation apparatus) according to an aspect of the present invention, first, an environment to which the
(工場および作業工程について)
生産現場である工場Faにおいては、例えば、各種の製品が、1つ以上の作業工程Pr(1)、Pr(2)、Pr(3)、・・・Pr(n)を経て生産される。工場Faにおいて実施される複数の作業工程Pr(1)、Pr(2)、Pr(3)、・・・Pr(n)の各々は、例えば、「塗装」工程、「主要ワークの組み立て」工程、「主要ワークの本体への組み込み」工程、「検査」工程である。
(About factory and work process)
In the factory Fa, which is a production site, for example, various products are produced through one or more work processes Pr(1), Pr(2), Pr(3), . . . Pr(n). Each of the plurality of work processes Pr(1), Pr(2), Pr(3), . , the “assembly of the main work into the main body” process, and the “inspection” process.
複数の工場Faを互いに区別する必要がある場合には、符号に「(A)」、「(B)」、「(C)」、・・・、「(Z)」等の添え字を付して区別する。例えば、「工場Fa(A)」、「工場Fa(B)」、「工場Fa(X)」、・・・、「工場Fa(Z)」と記載して区別する。複数の工場Faの各々を特に区別する必要がない場合は単に「工場Fa」と称する。 When it is necessary to distinguish a plurality of factories Fa from each other, a subscript such as "(A)", "(B)", "(C)", ..., "(Z)" is attached to the code. to distinguish. For example, "factory Fa (A)", "factory Fa (B)", "factory Fa (X)", ..., "factory Fa (Z)" are used for distinction. When there is no particular need to distinguish each of the plurality of factories Fa, they are simply referred to as "factory Fa".
また、作業工程Prについて、複数の作業工程Prの各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別する。例えば、「作業工程Pr(1)」、「作業工程Pr(2)」、「作業工程Pr(3)」、・・・、「作業工程Pr(n)」と記載して区別する。複数の作業工程Prの各々を特に区別する必要がない場合は単に「作業工程Pr」と称する。 When it is necessary to distinguish between a plurality of work processes Pr, the symbols "(1)", "(2)", "(3)", . . . , "( n)" or the like to distinguish them. For example, "work process Pr(1)", "work process Pr(2)", "work process Pr(3)", ..., "work process Pr(n)" are described for distinction. When there is no particular need to distinguish each of the plurality of work processes Pr, they are simply referred to as "work process Pr".
(作業について)
作業工程Prにおいて、作業者Huは、1つ以上の作業Op(1)、Op(2)、Op(3)、・・・Op(n)を行う。例えば、作業工程Pr(x)において、作業者Huは、作業Op(x1)、Op(x2)、Op(x3)を行う。一例を挙げれば、作業工程Pr(m)が「塗装」工程の場合、作業Op(x1)は、作業対象物Obの「把持」であってもよいし、作業Op(x2)は、作業対象物Obの「塗装」であってもよいし、作業Op(x3)は、作業対象物Obの「運搬」であってもよい。
(About work)
In the work process Pr, the worker Hu performs one or more works Op(1), Op(2), Op(3), . . . Op(n). For example, in work process Pr(x), worker Hu performs tasks Op(x1), Op(x2), and Op(x3). For example, if the work process Pr(m) is the "painting" process, the work Op(x1) may be "grasping" the work object Ob, and the work Op(x2) may be the work object Ob. The work Op(x3) may be "painting" of the object Ob, and the work Op(x3) may be "carrying" the work object Ob.
作業Opについて、複数の作業Opの各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「作業Op」と称する。 When it is necessary to distinguish each of a plurality of work Ops, the codes are "(1)", "(2)", "(3)", ..., "(n)", etc. , and are simply referred to as "operation Op" when there is no particular need to distinguish them.
(作業場について)
工場Faは、1つ以上の作業場Ar(1)、Ar(2)、Ar(3)、・・・Ar(n)を含む。作業場Arは「セル」とも呼ばれ、つまり、工場Faは、1つ以上のセルを含む。1つ以上の作業場Ar(1)、Ar(2)、Ar(3)、・・・Ar(n)の各々は、1つ以上の作業工程Pr(1)、Pr(2)、Pr(3)、・・・Pr(n)の各々に対応付けられている。すなわち、作業場Ar(m)は、作業工程Pr(m)に含まれる作業Op(m)を、作業者Huが行う領域である。
(About workshop)
Factory Fa includes one or more workplaces Ar(1), Ar(2), Ar(3), . . . Ar(n). A workplace Ar is also called a "cell", ie a factory Fa contains one or more cells. Each of the one or more workplaces Ar(1), Ar(2), Ar(3), . ), . . . Pr(n). That is, the work area Ar(m) is an area where the worker Hu performs the work Op(m) included in the work process Pr(m).
作業場Arについて、複数の作業場Arの各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「作業場Ar」と称する。 When it is necessary to distinguish between a plurality of workplaces Ar, the symbols "(1)", "(2)", "(3)", ..., "(n)", etc. and are simply referred to as "Workplace Ar" when there is no particular need to distinguish them.
(作業対象物について)
作業場Arには、作業者Huが行う作業Opの対象である作業対象物Obが1つ以上配置され、例えば、作業場Ar(x)には、作業対象物Ob(x1)、Ob(x2)、Ob(x3)、・・・、Ob(xn)が配置されている。
(Regarding work objects)
One or more work objects Ob, which are objects of work Op performed by the worker Hu, are arranged in the work place Ar. Ob(x3), . . . , Ob(xn) are arranged.
作業対象物Obは、作業者Hu以外の存在であり、例えば、いわゆる「ワーク」であり、また、例えば、作業者Huが作業Opを行う際に用いる工具である。 The work object Ob is an entity other than the worker Hu, such as a so-called "work", or a tool used by the worker Hu to perform the work Op, for example.
作業対象物Obについて、複数の作業対象物Obの各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「作業対象物Ob」と称する。 When it is necessary to distinguish between a plurality of work objects Ob, the symbols "(1)", "(2)", "(3)", ..., "( n)", etc., to distinguish them, and when there is no particular need to distinguish them, they are simply referred to as "work objects Ob".
(作業者について)
工場Faには、作業工程Prに含まれる作業Opを実行する作業者Huが1人以上存在し、例えば、作業者Hu(1)、Hu(2)、Hu(3)、・・・、Hu(n)が存在する。作業者Huは、例えば、作業者Huが被っている帽子の頭頂部などに付された作業者IDによって識別されてもよい。具体的には、工場Faに存在する作業者Hu(1)と作業者Hu(2)とは、作業者Hu(1)が被る帽子に付された作業者ID(1)と、作業者Hu(2)が被る帽子に付された作業者ID(2)とにより、各々が識別されてもよい。また、或る作業者Hu(1)を、別の作業者Hu(2)にとっての作業対象物Obとみなしてもよい。
(About workers)
In the factory Fa, there are one or more workers Hu who execute the work Op included in the work process Pr. For example, workers Hu(1), Hu(2), Hu(3), (n) exists. The worker Hu may be identified by, for example, a worker ID attached to the top of the cap worn by the worker Hu. Specifically, worker Hu(1) and worker Hu(2) in factory Fa are identified by worker ID(1) attached to the cap worn by worker Hu(1) and worker Hu(2). Each may be identified by the worker ID (2) attached to the cap worn by (2). Also, a certain worker Hu(1) may be regarded as a work object Ob for another worker Hu(2).
作業者Huについて、複数の作業者Huの各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「作業者Hu」と称する。 Regarding the worker Hu, when it is necessary to distinguish each of a plurality of workers Hu, the symbols "(1)", "(2)", "(3)", ..., "(n)" , etc., and are simply referred to as "worker Hu" when there is no particular need to distinguish them.
(機器および動作について)
工場Faは、1つ以上の機器40(1)、40(2)、40(3)、・・・40(n)を備える。機器40は、センサなどの入力デバイス41と、アクチュエータなどの出力デバイス42とを含む。
(Equipment and operation)
Factory Fa comprises one or more pieces of equipment 40(1), 40(2), 40(3), . . . 40(n).
出力デバイス42は、PLC20によって出力を制御されるデバイスである。作業者Huは、作業Opを行う際に、出力デバイス42の出力を利用してもよく、具体的には、作業者Huは、出力デバイス42が実行する動作Acを利用して、作業Opを行ってもよい。すなわち、作業者Huは、作業Opを行う際に、出力デバイス42を工具として利用してもよく、言い換えれば、出力デバイス42は、作業者Huが作業Opを行う際に作業者Huが利用する工具であってもよい。例えば、作業工程Pr(x)に含まれる作業Op(x)を作業者Huが行う際には、出力デバイス42(x)が利用されてもよく、具体的には、出力デバイス42(x)が実行する動作Ac(x)を利用して、作業者Huは作業Op(x)を行ってもよい。
The output device 42 is a device whose output is controlled by the
入力デバイス41は、作業Opに用いられる工具(例えば、出力デバイス42、および、後述する出力デバイス42以外の器具90)、作業対象物Ob、および、作業場Arの少なくとも1つの状態を検知するセンサ(検知装置)である。例えば、入力デバイス41は、工具の消費電力、工具・作業対象物Ob等の作業者Huによる把持、工具・作業場Ar・作業対象物Ob等が備えるボタンの作業者Huによる押下、工具・作業場Ar・作業対象物Ob等が備える開閉機構の開閉などを検知する。 The input device 41 is a sensor that detects at least one state of a tool used in the work Op (for example, the output device 42 and a tool 90 other than the output device 42 to be described later), the work object Ob, and the work place Ar ( detection device). For example, the input device 41 can be used for power consumption of a tool, grasping of the tool/work object Ob by the worker Hu, pressing of a button provided by the tool/workplace Ar/workpiece Ob, etc. by the worker Hu,・Detect opening and closing of an opening/closing mechanism provided on the work object Ob and the like.
具体的には、入力デバイス41は、例えば電流検知センサであり、作業者Huが「作業Op(x):ネジ締め作業」を行う際に利用する「器具90(x):電動ドライバ」に流れる電流を検知してもよい。また、入力デバイス41は、例えば把持センサであり、「器具90(x):電動ドライバ」が作業者Huによって把持されたのを検知してもよい。さらに、入力デバイス41は、例えば開始/終了ボタンであり、作業者Huによる押下を検知してもよい。また、入力デバイス41は、例えば光電センサであり、工具・作業場Ar・作業対象物Ob等が備える開閉機構の開閉を検知してもよい。 Specifically, the input device 41 is, for example, a current detection sensor, and the input device 41 is used when the worker Hu performs "work Op(x): screw tightening work". Current may be sensed. The input device 41 may be, for example, a gripping sensor, and may detect that the operator Hu has gripped the "instrument 90(x): electric screwdriver". Furthermore, the input device 41 is, for example, a start/end button, and may detect pressing by the operator Hu. Further, the input device 41 is, for example, a photoelectric sensor, and may detect opening and closing of an opening/closing mechanism included in the tool, work area Ar, work object Ob, and the like.
入力デバイス41は、検知した状態を示す情報(以下、「検知情報Id」とも称する)を、制御ネットワーク50を介して、PLC20へと周期的に出力する。特に、入力デバイス41は、「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態を検知した時刻(検知時刻Td)」を、検知情報Idに含めてPLC20へと周期的に出力する。
The input device 41 periodically outputs information indicating the detected state (hereinafter also referred to as “detection information Id”) to the
機器40について、複数の機器40の各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「機器40」と称する。同様に、入力デバイス41について、複数の入力デバイス41の各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「入力デバイス41」と称する。また、出力デバイス42について、複数の出力デバイス42の各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「出力デバイス42」と称する。
Regarding the
さらに、動作Acについて、複数の動作Acの各々を区別する必要がある場合には、符号に「(1)」、「(2)」、「(3)」、・・・、「(n)」等の添え字を付して区別し、特に区別する必要がない場合は単に「動作Ac」と称する。 Furthermore, when it is necessary to distinguish between a plurality of actions Ac, the symbols "(1)", "(2)", "(3)", . . . , "(n)" , etc., and are simply referred to as "action Ac" when there is no particular need to distinguish between them.
また、「作業Op(x)に用いられる工具(例えば、出力デバイス42(x)または器具90(x))、作業対象物Ob(x)、および、作業場Ar(x)の少なくとも1つの状態」を示す検知情報Idを、特に「検知情報Id(x)」と表現することがある。 Also, "at least one state of the tool (eg, output device 42(x) or instrument 90(x)) used in the operation Op(x), the work object Ob(x), and the workplace Ar(x)" The detection information Id indicating is sometimes expressed as "detection information Id(x)".
(工具について)
工場Faは、出力デバイス42に加えて、出力デバイス42以外の器具90(不図示)を備えてもよい。作業者Huは、作業Opを行う際、器具90を利用してもよく、具体的には、作業者Huは、器具90が実行する動作Acを利用して、作業Opを行ってもよい。例えば、作業工程Pr(x)に含まれる作業Op(x)を作業者Huが行う際には、器具90(x)が利用されてもよく、具体的には、器具90(x)が実行する動作Ac(x)を利用して、作業者Huは作業Op(x)を行ってもよい。一例を挙げれば、作業者Huは、「器具90(x):電動ドライバ」の実行する「動作Ac(x):回転動作」を利用して、「作業Op(x):ネジ締め作業」を行ってもよい。
(About tools)
In addition to the output device 42, the factory Fa may be provided with fixtures 90 (not shown) other than the output device 42. The worker Hu may use the tool 90 when performing the work Op. Specifically, the worker Hu may use the action Ac performed by the tool 90 to perform the work Op. For example, when the worker Hu performs the work Op(x) included in the work process Pr(x), the tool 90(x) may be used. The operator Hu may perform the operation Op(x) using the operation Ac(x). For example, the worker Hu uses the “operation Ac(x): rotating operation” executed by the “instrument 90(x): electric screwdriver” to perform “operation Op(x): screw tightening operation”. you can go
前述の通り、器具90の状態(例えば、作業者Huによって使用されているとの状態)は、入力デバイス41によって検知され、入力デバイス41は、検知した「器具90の状態」を、制御ネットワーク50を介して、PLC20へと周期的に出力する。すなわち、入力デバイス41は、「器具90の状態」を検知すると、検知した「器具90の状態」と、その「器具90の状態」を検知した時刻(検知時刻Td)とを含む検知情報Idを、PLC20へと周期的に出力する。
As described above, the state of the instrument 90 (for example, the state of being used by the worker Hu) is detected by the input device 41, and the input device 41 transmits the detected "state of the instrument 90" to the control network 50. periodically output to the
(作業場画像について)
作業場画像Icは、作業場Arを撮像した撮像画像であり、複数の作業場画像Icの各々は、複数の作業場Arの各々を撮像した撮像画像である。例えば、作業場画像Icは、作業場Arにおいて作業Opを行っている作業者Huを略正面から撮像した撮像画像であり、作業場画像Icは作業場Arごとに生成される撮像画像である。
(About the workshop image)
The workplace image Ic is a captured image of the workplace Ar, and each of the plurality of workplace images Ic is a captured image of each of the plurality of workplaces Ar. For example, the work place image Ic is a captured image of the worker Hu who is performing the work Op in the work place Ar from the front, and the work place image Ic is a captured image generated for each work place Ar.
複数の作業場画像Icは、各々に撮像されている作業場Arによって区別されてもよい。例えば、複数の作業場画像Icの各々と、各々の作業場画像Icに撮像されている作業場Arとを対応付けることによって、複数の作業場画像Icの各々を区別してもよい。 A plurality of workplace images Ic may be distinguished by the workplace Ar captured in each. For example, each of the plurality of workplace images Ic may be distinguished by associating each of the plurality of workplace images Ic with the workplace Ar captured in each workplace image Ic.
すなわち、作業場Ar(1)を撮像した作業場画像Icを作業場画像Ic(1)と記載し、作業場Ar(2)を撮像した作業場画像Icを作業場画像Ic(2)と記載してもよい。同様に、作業場Ar(n)を撮像した作業場画像Icを作業場画像Ic(n)と記載してもよい。 That is, the workplace image Ic obtained by imaging the workplace Ar(1) may be referred to as the workplace image Ic(1), and the workplace image Ic obtained by imaging the workplace Ar(2) may be referred to as the workplace image Ic(2). Similarly, the workplace image Ic obtained by imaging the workplace Ar(n) may be described as the workplace image Ic(n).
複数の作業場画像Icについて、各々に撮像されている作業場Arによって複数の作業場画像Icを互いに区別する必要がない場合には、単に「作業場画像Ic」と称する。 A plurality of workplace images Ic are simply referred to as "workplace images Ic" when it is not necessary to distinguish between the plurality of workplace images Ic by the workplace Ar captured in each.
(全体画像について)
作業場画像Icが作業場Arごとの撮像画像であるのに対して、全体画像Iaは、複数の作業場Arが撮像されている撮像画像であり、例えば、工場Faの天井から見下ろした、工場Faの全体が撮像されている撮像画像である。
(About the whole image)
While the workplace image Ic is a captured image of each workplace Ar, the overall image Ia is a captured image in which a plurality of workplaces Ar are captured. is a captured image.
以下では先ず、図2を用いて、情報処理装置10を含む制御システム1等の概要について説明する。
First, an overview of the
(情報処理装置を含むシステムの全体概要について)
図2は、情報処理装置10を含む制御システム1等の全体概要を示す図である。これまで説明してきた環境について、情報処理装置10は、作業場Arを撮像した作業場画像Icから、作業場画像Icに撮像されている作業者Huが行っている作業Opの内容を高精度に推定する。
(Overview of system including information processing device)
FIG. 2 is a diagram showing an overall overview of the
セルカメラ30は、作業場Ar(つまり、セル)に設置され、作業場画像Icを生成する。例えば、作業場Arごとにセルカメラ30が設置され、複数のセルカメラ30の各々は、作業場Arごとに、作業場Arにおいて作業Opを行っている作業者Huを略正面から撮像可能な位置に設置される。セルカメラ30は、生成した作業場画像Icを、情報処理装置10へと出力し、特に、作業場Arを撮像した時刻である撮像時刻Tpと共に、作業場画像Icを、情報処理装置10へと出力する。
The cell camera 30 is installed in the workplace Ar (that is, cell) and generates a workplace image Ic. For example, a cell camera 30 is installed for each workplace Ar, and each of the plurality of cell cameras 30 is installed at a position where it is possible to capture an image of a worker Hu who is performing a work Op in the workplace Ar from substantially the front for each workplace Ar. be. The cell camera 30 outputs the generated workplace image Ic to the
工場Faにおいて作業場Arごとに設置されたセルカメラ30を互いに区別する場合、複数のセルカメラ30の各々と、各々のセルカメラ30が設置されている作業場Arとを対応付けることによって、複数のセルカメラ30の各々を区別してもよい。例えば、作業場Ar(1)に設置されているセルカメラ30をセルカメラ30(1)と記載し、作業場Ar(2)に設置されているセルカメラ30をセルカメラ30(2)と記載してもよい。同様に、作業場Ar(n)に設置されているセルカメラ30をセルカメラ30(n)と記載してもよい。 When distinguishing the cell cameras 30 installed for each work area Ar in the factory Fa, each of the plurality of cell cameras 30 is associated with the work area Ar in which each cell camera 30 is installed. 30 may be distinguished. For example, the cell camera 30 installed at work place Ar(1) is described as cell camera 30(1), and the cell camera 30 installed at work place Ar(2) is described as cell camera 30(2). good too. Similarly, the cell camera 30 installed in the workplace Ar(n) may be referred to as cell camera 30(n).
天井カメラ80は、例えば工場Faの天井に設置され、複数の作業場Arを斜め上から見下ろす全体画像Iaを生成し、例えば、1台の天井カメラ80によって工場Faの全体を撮像した全体画像Iaを生成する。ただし、天井カメラ80が工場Faの天井に1台設置されることは必須ではなく、工場Faの天井に設置された複数の天井カメラ80の各々が、工場Fa内の複数の作業場Arを撮像した全体画像Iaを生成してもよい。つまり、天井カメラ80は、複数の作業場Arを撮像した全体画像Iaを生成できればよい。 The ceiling camera 80 is installed, for example, on the ceiling of the factory Fa, and generates an overall image Ia that obliquely looks down on a plurality of workplaces Ar. Generate. However, it is not essential that one ceiling camera 80 is installed on the ceiling of the factory Fa, and each of the plurality of ceiling cameras 80 installed on the ceiling of the factory Fa captures a plurality of workplaces Ar in the factory Fa. A full image Ia may be generated. In other words, the ceiling camera 80 only needs to be able to generate an overall image Ia of a plurality of workplaces Ar.
以下の説明においては、工場Faの天井に、広域撮像カメラである天井カメラ80を1台設置し、1台の天井カメラ80が、工場Faの全体を俯瞰して撮像した全体画像Iaを生成する例を説明する。天井カメラ80は、生成した全体画像Iaを、情報処理装置10へと出力し、特に、工場Faの全体を撮像した時刻(つまり、全体画像Iaを生成した時刻)である全体時刻Taと共に、全体画像Iaを、情報処理装置10へと出力する。
In the following description, one ceiling camera 80, which is a wide-area imaging camera, is installed on the ceiling of the factory Fa, and the one ceiling camera 80 generates an overall image Ia of the entire factory Fa. An example is given. The ceiling camera 80 outputs the generated overall image Ia to the
(作業場画像に対する画像解析による、作業内容の予測)
情報処理装置10は、制御システム1に含まれ、例えばUSB(Universal Serial Bus)ケーブルを介して、セルカメラ30と通信可能に接続されている。情報処理装置10は、セルカメラ30から、作業場Arを撮像した作業場画像Icを取得し、取得した作業場画像Icに対し画像解析を実行して、作業場画像Icに撮像されている作業者Huが作業対象物Obについて行っている作業Opの内容を予測する。情報処理装置10は、HOI(Human Object Interaction)検出アルゴリズムを用いて、作業場画像Icから、「作業場画像Icに撮像されている作業者Huが作業対象物Obについて行っている作業Opの内容」を予測する。特に、情報処理装置10は、セルカメラ30から、作業場画像Icと共に、作業場画像Icが生成された時刻である撮像時刻Tpを取得し、取得した作業場画像Icと撮像時刻Tpとから、以下の予測を実行する。すなわち、情報処理装置10は、「撮像時刻Tpにおいて、作業場画像Icに撮像されている作業者Huが、作業場Arで、作業対象物Obについて行っている作業Opの内容」を予測する。作業場画像Icから予測される「作業者Huが作業対象物Obについて行っている作業Opの内容」を、特に、「撮像時刻Tpにおいて、作業者Huが、作業場Arで作業対象物Obについて行っている作業Opの内容」を、第一予測Pfとも称する。
(Prediction of work content by image analysis of workplace images)
The
例えば、情報処理装置10は、作業場Ar(x)を撮像した作業場画像Ic(x)に対し画像解析を実行して、作業場Ar(x)において作業者Hu(x)が作業対象物Ob(x)について行っている作業Op(x)の内容を予測する。特に、情報処理装置10は、作業場画像Ic(x)から、「作業場画像Ic(x)が撮像された撮像時刻Tpにおいて、作業者Hu(x)が、作業場Ar(x)で作業対象物Ob(x)について行っている作業Op(x)の内容」を予測する。作業場画像Ic(x)から予測される、「作業場画像Ic(x)が撮像された撮像時刻Tpにおいて、作業者Hu(x)が、作業場Ar(x)で作業対象物Ob(x)について行っている作業Op(x)の内容」を、特に「第一予測Pf(x)」と称することがある。
For example, the
(全体画像に対する画像解析による、作業者の存否の予測)
情報処理装置10は、制御システム1に含まれ、例えばUSB(Universal Serial Bus)ケーブルを介して、天井カメラ80と通信可能に接続されている。情報処理装置10は、天井カメラ80から、工場Faの全体を俯瞰して撮像した全体画像Iaを取得し、取得した全体画像Iaに対し画像解析を実行して、作業者Huが作業場Arに居るかを予測する。情報処理装置10は、例えばYOLOなどの動線検出アルゴリズム(物体検出アルゴリズム)を利用して、全体画像Iaから、「全体画像Iaに撮像されている作業場Arに、作業者Huが居るか」を予測する。特に、情報処理装置10は、天井カメラ80から、全体画像Iaと共に、全体画像Iaが生成された時刻である全体時刻Taを取得し、取得した全体画像Iaと全体時刻Taとから、以下の予測を実行する。すなわち、情報処理装置10は、「全体時刻Taにおいて、作業者Huが作業場Ar(特に、作業場画像Icに撮像されている作業場Ar)に居るか」を予測する。
(Prediction of worker presence/absence by image analysis of the entire image)
The
したがって、情報処理装置10は、「撮像時刻Tpに対応する全体時刻Taにおいて、作業場Ar(特に、作業場画像Icに撮像されている作業場Ar)に作業者Huが居るか否か」を予測することができる。
Therefore, the
全体画像Iaから予測される「作業場Arにおける作業者Huの存否」を、特に、「撮像時刻Tpに対応する全体時刻Taにおいて、作業場Arに作業者Huが居るか否か」の予測を、存否予測Paとも称する。 The presence or absence of the worker Hu in the workplace Ar predicted from the overall image Ia, in particular, the prediction of the presence or absence of the worker Hu in the workplace Ar at the overall time Ta corresponding to the imaging time Tp. Also referred to as predicted Pa.
例えば、情報処理装置10は、「セルカメラ30(x)が生成した作業場画像Ic(x)に撮像されている作業場Ar(x)に作業者Hu(x)が居るか」を、天井カメラ80が生成した全体画像Iaに対する画像解析によって予測する。特に、情報処理装置10は、全体画像Iaから、「『作業場画像Ic(x)が撮像された撮像時刻Tp』に対応する全体時刻Taにおいて、作業者Hu(x)が、作業場Ar(x)に居るか」を予測する。全体画像Iaから予測される、「『作業場画像Ic(x)が撮像された撮像時刻Tp』に対応する全体時刻Taにおいて、作業者Hu(x)が作業場Ar(x)に居るか」の予測を、特に「存否予測Pa(x)」と称することがある。
For example, the
(検知情報を用いた、作業内容の予測)
また、情報処理装置10は、PLC(Programmable Logic Controller)20から、PLC20によって動作Acを制御される機器40が実行した動作Acの内容および結果を示す動作結果Laから生成された工程情報Ipを取得する。工程情報Ipには、例えば、「機器40が動作Acを実行した時刻」、および、「機器40による動作Acの実行が、入力デバイス41等によって検知された時刻」の少なくとも一方が、検知時刻Tdとして含まれている。
(Prediction of work content using detection information)
In addition, the
情報処理装置10は、PLC20から取得する工程情報Ipによって、出力デバイス42の状態(例えば、動作Acの内容および結果を含む動作状態)を把握し、把握した状態から、作業者Huが出力デバイス42を用いて行っている作業Opの内容を予測する。特に、情報処理装置10は、検知時刻Tdを含む工程情報Ipから、「『撮像時刻Tpに対応する検知時刻Td』における出力デバイス42の状態」を把握する。そして、情報処理装置10は、把握した「『撮像時刻Tpに対応する検知時刻Td』における出力デバイス42の状態」から、「『撮像時刻Tpに対応する検知時刻Td』において、作業者Huが出力デバイス42を用いて行っている作業Opの内容」を予測する。
The
ただし、PLC20が、機器40の出力等から出力デバイス42の状態を把握し、把握した状態から作業者Huが出力デバイス42を用いて行っている作業Opの内容を予測してもよい。そして、PLC20は、予測した作業Opの内容を含む工程情報Ipを、情報処理装置10に出力してもよい。すなわち、出力デバイス42の状態から作業者Huが出力デバイス42を用いて行っている作業Opの内容を予測するのは、PLC20であっても、情報処理装置10であってもよい。情報処理装置10は、出力デバイス42の状態から予測される「作業者Huが出力デバイス42を用いて行っている作業Opの内容」を取得または生成できればよい。
However, the
ここで、工程情報Ipは、「PLC20の制御する機器40の出力、および、PLC20による出力デバイス42に対する制御内容」等から生成される、出力デバイス42等の状態を示す情報である。そのため、PLC20は、「出力デバイス42からフィードバックとして取得する出力デバイス42の出力、および、出力デバイス42に対する制御内容」等から、出力デバイス42の状態を検知する検知装置と捉えることもできる。また、工程情報Ipは、「作業Opに用いられる工具(例えば、出力デバイス42、および、器具90)、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す情報である「検知情報Id」の一種と捉えることもできる。
Here, the process information Ip is information indicating the state of the output device 42 and the like generated from "the output of the
さらに、情報処理装置10は、PLC20から、入力デバイス41によって検知された「作業Opに用いられる工具(例えば、出力デバイス42、および、器具90)、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す検知情報Idを取得する。
Furthermore, the
なお、情報処理装置10は、PLC20を介さずに、入力デバイス41から直接、入力デバイス41の検知した状態を示す検知情報Idを取得してもよい。
The
検知情報Idには、入力デバイス41が「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を検知した時刻である検知時刻Tdが含まれる。 The detection information Id includes the detection time Td, which is the time when the input device 41 detects "at least one state of the tool used in the work Op, the work object Ob, and the workplace Ar".
情報処理装置10は、PLC20から取得する検知情報Idによって、作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態を把握し、把握した状態から、作業者Huが行っている作業Opの内容を予測する。
The
ただし、入力デバイス41から取得した検知情報Idによって、工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態を把握し、把握した状態から作業者Huが行っている作業Opの内容を予測するのは、PLC20であってもよい。そして、PLC20が、予測した作業Opの内容を含む工程情報Ipを、情報処理装置10に出力してもよい。すなわち、工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態から作業者Huが行っている作業Opの内容を予測するのは、PLC20であっても、情報処理装置10であってもよい。情報処理装置10は、工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態から予測される「作業者Huが行っている作業Opの内容」を取得または生成できればよい。
However, based on the detection information Id acquired from the input device 41, the state of at least one of the tool, the work object Ob, and the workplace Ar is grasped, and the content of the work Op performed by the worker Hu is predicted from the grasped state. It may be the
すなわち、情報処理装置10は、PLC20から取得する、「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す検知情報Id(工程情報Ipを含む)を取得する。情報処理装置10は、取得した検知情報Idから、「作業者Huが行っている作業Opの内容」を予測し、特に、「『撮像時刻Tpに対応する検知時刻Td』において、作業者Huが行っている作業Opの内容」を予測する。ただし、情報処理装置10は、PLC20が検知情報Idから予測した「作業者Huが行っている作業Opの内容」を、検知情報Idと共に、または、検知情報Idに代えて、PLC20から取得してもよい。例えば、情報処理装置10は、「『撮像時刻Tpに対応する検知時刻Td』において、作業者Huが行っている作業Opの内容」を、検知情報Idと共に、または、検知情報Idに代えて、PLC20から取得してもよい。
That is, the
検知情報Id(工程情報Ipを含む)から予測される「作業者Huが行っている作業Opの内容」を、特に、「『撮像時刻Tpに対応する検知時刻Td』において、作業者Huが行っている作業Opの内容」を、作業予測Poとも称する。 ``Details of the work Op performed by the worker Hu'' predicted from the detection information Id (including the process information Ip) are The content of the work Op that is being performed" is also referred to as a work prediction Po.
例えば、情報処理装置10は、作業場Ar(x)において作業者Hu(x)が行っている作業Op(x)の内容を、以下の検知情報Id(x)(工程情報Ip(x)を含む)から予測する。すなわち、情報処理装置10は、「作業場Ar(x)に備えられた工具、作業場Ar(x)に配置されている作業対象物Ob(x)、および、作業場Ar(x)の少なくとも1つの状態」を示す検知情報Id(x)から、作業Op(x)の内容を予測する。「作業場Ar(x)に備えられた工具(例えば、出力デバイス42(x)、および、器具90(x)の少なくとも一方)」は、作業者Hu(x)が作業Op(x)を行う際に用いる工具である。特に、情報処理装置10は、工程情報Ip(x)から、「『撮像時刻Tpに対応する検知時刻Td』において、作業者Hu(x)が、作業場Ar(x)で作業対象物Ob(x)について行っている作業Op(x)の内容」を予測する。検知情報Id(x)(工程情報Ip(x)を含む)から予測される「『撮像時刻Tpに対応する検知時刻Td』において、作業者Hu(x)が行っている作業Op(x)の内容」を、「作業予測Po(x)」と称することがある。
For example, the
(予測した作業内容の検証と、推定結果の出力)
情報処理装置10は、作業場画像Icから予測した「作業者Huが作業対象物Obについて行っている作業Opの内容」を、以下の2つの予測の少なくとも一方を用いて、検証する。すなわち、情報処理装置10は、作業場画像Icから予測した内容を、全体画像Iaから予測した「作業者Huの存否」の予測、および、検知情報Idから予測された「作業者Huが行っている作業Opの内容」の少なくとも一方を用いて、検証する。つまり、情報処理装置10は、第一予測Pfの正否を、存否予測Paおよび作業予測Poの少なくとも一方を用いて検証し、特に、第一予測Pf(x)の正否を、存否予測Pa(x)および作業予測Po(x)の少なくとも一方を用いて検証する。
(Verification of predicted work content and output of estimation results)
The
第一予測Pf(x)は、情報処理装置10が作業場画像Ic(x)から予測した、「作業場Ar(x)において作業者Hu(x)が作業対象物Ob(x)について行っている作業Op(x)の内容」の予測である。「第一予測Pf(x)」は、例えば、作業場画像Ic(x)から予測された、「作業場画像Ic(x)が撮像された撮像時刻Tpにおいて、作業者Hu(x)が、作業場Ar(x)で作業対象物Ob(x)について行っている作業Op(x)の内容」である。
The first prediction Pf(x) is the work performed by the worker Hu(x) on the work object Ob(x) at the work place Ar(x), which is predicted by the
存否予測Pa(x)は、情報処理装置10が全体画像Iaから予測した、「作業場Ar(x)に作業者Huが存在するか否か」の予測である。存否予測Pa(x)は、例えば、全体画像Iaから予測された、「『作業場画像Ic(x)が撮像された撮像時刻Tp』に対応する全体時刻Taにおいて、作業者Hu(x)が作業場Ar(x)に居るか」の予測である。
The presence/absence prediction Pa(x) is a prediction of “whether or not there is a worker Hu in the workplace Ar(x)” predicted by the
作業予測Po(x)は、情報処理装置10が検知情報Id(x)から予測した、「作業場Ar(x)において作業者Hu(x)が行っている作業Op(x)の内容」の予測である。作業予測Po(x)は、例えば、検知情報Id(x)から予測された、「『撮像時刻Tpに対応する検知時刻Td』において、作業者Hu(x)が作業場Ar(x)で行っている作業Op(x)の内容」である。
The work prediction Po(x) is a prediction of "the details of the work Op(x) performed by the worker Hu(x) at the workplace Ar(x)" predicted by the
例えば、情報処理装置10(特に、後述する判定部150)は、存否予測Pa(x)において、「作業場Ar(x)に作業者Huが存在する」と予測されていると、「第一予測Pf(x)は正しい」と判定する。より具体的には、情報処理装置10は、存否予測Pa(x)として、「『撮像時刻Tpに対応する全体時刻Ta』において、作業者Hu(x)が作業場Ar(x)に居る」と予測されていると、「第一予測Pf(x)は正しい」と判定する。そして、情報処理装置10(特に、後述する推定部160)は、判定部150によって正しいと判定された第一予測Pf(x)を、推定結果として、外部へと出力する。
For example, the information processing device 10 (particularly, the
例えば、情報処理装置10(特に、後述する判定部150)は、作業予測Po(x)における作業Op(x)と第一予測Pf(x)における作業Op(x)とが一致すると、「第一予測Pf(x)は正しい」と判定する。より具体的には、情報処理装置10は、存否予測Pa(x)における「『撮像時刻Tpに対応する検知時刻Td』での作業Op(x)の内容」と、第一予測Pf(x)における「撮像時刻Tpでの作業Op(x)の内容」とが一致しているか否かを確認する。そして、情報処理装置10は、両者が一致していることを確認すると、「第一予測Pf(x)は正しい」と判定する。そして、情報処理装置10(特に、後述する推定部160)は、判定部150によって正しいと判定された第一予測Pf(x)を、推定結果として、外部へと出力する。
For example, when the work Op(x) in the work prediction Po(x) and the work Op(x) in the first prediction Pf(x) match, the information processing device 10 (in particular, the
例えば、情報処理装置10(特に、後述する判定部150)は、存否予測Pa(x)において「作業場Ar(x)に作業者Huが存在する」と予測された場合に、作業予測Po(x)と第一予測Pf(x)とが一致するかを確認する。より具体的には、情報処理装置10は、存否予測Pa(x)として、「『撮像時刻Tpに対応する全体時刻Ta』において、作業者Hu(x)が作業場Ar(x)に居る」と予測された場合に、作業予測Po(x)と第一予測Pf(x)との一致を確認する。情報処理装置10は、存否予測Pa(x)における「撮像時刻Tpに対応する検知時刻Tdでの作業Op(x)の内容」と、第一予測Pf(x)における「撮像時刻Tpでの作業Op(x)の内容」との一致を確認すると、第一予測Pf(x)は正しいと判定する。そして、情報処理装置10(特に、後述する推定部160)は、判定部150によって正しいと判定された第一予測Pf(x)を、推定結果として、外部へと出力する。
For example, when the presence/absence prediction Pa(x) predicts that “the worker Hu is present in the workplace Ar(x),” the information processing apparatus 10 (in particular, the
(マスタスレーブ制御システムについて)
制御システム1において、工場Faにおける作業工程Prを実施するのに用いられる機器40は、ラインコントローラとしてのPLC20により制御される。すなわち、PLC20をマスタとし、複数の機器40の各々をスレーブとするマスタスレーブ制御システムとしての制御システム1が構築され、複数の機器40の各々はネットワーク(制御ネットワーク50)を介してPLC20に通信可能に接続されている。PLC20は、制御ネットワーク50を介したデータ伝送を管理しているという意味で「マスタ」と呼ばれる。「マスタ」および「スレーブ」は、制御ネットワーク50上のデータ伝送の制御機能に着目して定義されるものであり、各装置間でどのような情報が送受信されるかについては、特に限定されない。
(About master-slave control system)
In the
PLC20は、制御システム1全体を制御する制御装置(コントローラ)であり、複数の機器40の各々と通信可能に接続されている。PLC20は、入力デバイス41(計測デバイス)としての複数の機器40の各々からの情報を入力データとして取得する。PLC20は、予め組み込まれたユーザプログラムに従って、取得した入力データを用いた演算処理を実行する。PLC20は、前記演算処理を実行して、制御システム1に対する制御内容を決定し、例えば、アクチュエータなどの出力デバイス42としての複数の機器40の各々への制御内容を決定する。そして、PLC20は、決定した制御内容に対応する制御データを、複数の機器40(特に、出力デバイス42)の各々へと出力する。PLC20は、複数の機器40(具体的には、入力デバイス41)の各々からの入力データの取得と、複数の機器40(具体的には、出力デバイス42)の各々への制御データの取得とを、所定の周期(制御周期)で繰り返し実行する。PLC20には、例えば、不図示の表示部および操作部が接続されてもよい。表示部は、画像を表示可能な液晶パネル等で構成され、また、操作部は、典型的には、タッチパネル、キーボード、マウス等で構成される。
The
機器40は、PLC20をマスタとするマスタスレーブ制御システムとしての制御システム1におけるスレーブである。機器40は、所定の制御周期ごとに繰り返し入力データをPLC20へと送信する入力デバイス41であり、または、所定の制御周期ごとに繰り返し制御データをPLC20から受信し、受信した制御データにしたがって動作する出力デバイス42である。
The
機器40(特に、入力デバイス41)は、例えば、入力データとして、PLC20に検知結果等を送信するセンサである。例えば、入力デバイス41は、光電センサであってもよく、また、読み取り結果を送信するバーコードリーダであってもよく、さらに、検査結果を送信する検査機(テスター)であってもよい。
The device 40 (in particular, the input device 41) is, for example, a sensor that transmits detection results and the like to the
機器40(具体的には、出力デバイス42)は、ネジ締め、ピッキング等を実行する出力デバイスとしてのロボット等であってもよいし、各種のアクチュエータであってもよい。 The equipment 40 (specifically, the output device 42) may be a robot or the like as an output device that performs screw tightening, picking, or the like, or may be various actuators.
また、機器40は、複数の入力デバイス41が接続されたPT(Programmable Terminal)であってもよい。
Also, the
制御ネットワーク50は、PLC20が受信し、またはPLC20が送信する各種データを伝送し、典型的には、各種の産業用イーサネット(登録商標)を用いることができ、フィールドネットワークと称されることもある。産業用イーサネット(登録商標)としては、たとえば、EtherCAT(登録商標)、Profinet IRT、MECHATROLINK(登録商標)-III、Powerlink、SERCOS(登録商標)-III、CIP Motionなどが知られており、これらのうちのいずれを採用してもよい。さらに、産業用イーサネット(登録商標)以外のフィールドネットワークを用いてもよい。たとえば、モーション制御を行わない場合であれば、DeviceNet、CompoNet/IP(登録商標)などを用いてもよい。
The control network 50 transmits various data received by the
本実施形態では、制御ネットワーク50上をデータフレームが順次転送されることで、PLC20(マスタ)と機器40(スレーブ)との間でデータが送受信される制御システム1について説明を行う。すなわち、制御ネットワーク50上をデータフレームが所定の制御周期で順次転送されることで、PLC20と機器40との間でデータが制御周期ごとに繰り返し送受信される。制御ネットワーク50上をデータフレームが順次転送されることで、複数の機器40の間で、つまり、複数のスレーブ間で、データが送受信されてもよい。
In this embodiment, the
情報処理装置10は、制御システム1に含まれるが、情報処理装置10は、制御システム1におけるスレーブでなくともよい。
The
機器40をスレーブとするマスタスレーブ制御システムである制御システム1において、マスタであるPLC20は、例えば所定の制御周期ごとに繰り返し、スレーブである機器40から、動作結果Laおよび検知情報Idを受信する。
In the
(工程情報について)
機器40をスレーブとするマスタスレーブ制御システムである制御システム1において、マスタであるPLC20は、例えば所定の制御周期ごとに繰り返し、スレーブである機器40から、動作結果Laを受信する。動作結果Laは、「機器40の実行した動作Acの内容および結果」を示す情報である。すなわち、機器40は、作業工程Prの実施に際して実際に実行した動作Acの内容および結果を示す動作結果Laを、所定の周期で繰り返し、PLC20へと送信する。例えば、機器40(x)は、作業工程Pr(x)の実施の際に実行した動作Ac(x)の内容および結果を示す動作結果La(x)を、制御周期で繰り返し、PLC20へと送信する。
(About process information)
In the
PLC20は、例えば、入力デバイス41(計測デバイス)としての機器40が実行した計測動作の結果である計測結果を、機器40の動作結果Laとして取得する。また、機器40が検査機である場合、PLC20は、機器40が実行した検査動作の結果を、例えば、「検査基準を満たした、または、満たさなかった」といった検査結果を、機器40の動作結果Laとして取得する。さらに、PLC20は、例えば、出力デバイス42としての機器40が実行した出力動作の結果を、機器40の動作結果Laとして取得する。機器40がネジ締め、ピッキング等を実行するロボットである場合、PLC20は、ネジ締め回数、ピッキング結果(ピッキングの成功またはピッキングエラー)等の動作結果Laを、機器40の動作結果Laとして取得する。
The
PLC20は、作業工程Prの実施に際して機器40が実際に実行した動作Acの内容および結果を示す動作結果Laを、機器40から所定の周期で繰り返し受信し、受信した動作結果Laを、工程情報Ipとして情報処理装置10へと送信し、つまり転送する。また、PLC20は、機器40から所定の周期で繰り返し受信した動作結果Laを用いて生成した情報を、工程情報Ipとして情報処理装置10へ送信する。
The
さらに、PLC20は、機器40から所定の周期で繰り返し受信した動作結果Laを、工程情報Ipとして、制御システム1の外部に送信してもよい。例えば、PLC20は、機器40から所定の周期で繰り返し受信した動作結果Laを、工程情報Ipとして、MES(Manufacturin g Execution System、製造実行システム)などに接続した、図2に示す社内LAN(Local Area Network)に送信してもよい。
Furthermore, the
情報処理装置10は、PLC20から取得する工程情報Ip(動作結果La)から、作業工程Prの実施に際し機器40が実行した動作Acの動作開始時刻Tms、動作完了時刻Tme、動作期間Daを特定する。そして、情報処理装置10は、特定した動作開始時刻Tms、動作完了時刻Tme、動作期間Da、および、動作Acに対応する所定の動作基準Saを用いて、動作Acに対する種々の判定を実行する。
The
しかしながら、工程情報Ipに含まれる動作結果La(特に、動作Ac)に対する上述の判定は、PLC20が実行してもよく、PLC20は、上述の判定の結果を、工程情報Ipに含めて、または、工程情報Ipに代えて、情報処理装置10へと送信してもよい。
However, the
上述の説明において、動作開始時刻Tmsとは、作業工程Prに用いられる機器40が、作業工程Prの実施に際して、動作Acの実行を開始した時点であり、動作完了時刻Tmeとは、動作Acの実行を完了した時点である。動作期間Daは、動作開始時刻Tmsから動作完了時刻Tmeまでの期間である。
In the above description, the action start time Tms is the point in time when the
前述の通り、工程情報Ipは、「作業Opに用いられる工具(特に、出力デバイス42)の状態」を示す情報と捉えることもできる。工程情報Ipは、例えば、「『撮像時刻Tpに対応する検知時刻Td』における、作業Opに用いられる工具(特に、出力デバイス42)の状態」を示す情報と捉えることもできる。そのため、工程情報Ipは、「作業Opに用いられる工具(例えば、出力デバイス42、および、器具90)、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す検知情報Idの一種と理解することができる。 As described above, the process information Ip can also be regarded as information indicating "the state of the tool (in particular, the output device 42) used in the work Op". The process information Ip can also be regarded as information indicating, for example, "the state of the tool (in particular, the output device 42) used in the work Op at the 'detection time Td corresponding to the imaging time Tp'". Therefore, the process information Ip is a kind of detection information Id indicating "at least one state of the tool (for example, the output device 42 and the instrument 90) used in the work Op, the work object Ob, and the work place Ar." I can understand.
(検知情報について)
制御システム1において、PLC20は、例えば所定の制御周期ごとに繰り返し、スレーブである機器40(特に、入力デバイス41)から、検知情報Idを受信する。検知情報Idは、入力デバイス41が検知した「作業Opに用いられる工具(例えば、出力デバイス42、および、後述する出力デバイス42以外の器具90)、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す情報である。すなわち、機器40(特に、入力デバイス41)は、「作業者Huによって作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を、所定の周期で繰り返し、PLC20へと送信する。検知情報Idには、入力デバイス41が「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を検知した時刻(すなわち、検知時刻Td)を示す情報が含まれる。
(About detection information)
In the
PLC20は、例えば、入力デバイス41(y)としての機器40(y)から、器具90(x)に流れる電流の大きさ(器具90(x)の消費電力等)を示す情報を、器具90(x)についての検知情報Id(x)として、取得する。
The
PLC20は、例えば、入力デバイス41(y)としての機器40(y)から、器具90(x)が作業者Huによって把持されたか否かを示す情報を、器具90(x)についての検知情報Id(x)として、取得する。
The
PLC20は、例えば、入力デバイス41(y)としての機器40(y)から、作業対象物Ob(x)が備える開閉機構の開閉を示す情報を、作業対象物Ob(x)についての検知情報Id(x)として、取得する。
For example, the
PLC20は、例えば、入力デバイス41(y)としての機器40(y)から、作業対象物Ob(x)が備えるボタンが押下されたか否かを示す情報を、作業対象物Ob(x)についての検知情報Id(x)として、取得する。
For example, the
PLC20は、例えば、入力デバイス41(y)としての機器40(y)から、作業場Ar(x)が備える開閉機構の開閉を示す情報を、作業場Ar(x)についての検知情報Id(x)として、取得する。
For example, the
PLC20は、例えば、入力デバイス41(y)としての機器40(y)から、作業場Ar(x)が備えるボタンが押下されたか否かを示す情報を、作業場Ar(x)についての検知情報Id(x)として、取得する。
For example, the
PLC20は、検知情報Idを入力デバイス41から所定の周期で繰り返し受信し、受信した検知情報Idを、情報処理装置10へと送信し、つまり、転送する。
The
さらに、PLC20は、入力デバイス41から所定の周期で繰り返し受信した検知情報Idを、工程情報Ipと同様に、制御システム1の外部に送信してもよい。例えば、PLC20は、入力デバイス41から所定の周期で繰り返し受信した検知情報Idを、MES(Manufacturing Execution System、製造実行システム)などに接続した、図2に示す社内LAN(Local Area Network)に送信してもよい。
Furthermore, the
情報処理装置10は、PLC20から取得する検知情報Idから、「作業者Huによって作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」と、入力デバイス41がその状態を検知した時刻である検知時刻Tdを特定する。そして、情報処理装置10は、特定した検知時刻Tdと、「作業者Huによって作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」とから、検知時刻Tdにおいて作業者Huが行っている作業Opの内容を予測する。つまり、情報処理装置10は、PLC20から取得する検知情報Idから、検知時刻Tdにおいて作業者Huが行っている作業Opの内容を予測する。
From the detection information Id acquired from the
しかしながら、検知情報Idから、検知時刻Tdにおいて作業者Huが行っている作業Opの内容を予測する処理は、PLC20が実行してもよい。その場合、PLC20は、予測結果を、検知情報Idに含めて、または、検知情報Idに代えて、情報処理装置10へと送信してもよい。
However, the
(マスタスレーブ制御システム以外のシステムおよび装置について)
図2には、マスタスレーブ制御システムとしての制御システム1に加えて、社内LANシステム、他ネットワークシステム等が示されている。社内LANは、MESとも称される工程情報DB(Database)等に接続している。工程情報DBには、「作業工程Prの実施に用いられる機器40が実行すべき標準的な動作」を示す情報が、動作基準Saとして格納されている。
(For systems and devices other than master-slave control systems)
FIG. 2 shows an in-house LAN system, other network systems, etc. in addition to the
また、図2に示す例では、MESとしての工程情報DBに、工場Faにおいて発生した各種のイベントを監視し、管理するイベント管理装置60が、社内LANを介して接続している。ただし、イベント管理装置60が社内LANを介して工程情報DBに接続していることは必須ではなく、イベント管理装置60は設けなくてもよい。 In the example shown in FIG. 2, an event management device 60 that monitors and manages various events occurring in the factory Fa is connected to the process information DB as the MES via an in-house LAN. However, it is not essential that the event management device 60 is connected to the process information DB via the in-house LAN, and the event management device 60 may not be provided.
さらに、工程情報DBには、社内LANを介して、PLC20が接続している。図示はしていないが、工程情報DBと情報処理装置10とは接続されていてもよい。また、社内LANには、MESに加えて、不図示のERP(Enterprise Resources Planning)、WMS(Warehouse Management System)等が接続されていてもよい。
Furthermore, the
図2において、工程情報DBには、制御ネットワーク50とも社内LANとも異なる「他ネットワーク」を介して、動画保存サーバ等が接続されている。動画保存サーバ等には、他ネットワークを介して情報処理装置10が接続されており、情報処理装置10から送信された作業場画像Ic、全体画像Ia、情報処理装置10が推定した作業Opの内容、および、支援情報などが動画保存サーバ等に格納される。また、動画保存サーバ等には、PC(Personal Computer)等によって実現される外部装置70が接続される。外部装置70は、例えば、作業場画像Ic、全体画像Ia、情報処理装置10が推定した作業Opの内容、および、支援情報などを表示し、工程情報Ip等の可視化を実行する。すなわち、外部装置70は、作業工程Prの改善に必要な情報を一覧表示し、ボトルネックとなっている作業工程Pr、作業工程Prに発生したエラーの日時等を示す情報を、対応する作業場画像Icと対応付けて表示する。
In FIG. 2, the process information DB is connected to a moving image storage server or the like via an "other network" different from the control network 50 and the in-house LAN. The
セルカメラ30は、前述の通り、作業場Arを撮像して作業場画像Icを生成し、生成した作業場画像Icを、例えば例えばUSB(Universal Serial Bus)ケーブルである通信ケーブルを介して、情報処理装置10へと送信する。
As described above, the cell camera 30 captures the workplace Ar to generate the workplace image Ic, and transmits the generated workplace image Ic to the
また、天井カメラ80は、工場Faの全体を俯瞰して撮像して全体画像Iaを生成し、生成した全体画像Iaを、例えば例えばUSBケーブルである通信ケーブルを介して、情報処理装置10へと送信する。
In addition, the ceiling camera 80 captures a bird's-eye view of the entire factory Fa to generate an overall image Ia, and transmits the generated overall image Ia to the
情報処理装置10は、例えば、PC等によって実現され、PLC20から取得する工程情報Ipと、セルカメラ30から取得する作業場画像Icとを組み合わせて、両者の効率的な利用を可能とするデータ抽出装置であってもよい。情報処理装置10は、「工場Faにおける複数の機器40の実際の動作Acの内容および結果を示す動作結果La」を含む工程情報Ipを、「作業場画像Ic」および「作業場画像Icから推定した作業Opの内容」と組み合わせることで、作業工程Prを可視化する。情報処理装置10は、PLC20から取得する工程情報Ip、セルカメラ30から取得する作業場画像Ic、および、作業場画像Icから推定した作業Opの内容などを組み合わせることで、作業工程Prを可視化し、また、作業工程Prを効率的かつ精緻に分析する。
The
例えば、情報処理装置10は、工程情報Ipの可視化に加え、ボトルネックとなっている作業工程Prを抽出し、抽出した作業工程Prの実施状況を撮像した作業場画像Icと、抽出した作業工程Prの工程情報Ipとを組み合わせる。したがって、ユーザは、例えば、ボトルネックとなっている作業工程Prについて、ボトルネックとなっている原因、不具合要因を特定するのが容易になり、作業工程Prの改善作業を効率的に行うことができるようになる。加えて、情報処理装置10は、不良発生時のトレイサビリティにも用いることができる。
For example, in addition to visualizing the process information Ip, the
また、情報処理装置10は、作業場画像Icと、複数の機器40の各々の工程情報Ipとを組み合わせることにより、作業場画像Icに対する解析と工程情報Ipに対する解析との両方の解析制度を向上させることができる。例えば、情報処理装置10は、PLC20から取得する工程情報Ip(動作結果La)を用いて、機器40が動作Acを開始した動作開始時刻Tms、および、動作Acを完了した動作完了時刻Tmeを特定する。情報処理装置10は、動作開始時刻Tmsから動作完了時刻Tmeまでの期間である動作期間Daに撮像された作業場画像Icに対し解析を実行することで、動作期間Daにおける機器40の動作Acと作業者Huの作業Opとを高精度で対応付けることができる。
Further, the
さらに、情報処理装置10は、工程情報DBから、「作業工程Prの実施に用いられる機器40が実行すべき標準的な動作」を示す動作基準Saを取得する。そして、情報処理装置10は、取得した動作基準Saを用いて、「作業工程Prの実施に用いられる機器40が実行した実際の動作Ac」に対する判定を実行する。情報処理装置10は、動作基準Saが示す標準的な動作とは異なると判定した動作Acに対応する作業工程Prの実施状況を撮像した作業場画像Icについて、解析を実行してもよい。
Further, the
(作業内容の推定について)
情報処理装置10は、作業場画像Icを解析して、作業者Huが作業対象物Obについて行った作業Opの内容を予測する。特に、情報処理装置10は、作業場Ar(x)を撮像した作業場画像Ic(x)から、「作業場画像Ic(x)が撮像された撮像時刻Tpに、作業者Hu(x)が、作業場Ar(x)で作業対象物Ob(x)について行っている作業Op(x)の内容」を予測する。作業場Arにおいて作業者Huが行う作業Opは、一般に、作業対象物Obについて行う作業Opである。そのため、作業Opは、作業者Huと作業対象物Obとの組合せ(ペア)についての、作業者Huと作業対象物Obとの間の相互作用として捉えることができる。
(About estimation of work content)
The
ここで、従来、作業場画像Icから、作業場画像Icに撮像されている人間と、作業場画像Icに撮像されているオブジェクトとの間の相互作用であるHOI(Human Object Interaction)を検出する方法が研究されている。例えば、人間とオブジェクトとの両方をローカライズし、両者の間の相互作用を特定するHOI検出技術が知られている。 Here, conventionally, a method of detecting HOI (Human Object Interaction), which is an interaction between a person imaged in the workplace image Ic and an object imaged in the workplace image Ic, from the workplace image Ic has been researched. It is For example, HOI detection techniques are known that localize both humans and objects and identify interactions between them.
情報処理装置10は、作業者Huが作業対象物Obについて行っている作業Opの内容を推定するのに、HOI検出アルゴリズムを利用することができる。すなわち、情報処理装置10は、作業場画像Icに撮像されている「作業者Huと作業対象物Obとのペア」について、作業者Huが作業対象物Obについて行っている作業Opの内容を、HOIを検出するHOI検出アルゴリズムを利用して、予測することができる。
The
ただし、HOI検出アルゴリズムを用いた予測の精度は、十分に高いとは言い難い。すなわち、作業場画像Icから、作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容を予測するHOI検出アルゴリズムの予測精度は、十分に高いとは言い難い。特に、作業場画像Icに以下の現象が発生すると、一般に、その作業場画像Icに対するHOI検出の精度は低下する傾向にあることが知られている。 However, it is difficult to say that the accuracy of prediction using the HOI detection algorithm is sufficiently high. That is, from the workplace image Ic, the prediction accuracy of the HOI detection algorithm that predicts the content of the work Op performed by the worker Hu captured in the workplace image Ic with respect to the work object Ob captured in the workplace image Ic is , not high enough. In particular, it is known that when the following phenomenon occurs in the workplace image Ic, the accuracy of HOI detection for that workplace image Ic generally tends to decrease.
すなわち、手前にある障害物等が、作業者Huおよび作業対象物Obの少なくとも一方の全部または一部を隠す「オクルージョン(occlusion)」が発生した作業場画像Icに対するHOI検出の精度は、一般に低下する傾向があることが知られている。 That is, the accuracy of HOI detection for a workplace image Ic in which "occlusion" occurs, in which an obstacle or the like in front completely or partially hides at least one of the worker Hu and the work object Ob, generally decreases. known to have a tendency
また、作業場画像Icに撮像されている作業者Huおよび作業対象物Obの少なくとも一方のサイズ(スケール)が(極端に)小さかったり大きかったりする場合、その作業場画像Icに対するHOI検出の精度は、一般に低下する傾向があることが知られている。 In addition, when the size (scale) of at least one of the worker Hu and the work object Ob imaged in the workplace image Ic is (extremely) small or large, the accuracy of HOI detection for that workplace image Ic is generally known to decline.
作業者Huおよび作業対象物Obの少なくとも一方の全部または一部が、撮像範囲外に飛び出すなどして撮像されない「トランケーション(truncation)」が発生した作業場画像Icに対するHOI検出の精度は、一般に低下する傾向があることが知られている。 The accuracy of HOI detection for a workplace image Ic in which all or part of at least one of the worker Hu and the work object Ob has occurred, for example, jumping out of the imaging range and thus not being captured, generally decreases. known to have a tendency
作業者Huおよび作業対象物Obの少なくとも一方の全部または一部が透明体である場合、作業場画像Icに対するHOI検出の精度は、一般に低下する傾向があることが知られている。 It is known that when at least one of the worker Hu and the work object Ob is wholly or partly transparent, the accuracy of HOI detection for the workplace image Ic generally tends to decrease.
さらに、通常は撮像されない角度・大きさ等で作業対象物Obが撮像されている作業場画像Icに対するHOI検出の精度は、一般に低下する傾向があることが知られている。例えば、作業場画像Icに撮像されている作業対象物Obの角度(回転)・大きさ等がレアタイプである場合、その作業場画像Icに対するHOI検出の精度は、一般に低下する傾向があることが知られている。 Further, it is known that the accuracy of HOI detection for the workplace image Ic, in which the work object Ob is imaged at an angle, size, etc. that is not normally imaged, generally tends to decrease. For example, when the angle (rotation), size, etc. of the work object Ob imaged in the workplace image Ic are of a rare type, it is known that the accuracy of HOI detection for that workplace image Ic generally tends to decrease. It is
また、撮像時点での照明が明るすぎたり、暗すぎたりした場合にも、その作業場画像Icに対するHOI検出の精度は、一般に低下する傾向があることが知られている。 It is also known that the accuracy of HOI detection for the workplace image Ic generally tends to decrease when the lighting at the time of imaging is too bright or too dark.
以下の説明においては、HOI検出(つまり、作業Opの内容の予測)のために、情報処理装置10が、作業者Huおよび作業対象物Obを、バウンディングボックス(Bounding Box)を用いて作業場画像Icから検出する例を説明する。ただし、情報処理装置10が作業者Huおよび作業対象物Obの検出にバウンディングボックスを用いることは必須ではない。情報処理装置10は、「Mask R-CNN」を利用して、作業場画像Icについて、作業者Huおよび作業対象物Obの分類タスク(セグメンテーション)を実行してもよい。また、情報処理装置10は、「Mask R-CNN」と同時に、深層学習において用いられるAttention機構を利用して、作業場画像Icから作業者Huおよび作業対象物Obを検出してもよい。情報処理装置10は、「Mask R-CNN」、Attention機構などを利用して、HOI検出の予測精度を改善してもよい。
In the following description, for HOI detection (that is, prediction of the content of the work Op), the
(HOI検出結果の検証)
前述の通り、HOI検出アルゴリズムを用いた予測の精度は、十分に高いとは言い難い。そこで、情報処理装置10は、HOI検出アルゴリズムを用いて予測したHOI(つまり、作業Op)の内容(つまり、第一予測Pf(x))を、存否予測Pa(x)および作業予測Po(x)の少なくとも一方を用いて検証する。
(Verification of HOI detection results)
As mentioned above, the accuracy of prediction using the HOI detection algorithm is far from high enough. Therefore, the
情報処理装置10は、HOI検出アルゴリズムを、「YOLOなどの動線検出アルゴリズム」および「入力デバイス41等からの検知情報Id」と組み合わせて用いることで、「作業Opの内容」の推定について、ロバスト性および推定精度を向上させる。つまり、情報処理装置10は、動線検出アルゴリズムによる存否予測Pa、および、検知情報Idから予測した作業予測Poの少なくとも一方を、HOI検出アルゴリズムによる第一予測Pf(HOI検出結果)に対するノイズフィルターとして利用する。
The
情報処理装置10は、HOI検出アルゴリズムに加えて、「動線検出アルゴリズム」および「入力デバイス41等からの検知情報Id」の少なくとも一方を用いて、「作業Opの内容」を推定する作業推定装置である。
The
(アノテーションコストの抑制)
HOI検出アルゴリズムで用いられる学習済モデルとしての作業予測モデル171は、例えば、作業場画像Icまたはその特徴情報に対して以下のラベルが付された教師データDt1の集合(学習用データセットDS1)に対する教師あり学習によって構築される。すなわち、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」がラベルとして付された教師データDt1の集合を用いた機械学習によって、作業予測モデル171は構築される。教師データDt1において作業場画像Icまたはその特徴情報に対して付されている「ラベル」は、「アノテーション」または「メタデータ」とも称される。
(Reduction of annotation cost)
The
本実施形態において、ラベルとして付される「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」は、検知情報Idから予測される作業予測Poである。すなわち、「検知情報Idから予測された『作業者Huが行っている作業Opの内容』が、作業場画像Icまたはその特徴情報に対してラベルとして付された」教師データDt1の集合に対する教師あり学習によって、作業予測モデル171は構築される。
In the present embodiment, the “contents of the work Op performed by the worker Hu imaged in the workplace image Ic on the work object Ob imaged in the workplace image Ic” attached as a label is the detection information Id is the work prediction Po predicted from That is, supervised learning for a set of teacher data Dt1 in which ``the content of the work Op performed by the worker Hu'' predicted from the detection information Id is attached as a label to the workplace image Ic or its feature information. The
一般に、学習済モデルの構築に必要となる大量の教師データDt1の生成には、ひじょうに手間がかかることが知られており、いわゆるアノテーションコストは極めて大きいことが知られている。例えば、大量の作業場画像Icの各々について、人間に、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を判定させようとする場合、それに要するコストは極めて大きい。 Generally, it is known that generation of a large amount of teacher data Dt1 required for constructing a trained model is very time-consuming, and so-called annotation cost is known to be extremely high. For example, for each of a large number of workplace images Ic, a human is provided with "the details of the work Op that the worker Hu imaged in the workplace image Ic is doing with respect to the work object Ob imaged in the workplace image Ic". If you want to make a judgment, the cost required for it is extremely high.
そこで、本実施形態では、検知情報Idから予測される「作業者Huが行っている作業Opの内容」を、作業場画像Icまたはその特徴情報に対して付される「ラベル」として利用する。これによって、大量の教師データDt1の生成に必要となるコスト(アノテーションコスト)を抑制することができ、つまり、作業予測モデル171の構築に際して必要となるコストを抑制することができる。そのため、情報処理装置10は、低コストで構築された作業予測モデル171を用いて、高精度かつロバスト性の高い、「作業Opの内容」の推定を実現することができる。
Therefore, in the present embodiment, the "content of the work Op performed by the worker Hu" predicted from the detection information Id is used as the "label" attached to the workplace image Ic or its characteristic information. As a result, the cost (annotation cost) required to generate a large amount of teaching data Dt1 can be suppressed, that is, the cost required for constructing the
(本実施形態に係る情報処理装置についての整理)
これまでに図2を用いて説明してきた内容は、以下のように整理することができる。すなわち、情報処理装置10は、作業場Arにおいて作業者Huが行っている作業Opの内容を推定する作業推定装置であって、第一予測部120(予測部)と、判定部150と、推定部160と、を備える。
(Arrangement of the information processing apparatus according to the present embodiment)
The contents described so far with reference to FIG. 2 can be organized as follows. That is, the
第一予測部120は、作業予測モデル171を用いて、「作業場画像Ic、または、作業場画像Icから生成された特徴情報」から、「作業者Huが作業対象物Obについて行っている作業Opの内容」を予測する。作業予測モデル171は、「作業場Arを撮像した作業場画像Ic」または「作業場画像Icから生成された特徴情報」を入力とし、以下の情報を出力とする学習済モデルである。すなわち、作業予測モデル171は、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を出力とする学習済モデルである。
Using the
判定部150は、「作業予測モデル171を用いずに予測された作業Opの内容」、および、「作業場Arに作業者Huが存在するか否かの判定結果」の少なくとも一方を用いて、第一予測部120の予測の正否を判定する。つまり、判定部150は、作業予測Poおよび存否予測Paの少なくとも一方を用いて、第一予測Pfの正否を判定する。
The
推定部160は、判定部150によって第一予測部120の予測が正しいと判定されると、第一予測部120によって予測された作業Opの内容を、「作業場Arにおいて作業者Huが行っている作業Opの内容」であると推定する。つまり、推定部160は、作業予測Poおよび存否予測Paの少なくとも一方を用いて第一予測Pfが正しいことが検証されると、第一予測Pfを、「作業場Arにおいて作業者Huが行っている作業Opの内容」についての推定結果として出力する。
When the
前記の構成によれば、情報処理装置10は、作業予測モデル171を用いて予測した作業Opの内容(つまり、第一予測Pf)の正否を、以下の2つの予測の少なくとも一方を用いて判定する。すなわち、情報処理装置10は、作業予測モデル171を用いずに予測された作業Opの内容(作業予測Po)、および、作業場Arにおける作業者Huの存否の判定結果(存否予測Pa)の少なくとも一方を用いて、第一予測Pfの正否を判定する。
According to the above configuration, the
そして、情報処理装置10は、作業予測モデル171を用いた予測が正しいと判定すると、作業予測モデル171を用いて予測した作業Opの内容を、「作業場Arにおいて作業者Huが行っている作業Opの内容」であると推定する。
When the
つまり、情報処理装置10は、作業予測モデル171を用いて予測した作業Opの内容の正否を、作業予測モデル171を用いずに予測された作業Opの内容、および、作業場Arに作業者Huが存在するか否かの判定結果の少なくとも一方を用いて検証する。
That is, the
したがって、情報処理装置10は、作業場画像Icから、「作業場Arにおいて作業者Huが行っている作業Opの内容」を、高精度に推定することができるとの効果を奏する。
Therefore, the
情報処理装置10は、検知情報Idから、「作業場Arにおいて作業者Huが行っている作業Opの内容」を予測する作業予測部142(作業検知部)をさらに備える。検知情報Idは、入力デバイス41(センサ)によって検知された「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す情報である。
The
判定部150は、第一予測部120によって予測された作業Opの内容(つまり、第一予測Pf)と、作業予測部142によって予測された作業Opの内容(つまり、作業予測Po)とが一致すると、第一予測部120の予測が正しいと判定する。
The
前記の構成によれば、情報処理装置10は、入力デバイス41の検知情報Idから予測した作業Opの内容と、作業予測モデル171を用いて予測した作業Opの内容とが一致するか否かを判定する。そして、情報処理装置10は、両者が一致すると判定すると、作業予測モデル171を用いて予測した作業Opの内容を、「作業場Arにおいて作業者Huが行っている作業Opの内容」であると推定する。
According to the above configuration, the
つまり、情報処理装置10は、作業予測モデル171を用いて予測した作業Opの内容の正否を、入力デバイス41の検知情報Idから予測した作業Opの内容によって検証する。
That is, the
したがって、情報処理装置10は、作業場画像Icから、「作業場Arにおいて作業者Huが行っている作業Opの内容」を、高精度に推定することができるとの効果を奏する。
Therefore, the
情報処理装置10は、存否予測部141をさらに備え、判定部150は、存否予測部141によって「作業場Arに作業者Huが存在する」と予測されると、第一予測部120の予測が正しいと判定する。存否予測部141は、存否モデル172を用いて、全体画像Ia、または、作業場画像Ic、または、全体画像Iaまたは作業場画像Icから生成された特徴情報から、「作業場Arに作業者Huが存在するか否か」を予測する。存否モデル172は、学習済モデルであり、その入力は、(A)作業場Arを含む複数の作業場Arを撮像した全体画像Ia、または、(B)作業場画像Ic、または、(C)全体画像Iaまたは作業場画像Icから生成された特徴情報である。また、存否モデル172の出力は、「作業場Arに作業者Huが存在するか否か」を示す情報である。
The
前記の構成によれば、情報処理装置10は、存否モデル172を用いて、「作業場Arに作業者Huが存在するか否か」を予測する。そして、情報処理装置10は、「作業場Arに作業者Huが存在する」と予測すると、作業予測モデル171を用いて予測した作業Opの内容を、「作業場Arにおいて作業者Huが行っている作業Opの内容」であると推定する。
According to the above configuration, the
つまり、情報処理装置10は、作業予測モデル171を用いて予測した作業Opの内容の正否を、存否モデル172を用いて予測した「作業場Arにおける作業者Huの存否」によって検証する。
In other words, the
したがって、情報処理装置10は、作業場画像Icから、「作業場Arにおいて作業者Huが行っている作業Opの内容」を、高精度に推定することができるとの効果を奏する。
Therefore, the
情報処理装置10は、作業予測部142と存否予測部141とを共に備えてもよい。判定部150は、存否予測部141によって作業場Arに作業者Huが存在すると予測され、かつ、以下の条件が満たされると、第一予測部120の予測が正しいと判定する。すなわち、判定部150は、第一予測部120によって予測された作業Opの内容と、作業予測部142によって予測された作業Opの内容とが一致すると、第一予測部120の予測が正しいと判定する。
The
前記の構成によれば、情報処理装置10は、入力デバイス41の検知情報Idから予測した作業Opの内容、および、作業場Arにおける作業者Huの存否を予測する。そして、情報処理装置10は、作業場Arに作業者Huが存在すると予測し、かつ、以下の条件が満たされると、第一予測部120の予測が正しいと判定する。すなわち、情報処理装置10は、入力デバイス41の検知情報Idから予測した内容と、作業予測モデル171を用いて予測した内容とが一致すると、作業予測モデル171を用いて予測した内容が正しいと判定する。
According to the above configuration, the
つまり、情報処理装置10は、作業予測モデル171を用いて予測した作業Opの内容の正否を、入力デバイス41の検知情報Idから予測した作業Opの内容と、存否モデル172を用いて予測した作業場Arにおける作業者Huの存否とによって検証する。
That is, the
したがって、情報処理装置10は、作業場画像Icから、「作業場Arにおいて作業者Huが行っている作業Opの内容」を、高精度に推定することができるとの効果を奏する。
Therefore, the
§2.構成例
これまでに概要を説明してきた情報処理装置10について、次に、図1を用いてその詳細を説明していく。
§2. Configuration Example Next, details of the
図1は、情報処理装置10の要部構成を示すブロック図である。図1に例示する情報処理装置10は、機能ブロックとして、例えば、第一取得部110、第一予測部120、第二取得部130、第二予測部140、判定部150、推定部160、および、記憶部170を備えている。
FIG. 1 is a block diagram showing the main configuration of an
情報処理装置10は、上述の各機能ブロックに加えて、以下の各部を備えてもよい。すなわち、情報処理装置10は、作業場画像Icの、所定の格納領域(保存領域)への格納(保存)を制御する管理部、作業者Huが作業場Arに滞在している時間(滞在時間)を測定する測定部、工程情報Ipと滞在時間とを対応付ける分析部等を備えてもよい。記載の簡潔性を担保するため、本実施の形態に直接関係のない情報処理装置10の構成は、説明およびブロック図から省略している。ただし、実施の実情に則して、情報処理装置10は、これらの省略された構成を備えてもよい。
The
情報処理装置10の備える上述の機能ブロックは、例えば、演算装置が、ROM(read only memory)、NVRAM(non-Volatile random access memory)等で実現された記憶装置(記憶部170)に記憶されているプログラムを不図示のRAM(random access memory)等に読み出して実行することで実現できる。演算装置として利用可能なデバイスとしては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせを挙げることができる。
The functional blocks of the
以下に先ず、第一取得部110、第一予測部120、第二取得部130、第二予測部140、判定部150、および、推定部160の各々について、その詳細を説明する。
First, the details of each of the
(記憶部以外の機能ブロックについて)
第一取得部110は、セルカメラ30から、セルカメラ30が作業場Arを撮像した作業場画像Icを取得し、取得した作業場画像Icを、第一予測部120へと出力する。
(Regarding functional blocks other than memory)
The
第一予測部120は、セルカメラ30が撮像した作業場画像Icに対する画像解析を実行し、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を予測する。第一予測部120は、例えば、作業場画像Icに対してモデルベースの画像解析を実行し、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を予測する。
The
モデルベースの画像解析を実行する第一予測部120は、例えば、ニューラルネットワーク(Neural Network)として実現され、HOI検出アルゴリズムを実行することによって、HOIとして作業Opを検出する。具体的には、第一予測部120は、記憶部170を参照して、作業予測モデル171を取得する。作業予測モデル171は、作業場画像Icを入力とし、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を出力とする、学習済モデルである。第一予測部120は、記憶部170を参照して取得した作業予測モデル171を用いて、作業場画像Icから、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を予測する。以下、「ニューラルネットワーク」は、「NN」と略記することがある。
The
例えば、第一予測部120は、作業場画像Ic(x)から作業予測モデル171を用いて、以下の第一予測Pf(x)を生成する。すなわち、第一予測部120は、「作業場画像Ic(x)に撮像されている作業者Huが、作業場画像Ic(x)に撮像されている作業対象物Ob(x)について行っている作業Op(x)の内容」についての予測である第一予測Pf(x)を生成する。
For example, the
特に、第一予測部120は、「セルカメラ30が作業場Ar(x)を撮像して作業場画像Ic(x)を生成した時刻」である撮像時刻Tpを用いて、作業場画像Ic(x)から、以下の予測を実行する。すなわち、第一予測部120は、作業場画像Ic(x)から、「撮像時刻Tpにおいて、作業者Hu(x)が、作業場Ar(x)で作業対象物Ob(x)について行っている作業Op(x)の内容」を予測する。
In particular, the
第一予測部120は、作業場画像Icから作業予測モデル171を用いて予測した作業Opの内容を、第一予測Pfとして、判定部150へと出力する。例えば、第一予測部120は、作業場画像Ic(x)から生成した第一予測Pf(x)を、判定部150へと出力する。
The
第二取得部130は、第二予測Psを生成するための各種の情報を外部から取得し、取得した各種の情報を第二予測部140へと出力する。第二予測Psは、第一予測Pf(の正否)を検証するための予測であり、存否予測Paおよび作業予測Poの少なくとも一方を含む。図1に例示する第二取得部130は、全体画像取得部131と、検知情報取得部132とを含む。
全体画像取得部131は、天井カメラ80から、天井カメラ80が工場Faの全体を俯瞰して撮像した全体画像Iaを取得し、取得した全体画像Iaを、第二予測部140へと、特に存否予測部141へと、出力する。
The overall
検知情報取得部132は、PLC20から、「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す検知情報Id(工程情報Ipを含む)を取得する。前述の通り、検知情報Idは、例えば、検知装置(測定装置)としての入力デバイス41が検知した、「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す情報である。検知情報取得部132は、取得した検知情報Idを、第一予測部120へと出力する。
The detection
第二予測部140は、存否予測Paおよび作業予測Poの少なくとも一方を含む第二予測Psを生成し、生成した第二予測Psを判定部150へと出力する。第二予測部140は、存否予測部141と、作業予測部142とを含む。
The
存否予測部141は、第二取得部130(特に、全体画像取得部131)から取得した全体画像Iaに対して画像解析を実行し、「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測し、つまり、存否予測Paを生成する。存否予測部141は、例えば、全体画像Iaに対してモデルベースの画像解析を実行し、「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測する。
The presence/
モデルベースの画像解析を実行する存否予測部141は、例えば、NNとして実現され、YOLOなどの動線検出アルゴリズム(物体検出アルゴリズム)を実行することによって、作業場Arにおける作業者Huの存否を予測する。具体的には、存否予測部141は、記憶部170を参照して、存否モデル172を取得する。存否モデル172は、全体画像Iaを入力とし、「作業場Ar(より正確には、工場Faにおける複数の作業場Arの各々)に作業者Huが居るか」を出力とする、学習済モデルである。存否予測部141は、記憶部170を参照して取得した存否モデル172を用いて、全体画像Iaから、「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測する。例えば、存否予測部141は、全体画像Iaから存否モデル172を用いて、「作業場画像Ic(x)に撮像されている作業場Ar(x)に作業者Huが居るか」についての予測である存否予測Pa(x)を、生成する。
The presence/
特に、存否予測部141は、「天井カメラ80が、『作業場画像Ic(x)に撮像されている作業場Ar(x)』を含む複数の作業場Arを撮像して全体画像Iaを生成した時刻」である全体時刻Taを用いて、全体画像Iaから、以下の予測を実行する。すなわち、存否予測部141は、全体画像Iaから、「『作業場画像Ic(x)が撮像された撮像時刻Tp』に対応する全体時刻Taにおいて、作業者Hu(x)が作業場Ar(x)に居るか」を予測する。
In particular, the presence/
存否予測部141は、所定期間(例えば、5秒間)の全体画像Iaから、存否モデル172を用いて、「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を、特に、「撮像時刻Tpに、作業場Arに作業者Huが居るか」を、予測してもよい。存否予測部141による存否モデル172を用いた作業者Huの存否の予測には、誤検出および未検出などの失敗があり得る。そのため、存否予測部141が、例えば5秒間の内、1秒間だけ「作業者Huが居る」と予測しても、残りの4秒間で「作業者Huが居ない」と予測した場合には、「作業者Huが居る」との予測は誤検出(つまり、誤った予測)とみなしてもよい。1秒間だけ「作業者Huが居る」と予測しても、残りの4秒間で「作業者Huが居ない」と予測した場合、存否予測部141は、その5秒間の全体画像Iaから、「作業者Huが居ない」と予測してもよい。つまり、存否予測部141は、その5秒間の全体画像Iaから、「その5秒間に、『作業場画像Icに撮像されている作業場Ar』に作業者Huは居なかった」との存否予測Paを生成してもよい。
The presence/
整理すると、存否予測部141は、所定期間の全体画像Iaから、その所定期間の内の所定割合(例、5割)以上の期間について「作業者Huが居た」と予測した場合にのみ、その所定期間の全体について、「作業者Huが居た」との存否予測Paを生成してもよい。例えば、存否予測部141は、5秒間の全体画像Iaについて、「作業者Huが居た」と予測した期間が2.5秒以上ある場合にのみ、「その5秒間に、作業者Huは居た」との存否予測Paを生成してもよい。
To summarize, the presence/
存否予測部141が作業者Huの存否を予測するのに用いる動線検出アルゴリズムは、例えばYOLOであるが、存否予測部141が用いる動線検出アルゴリズムがYOLOであることは必須ではなく、YOLO以外の動線検出アルゴリズムであってもよい。存否予測部141は、動線検出アルゴリズムによって、全体画像Iaから「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測できればよい。
The flow line detection algorithm used by the presence/
存否予測部141は、全体画像Iaから存否モデル172を用いて予測した、「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」についての予測である存否予測Pa(例えば、存否予測Pa(x))を、判定部150へと出力する。
The presence/
作業予測部142は、第二取得部130(特に、検知情報取得部132)から取得した検知情報Id(工程情報Ipを含む)を用いて、「作業者Huが行っている作業Opの内容」を予測し、つまり、作業予測Poを生成する。前述の通り、検知情報Idは、「作業Opに用いられる工具(例えば、出力デバイス42、および、器具90)、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を示す情報である。例えば、作業予測部142は、検知情報Id(x)から、以下の作業予測Po(x)を生成する。すなわち、作業予測部142は、検知情報Id(x)から、「作業場Ar(x)において作業者Hu(x)が行っている作業Op(x)の内容」についての予測である、作業予測Po(x)を生成する。ここで前述の通り、検知情報Id(x)は、「作業Op(x)に用いられる工具(例えば、出力デバイス42(x)または器具90(x))、作業対象物Ob(x)、および、作業場Ar(x)の少なくとも1つの状態」を示す情報である。
The
作業予測部142は、例えば、「器具90(x)等の工具に流れる電流の大きさ」から、「動作Ac(x)が実行され、動作Ac(x)に対応する作業Op(x)を作業場Ar(x)において作業者Huが行った」と予測する。
For example, the
作業予測部142は、例えば、「工具の消費電力」から、「動作Ac(x)が実行され、動作Ac(x)に対応する作業Op(x)を作業場Ar(x)において作業者Huが行った」と予測する。
For example, the
作業予測部142は、例えば、「工具、または、作業対象物Ob(x)が把持された」ことから、「作業Op(x)が作業場Ar(x)において作業者Huによって行われた」と予測する。
For example, the
作業予測部142は、例えば、「工具、または、作業対象物Ob(x)、または、作業場Ar(x)の備える開閉機構が開閉された」ことから、「作業Op(x)が作業場Ar(x)において作業者Huによって行われた」と予測する。
For example, the
作業予測部142は、例えば、「工具、または、作業対象物Ob(x)、または、作業場Ar(x)の備えるボタンが押下された」ことから、「作業Op(x)が作業場Ar(x)において作業者Huによって行われた」と予測する。
For example, the
以上に説明した通り、作業予測部142は、検知情報Idから「作業者Huが行っている作業Opの内容」を予測し、例えば、検知情報Id(x)から「作業場Ar(x)において作業者Hu(x)が行っている作業Op(x)の内容」を予測する。
As described above, the
特に、作業予測部142は、検知情報Id(x)に含まれる、「作業Op(x)に用いられる工具、作業対象物Ob(x)、および、作業場Ar(x)の少なくとも1つの状態」が検知された時刻である検知時刻Tdを用いて、以下の予測を実行する。すなわち、作業予測部142は、検知情報Id(x)から、「『作業場画像Ic(x)が撮像された撮像時刻Tp』に対応する検知時刻Tdにおいて、作業者Hu(x)が行っている作業Op(x)の内容」を予測する。
In particular, the
作業予測部142は、検知情報Idから予測した「作業者Huが行っている作業Opの内容」を、作業予測Poとして、判定部150へと出力する。例えば、作業予測部142は、検知情報Id(x)から予測した「作業場Ar(x)において作業者Hu(x)が行っている作業Op(x)の内容」である作業予測Po(x)を、判定部150へと出力する。
The
判定部150は、第一予測Pf(の正否)を、第二予測Psを用いて検証し、つまり、第一予測Pf(の正否)を、存否予測Paおよび作業予測Poの少なくとも一方を用いて検証する。具体的には、判定部150は、第一予測Pf(x)(の正否)を、存否予測Pa(x)および作業予測Po(x)の少なくとも一方を用いて検証する。
The
前述の通り、第一予測Pf(x)は、例えば、作業場画像Ic(x)から予測される、「撮像時刻Tpにおいて、作業者Hu(x)が、作業場Ar(x)で作業対象物Ob(x)について行っている作業Op(x)の内容」である。存否予測Pa(x)は、例えば、全体画像Iaから予測される、「『作業場画像Ic(x)が撮像された撮像時刻Tp』に対応する全体時刻Taにおいて、作業者Hu(x)が作業場Ar(x)に居るか」についての予測である。作業予測Po(x)は、例えば、検知情報Id(x)から予測される、「『作業場画像Ic(x)が撮像された撮像時刻Tp』に対応する検知時刻Tdにおいて、作業者Hu(x)が行っている作業Op(x)の内容」である。 As described above, the first prediction Pf(x) is predicted from the workplace image Ic(x), for example, "At the imaging time Tp, the worker Hu(x) is in the workplace Ar(x) and the work object Ob The contents of the work Op(x) performed for (x)". Presence/absence prediction Pa(x) is, for example, predicted from the entire image Ia, at the overall time Ta corresponding to the "imaging time Tp at which the workplace image Ic(x) was captured". Are you at Ar(x)? The work prediction Po(x) is, for example, the worker Hu(x ) is the content of the operation Op(x) being performed by ).
例えば、判定部150は、存否予測Pa(x)において「作業場Ar(x)に作業者Huが存在する」と予測されていると、「第一予測Pf(x)は正しい」と判定する。特に、判定部150は、「セルカメラ30が作業場画像Ic(x)を生成した時刻である撮像時刻Tpにおいて、作業場Ar(x)に作業者Huが存在する」と予測されていると、「第一予測Pf(x)は正しい」と判定する。
For example, if the presence/absence prediction Pa(x) predicts that “the worker Hu is present in the workplace Ar(x)”, the
例えば、判定部150は、作業予測Po(x)における作業Op(x)と第一予測Pf(x)における作業Op(x)とが一致すると、「第一予測Pf(x)は正しい」と判定する。特に、判定部150は、「作業予測Po(x)における、撮像時刻Tp(x)での作業Op(x)」と「第一予測Pf(x)における、撮像時刻Tp(x)での作業Op(x)」とが一致すると、「第一予測Pf(x)は正しい」と判定する。
For example, when the work Op(x) in the work prediction Po(x) matches the work Op(x) in the first prediction Pf(x), the
例えば、判定部150は、「作業場Ar(x)に作業者Huが存在する」と予測され、かつ、作業予測Po(x)における作業Op(x)と第一予測Pf(x)における作業Op(x)とが一致した場合に、「第一予測Pf(x)は正しい」と判定する。特に、判定部150は、以下の2つの条件がいずれも満たされている場合に「第一予測Pf(x)は正しい」と判定する。すなわち、第一の条件は、作業予測Po(x)において、「セルカメラ30が作業場画像Ic(x)を生成した時刻である撮像時刻Tpにおいて、作業場Ar(x)に作業者Huが存在する」と予測されていることである。第二の条件は、「作業予測Po(x)における、撮像時刻Tp(x)での作業Op(x)」と「第一予測Pf(x)における、撮像時刻Tp(x)での作業Op(x)」とが一致することである。
For example, the determining
判定部150は、判定結果(検証結果)と共に、第一予測Pfを推定部160へと通知する。判定部150は、さらに、第二予測Ps(存否予測Paおよび作業予測Poの少なくとも一方)を推定部160へと通知してもよい。
The
推定部160は、判定部150によって「第一予測Pf(x)は正しい」と判定されると、第一予測Pf(x)を「作業場Arにおいて作業者Huが行っている作業Opの内容」であると推定し、第一予測Pf(x)を、推定結果として外部に出力する。
When the
推定部160は、判定部150によって「第一予測Pf(x)は正しくない」と判定されると、「作業場Ar(x)に作業者Huがいない」との推定結果、または、「所望の精度で推定できた作業Op(x)の内容はない」との推定結果を、外部に出力する。推定部160は、上述の推定結果を、作業場画像Icと共に、図2の動画保存サーバ等に出力してもよい。
When the determining
(記憶部について)
記憶部170は、情報処理装置10が使用する各種データを格納する記憶装置である。なお、記憶部170は、情報処理装置10が実行する(1)制御プログラム、(2)OSプログラム、(3)情報処理装置10が有する各種機能を実行するためのアプリケーションプログラム、および、(4)該アプリケーションプログラムを実行するときに読み出す各種データを非一時的に記憶してもよい。上記の(1)~(4)のデータは、例えば、ROM(read only memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)、HDD(Hard Disc Drive)等の不揮発性記憶装置に記憶される。情報処理装置10は、図示しない一時記憶部を備えていてもよい。一時記憶部は、情報処理装置10が実行する各種処理の過程で、演算に使用するデータおよび演算結果等を一時的に記憶するいわゆるワーキングメモリであり、RAM(Random Access Memory)等の揮発性記憶装置で構成される。どのデータをどの記憶装置に記憶するのかについては、情報処理装置10の使用目的、利便性、コスト、または、物理的な制約等から適宜決定される。記憶部170はさらに、作業予測モデル171および存否モデル172を格納している。
(Regarding memory)
The
作業予測モデル171は、第一予測部120が、作業場画像Icから「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を予測するためのモデルである。作業予測モデル171は、例えば、作業場画像Icを入力とし、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を示す情報を出力とする学習済モデルである。
In the
存否モデル172は、存否予測部141が、全体画像Iaから「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測するためのモデルである。存否モデル172は、全体画像Iaを入力とし、「作業場Ar(より正確には、工場Faにおける複数の作業場Arの各々)に作業者Huが居るか」を出力とする、学習済モデルである。
The presence/
§3.動作例
図3、図4、および図5は、それぞれ、情報処理装置10が実行する処理の全体概要を説明するフロー図である。情報処理装置10は、第二予測Psを用いて第一予測Pf(の正否)を検証することによって、「作業者Huが行っている作業Opの内容」を高精度に推定することができる。
§3. Operation Example FIGS. 3, 4, and 5 are flow diagrams for explaining the overall outline of the processing executed by the
(作業予測Poのみを用いて検証を行う場合の処理例)
図3は、第二予測Psのうち作業予測Poのみを用いて第一予測Pf(の正否)を検証する場合に、情報処理装置10が実行する処理の全体概要を説明するフロー図である。図3に例示するように、情報処理装置10(特に、判定部150)は、第一予測Pf(の正否)を、作業予測Poのみを用いて検証してもよい。
(Processing example when verification is performed using only work prediction Po)
FIG. 3 is a flowchart for explaining the overall outline of the processing performed by the
図3に示すように、判定部150は先ず、作業予測Poにおいて「作業者Huが行っている作業Opの内容」が予測されているか否か、つまり、「検知情報Idから、何らかの作業Opが行われていると予測されたか否か」を確認する(S110)。
As shown in FIG. 3 , the determining
「検知情報Idから、何らかの作業Opが行われていると予測された」ことを確認すると(S110でYES)、判定部150はさらに、第一予測Pfにおいて「作業者Huが行っている作業Opの内容」が予測されているか否かを確認する。つまり、判定部150は、「作業予測モデル171を用いて、何らかの作業Opが行われていると予測されたか否か」を確認する(S120)。
When confirming that "it was predicted that some kind of work Op was being performed from the detection information Id" (YES in S110), the
「作業予測モデル171を用いて、何らかの作業Opが行われていると予測された」ことを確認すると(S120でYES)、判定部150は、以下の判定を実行する。すなわち、判定部150は、「検知情報Idから予測された作業Opの内容と、作業予測モデル171を用いて予測された作業Opの内容とが一致するか否か」を判定する(S130)。つまり、判定部150は、「作業予測Poにおける作業Op」と「第一予測Pfにおける作業Op(x)」とが一致するか否かを判定する。
When confirming that "it was predicted that some work Op was being performed using the
判定部150によって、「検知情報Idから予測された作業Opの内容と、作業予測モデル171を用いて予測された作業Opの内容とが一致する」と判定されると(S130でYES)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、第一取得部110が作業場画像Icから作業予測モデル171を用いて予測した作業Opの内容を、推定結果として出力し(S140)、つまり、第一予測Pf(x)を、推定結果として出力する。
When the
「検知情報Idからは、何らかの作業Opが行われているとは予測されなかった」ことを確認すると(S110でNO)、つまり、作業予測部142が検知情報Idから作業Opの内容を予測できなかった場合、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する(S150)。
When it is confirmed that "it was not predicted that any work Op is being performed from the detection information Id" (NO in S110), that is, the
「作業予測モデル171を用いて、何らかの作業Opが行われているとは予測されなかった」ことを確認すると(S120でNO)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する(S150)。つまり、第一予測部120が作業場画像Icから作業Opの内容を予測できなかった場合、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する。
When it is confirmed that "it was not predicted that any work Op is being performed using the
「検知情報Idから予測された作業Opの内容と、作業予測モデル171を用いて予測された作業Opの内容とが一致しない」と判定されると(S130でNO)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する(S150)。
When it is determined that "the content of the work Op predicted from the detection information Id does not match the content of the work Op predicted using the
情報処理装置10は、作業予測Poを用いて第一予測Pf(の正否)を検証し、つまり、HOI検出アルゴリズムを、「入力デバイス41等からの検知情報Id」と組み合わせて用いる。情報処理装置10は、HOI検出アルゴリズムを実行する第一予測部120と、検知情報Idから作業予測Poを生成する作業予測部142とを備えることによって、第一予測部120による誤検出(予測の誤り)をキャンセルする。そのため、情報処理装置10は、HOI検出アルゴリズムの誤検出(予測の誤り)をキャンセルし、精度の高い推定を実現することができる。
The
作業予測部142は、入力デバイス41等からの検知情報Idから、「作業者Huが行っている作業Opの内容」を予測し、つまり、作業予測Poを生成する。そして、HOI検出アルゴリズムを実行する第一予測部120による「作業者Huが行っている作業Opの内容」の予測よりも、検知情報Idを用いた作業予測部142による「作業者Huが行っている作業Opの内容」の予測の方が、予測精度が高い。つまり、第一予測Pfの予測精度よりも、作業予測Poの予測精度の方が高い。
The
そのため、情報処理装置10は、第一予測Pfと作業予測Poとを用いることによって、「作業者Huが行っている作業Opの内容」を、高精度に推定することができる。第一予測部120がHOI検出アルゴリズムを実行して予測可能な「作業者Huが行っている作業Op」の種類は、作業予測部142が検知情報Idから予測可能な「作業者Huが行っている作業Op」の種類と同じであってもよく、前者が後者より多くてもよい。
Therefore, by using the first prediction Pf and the work prediction Po, the
一般に、HOI検出アルゴリズムによるHOI検出(つまり、「作業Opの内容」の予測)は、作業場画像Icから、作業者Huおよび作業対象物Obの少なくとも一方を検出(物体検出)できなかった場合、失敗する。そのため、HOI検出の失敗を、つまり、「作業予測モデル171を用いて、何らかの作業Opが行われているとは予測されなかった」ことを、「物体(例えば、作業者Hu)の検出失敗(つまり、不在)」とみなしてもよい。 In general, HOI detection by the HOI detection algorithm (that is, prediction of "work Op content") fails if at least one of the worker Hu and the work object Ob cannot be detected (object detection) from the workplace image Ic. do. Therefore, the failure of HOI detection, that is, ``it was not predicted that some work Op was being performed using the work prediction model 171'', is referred to as ``failure to detect an object (for example, worker Hu) ( In other words, it can be regarded as "absent".
(存否予測Paのみを用いて検証を行う場合の処理例)
図4は、第二予測Psのうち存否予測Paのみを用いて第一予測Pf(の正否)を検証する場合に、情報処理装置10が実行する処理の全体概要を説明するフロー図である。図4に例示するように、情報処理装置10(特に、判定部150)は、第一予測Pf(の正否)を、存否予測Paのみを用いて検証してもよい。
(Example of processing when verification is performed using only presence/absence prediction Pa)
FIG. 4 is a flowchart for explaining the overall outline of the processing performed by the
図4に示すように、判定部150は先ず、存否予測Paにおいて「作業場Arに作業者Huが存在する」と予測されているか否か、つまり、「存否モデル172を用いて、作業場Arに作業者Huが存在すると予測されたか否か」を確認する(S210)。
As shown in FIG. 4 , the determining
前述の通り、存否予測部141は、所定期間(例えば、5秒間)の全体画像Iaから、「その所定期間に、作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測してもよい。存否予測部141は、その所定期間の内の所定割合(例えば、5割)の期間以上、「作業者Huが居る」と予測した場合にのみ、「その所定期間に、作業場画像Icに撮像されている作業場Arに作業者Huが居た」と予測してもよい。
As described above, the presence/
「存否モデル172を用いて、作業場Arに作業者Huが存在すると予測された」ことを確認すると(S210でYES)、判定部150はさらに、第一予測Pfにおいて「作業者Huが行っている作業Opの内容」が予測されているか否かを確認する。つまり、判定部150は、「作業予測モデル171を用いて、何らかの作業Opが行われていると予測されたか否か」を確認する(S220)。
When confirming that "it was predicted that the worker Hu was present in the workplace Ar using the presence/
判定部150によって、「作業予測モデル171を用いて、何らかの作業Opが行われていると予測された」ことが確認されると(S220でYES)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、第一取得部110が作業場画像Icから作業予測モデル171を用いて予測した作業Opの内容を、推定結果として出力し(S230)、つまり、第一予測Pf(x)を、推定結果として出力する。
When
「存否モデル172を用いて、作業場Arに作業者Huが存在しないと予測された」ことを確認すると(S210でNO)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「作業場Arに作業者Huがいない」との推定結果を出力する(S250)。つまり、存否予測部141が全体画像Iaから「作業場画像Icに撮像されている作業場Arに作業者Huが居ない」と予測する場合、推定部160は、「作業場Arに作業者Huがいない」との推定結果を出力する。
When confirming that "it was predicted that the worker Hu did not exist in the workplace Ar using the presence/
「作業予測モデル171を用いて、何らかの作業Opが行われているとは予測されなかった」ことを確認すると(S220でNO)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する(S240)。つまり、第一予測部120が作業場画像Icから作業Opの内容を予測できなかった場合、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する。
When it is confirmed that "it was not predicted that any work Op was being performed using the
情報処理装置10は、存否予測Paを用いて第一予測Pf(の正否)を検証し、つまり、HOI検出アルゴリズムを、「YOLOなどの動線検出アルゴリズム」と組み合わせて用いる。すなわち、情報処理装置10は、HOI検出アルゴリズムを実行する第一予測部120と、動線検出アルゴリズムを実行する存否予測部141とを備えることによって、第一予測部120による誤検出(予測の誤り)をキャンセルすることができる。動線検出アルゴリズムで予測(検出)できるのは、作業者Huの存否のみである代わりに、動線検出アルゴリズムの予測精度は、HOI検出アルゴリズムの予測精度よりも高い。そのため、情報処理装置10は、第一予測Pfと存否予測Paとを用いることによって、「作業者Huが行っている作業Opの内容」を、高精度に推定することができる。
The
(存否予測Paおよび作業予測Poの両方を用いて検証を行う場合の処理例)
図5は、存否予測Paおよび作業予測Poの両方を用いて第一予測Pf(の正否)を検証する場合に、情報処理装置10が実行する処理の全体概要を説明するフロー図である。図5に例示するように、情報処理装置10(特に、判定部150)は、第一予測Pf(の正否)を、存否予測Paおよび作業予測Poの両方を用いて検証してもよい。
(Example of processing when verification is performed using both presence/absence prediction Pa and work prediction Po)
FIG. 5 is a flow diagram illustrating the overall outline of the process executed by the
図5に示すように、判定部150は先ず、存否予測Paにおいて「作業場Arに作業者Huが存在する」と予測されているか否か、つまり、「存否モデル172を用いて、作業場Arに作業者Huが存在すると予測されたか否か」を確認する(S310)。
As shown in FIG. 5 , the determining
前述の通り、存否予測部141は、所定期間の全体画像Iaから、「その所定期間に、作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測してもよい。存否予測部141は、その所定期間の内の所定割合の期間以上、「作業者Huが居る」と予測した場合にのみ、「その所定期間に、作業場画像Icに撮像されている作業場Arに作業者Huが居た」と予測してもよい。
As described above, the presence/
「存否モデル172を用いて、作業場Arに作業者Huが存在すると予測された」ことを確認すると(S310でYES)、判定部150は、次に、作業予測Poにおいて「作業者Huが行っている作業Opの内容」が予測されているか否かを確認する。すなわち、判定部150は、「検知情報Idから、何らかの作業Opが行われていると予測されたか否か」を確認する(S320)。
After confirming that "worker Hu was predicted to be present in workplace Ar using the presence/
「検知情報Idから、何らかの作業Opが行われていると予測された」ことを確認すると(S320でYES)、判定部150は、第一予測Pfにおいて「作業者Huが行っている作業Opの内容」が予測されているか否かを確認する。つまり、判定部150は、「作業予測モデル171を用いて、何らかの作業Opが行われていると予測されたか否か」を確認する(S330)。
When confirming that "it was predicted that some work Op was being performed from the detection information Id" (YES in S320), the
「作業予測モデル171を用いて、何らかの作業Opが行われていると予測された」ことを確認すると(S330でYES)、判定部150は、以下の判定を実行する。すなわち、判定部150は、「検知情報Idから予測された作業Opの内容と、作業予測モデル171を用いて予測された作業Opの内容とが一致するか否か」を判定する(S340)。つまり、判定部150は、「作業予測Poにおける作業Op」と「第一予測Pfにおける作業Op(x)」とが一致するか否かを判定する。
After confirming that "it was predicted that some work Op was being performed using the
判定部150によって、「検知情報Idから予測された作業Opの内容と、作業予測モデル171を用いて予測された作業Opの内容とが一致する」と判定されると(S340でYES)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、第一取得部110が作業場画像Icから作業予測モデル171を用いて予測した作業Opの内容を、推定結果として出力し(S350)、つまり、第一予測Pf(x)を、推定結果として出力する。
When the
「存否モデル172を用いて、作業場Arに作業者Huが存在しないと予測された」ことを確認すると(S310でNO)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「作業場Arに作業者Huがいない」との推定結果を出力する(S360)。つまり、存否予測部141が全体画像Iaから「作業場画像Icに撮像されている作業場Arに作業者Huが居ない」と予測する場合、推定部160は、「作業場Arに作業者Huがいない」との推定結果を出力する。
When confirming that "it was predicted that the worker Hu did not exist in the workplace Ar using the presence/
「検知情報Idからは、何らかの作業Opが行われているとは予測されなかった」ことを確認すると(S320でNO)、つまり、作業予測部142が検知情報Idから作業Opの内容を予測できなかった場合、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する(S370)。
When it is confirmed that "it was not predicted that any work Op is being performed from the detection information Id" (NO in S320), that is, the
「作業予測モデル171を用いて、何らかの作業Opが行われているとは予測されなかった」ことを確認すると(S330でNO)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する(S370)。つまり、第一予測部120が作業場画像Icから作業Opの内容を予測できなかった場合、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する。
When it is confirmed that "it was not predicted that any work Op is being performed using the
「検知情報Idから予測された作業Opの内容と、作業予測モデル171を用いて予測された作業Opの内容とが一致しない」と判定されると(S340でNO)、推定部160は、以下の推定結果を出力する。すなわち、推定部160は、「所望の精度で推定できた作業Opの内容はない」との推定結果を出力する(S370)。
When it is determined that "the content of the work Op predicted from the detection information Id does not match the content of the work Op predicted using the
前述の通り、検知情報Id(工程情報Ipを含む)から予測可能な事象と、動線検出アルゴリズムによって予測可能な事象とは異なる。具体的には、作業予測部142が検知情報Idから生成する作業予測Poは、「作業者Huが行っている作業Opの内容」についての予測である。これに対して、存否予測部141が動線検出アルゴリズムを用いて生成する存否予測Paは、「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」についての予測である。
As described above, events that can be predicted from the detection information Id (including the process information Ip) are different from events that can be predicted by the flow line detection algorithm. Specifically, the work prediction Po generated by the
そのため、情報処理装置10(特に、判定部150)は、第一予測Pf(の正否)を検証するのに、作業予測Poおよび存否予測Paの少なくとも一方を用いることができる。具体的には、判定部150は、図3に示すように、作業予測Poのみを用いて第一予測Pf(の正否)を検証してもよいし、図4に示すように、存否予測Paのみを用いて第一予測Pf(の正否)を検証してもよい。
Therefore, the information processing apparatus 10 (in particular, the determination unit 150) can use at least one of the work prediction Po and the presence/absence prediction Pa to verify (correctness of) the first prediction Pf. Specifically, as shown in FIG. 3, the
また、判定部150は、存否予測Paおよび作業予測Poの両方を用いて第一予測Pf(の正否)を検証してもよい。特に、判定部150は、図5に示すように、存否予測Paによって先ず作業者Huの存否をフィルタリングし、作業者Huが存在すると予測した場合にさらに、作業予測Poを利用して、第一予測Pf(の正否)を検証してもよい。
Further, the
これまで図3、図4、および、図5を用いて説明してきた情報処理装置10の実行する処理は、以下のように整理することができる。すなわち、情報処理装置10の実行する制御方法は、「作業場Arにおいて作業者Huが行っている作業Opの内容」を推定する作業推定装置の制御方法である。情報処理装置10の実行する制御方法は、予測ステップ(S120、S220、S330)と、判定ステップ(S130、S210、S310、S340)と、推定ステップ(S140、S230、S350)とを含む。
The processing executed by the
予測ステップは、作業予測モデル171を用いて、「作業場画像Ic、または、作業場画像Icから生成された特徴情報」から、「作業者Huが作業対象物Obについて行っている作業Opの内容」を予測する。作業予測モデル171は、「作業場Arを撮像した作業場画像Ic」または「作業場画像Icから生成された特徴情報」を入力とし、以下の情報を出力とする学習済モデルである。すなわち、作業予測モデル171は、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を出力とする学習済モデルである。
In the prediction step, using the
判定ステップは、作業予測モデル171を用いずに予測された作業Opの内容、および、作業場Arに作業者Huが存在するか否かの判定結果の少なくとも一方を用いて、予測ステップでの予測の正否を判定する。つまり、判定ステップは、作業予測Poおよび存否予測Paの少なくとも一方を用いて、第一予測Pfの正否を判定する。
The judgment step uses at least one of the content of the work Op predicted without using the
推定ステップは、判定ステップにて「予測ステップでの予測が正しい」と判定されると、予測ステップにて予測された作業Opの内容を、「作業場Arにおいて作業者Huが行っている作業Opの内容」であると推定する。つまり、推定ステップは、作業予測Poおよび存否予測Paの少なくとも一方を用いて第一予測Pfが正しいことが検証されると、第一予測Pfを、「作業場Arにおいて作業者Huが行っている作業Opの内容」についての推定結果として出力する。 In the estimation step, when it is determined that "the prediction in the prediction step is correct" in the determination step, the content of the work Op predicted in the prediction step is changed to "the content of the work Op performed by the worker Hu in the workplace Ar. content”. That is, in the estimation step, when at least one of the work prediction Po and the presence/absence prediction Pa is used to verify that the first prediction Pf is correct, the first prediction Pf is regarded as "the work performed by the worker Hu at the workplace Ar. The content of Op" is output as an estimation result.
前記の構成によれば、前記制御方法は、作業予測モデル171を用いて予測した作業Opの内容の正否を、作業予測モデル171を用いずに予測された作業Opの内容、および、作業場Arにおける作業者Huの存否の判定結果の少なくとも一方を用いて判定する。そして、前記制御方法は、作業予測モデル171を用いた予測が正しいと判定されると、作業予測モデル171を用いて予測した作業Opの内容を、「作業場Arにおいて作業者Huが行っている作業Opの内容」であると推定する。
According to the above configuration, the control method determines whether the content of the work Op predicted using the
つまり、前記制御方法は、作業予測モデル171を用いて予測した作業Opの内容の正否を、作業予測モデル171を用いずに予測された作業Opの内容、および、作業場Arに作業者Huが存在するか否かの判定結果の少なくとも一方を用いて検証する。
That is, the control method determines whether the content of the work Op predicted using the
したがって、前記制御方法は、作業場画像Icから、「作業場Arにおいて作業者Huが行っている作業Opの内容」を、高精度に推定することができるとの効果を奏する。 Therefore, the control method has the effect of being able to estimate with high accuracy "the content of the work Op performed by the worker Hu in the workplace Ar" from the workplace image Ic.
(ニューラルネットワーク(NN)として実現した第一予測部および存否予測部の例)
前述の通り、第一予測部120および存否予測部141の少なくとも一方は、NNとして実現されてもよい。特に、第一予測部120および存否予測部141の少なくとも一方は、CNN(Convolution al Neural Network)またはDNN(Deep Neural Network)として、実現されてもよい。
(Example of the first prediction unit and presence/absence prediction unit realized as a neural network (NN))
As described above, at least one of the
例えば、第一予測部120(作業予測モデル171)は、作業場画像Icから、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を示す第一予測Pfを出力する。また、例えば、存否予測部141(存否モデル172)は、全体画像Iaから、「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を示す存否予測Paを出力する。 For example, the first prediction unit 120 (work prediction model 171) predicts from the workplace image Ic that "the worker Hu imaged in the workplace image Ic is performing the work object Ob imaged in the workplace image Ic. Output the first prediction Pf indicating "the content of the work Op". Further, for example, the presence/absence prediction unit 141 (presence/absence model 172) outputs a presence/absence prediction Pa indicating "whether there is a worker Hu in the workplace Ar captured in the workplace image Ic" from the entire image Ia.
次に、学習済モデルである作業予測モデル171および存否モデル172を構築する学習処理について、以下に説明する。
Next, learning processing for constructing the
(学習処理)
(作業予測モデルについて)
NNとして実現された第一予測部120は、学習済モデルである作業予測モデル171を、例えば、教師データDt1の集合である学習用データセットDS1に対する教師あり学習によって構築する。教師データDt1は、作業場画像Icに対し、少なくとも「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を示す情報がラベルとして付されたデータである。「教師データ」は「学習用データ」とも呼ばれる。また、「第一予測部120が、学習用データセットDS1に対する教師あり学習によって、作業予測モデル171を構築する」処理を、「学習処理SS1」とも称する。
(learning process)
(About the work prediction model)
The
学習処理SS1において、NNとして実現された第一予測部120は、学習用データセットDS1に対する教師あり学習によって、作業場画像Icの入力に対して、以下の情報を出力する作業予測モデル171を、学習済モデルとして構築する。すなわち、作業予測モデル171は、作業場画像Icを入力とし、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を出力とする学習済モデルである。
In the learning process SS1, the
つまり、教師データDt1において作業場画像Icには、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を示す情報がラベルとして付されている。教師データDt1において作業場画像Icに対するラベルとして付される情報は、教師データDt1の集合である学習用データセットDS1に対する機械学習により構築される作業予測モデル171が、作業場画像Icの入力に対して出力する情報と同様である。
That is, in the workplace image Ic in the training data Dt1, information indicating "the details of the work Op performed by the worker Hu imaged in the workplace image Ic on the work object Ob imaged in the workplace image Ic". is labeled. Information attached as a label to the workplace image Ic in the teacher data Dt1 is output by the
NNとして実現された第一予測部120は、学習処理SS1によって構築した作業予測モデル171を、記憶部170に格納する。
The
(教師データの準備について)
図6は、教師データDt1の生成に必要なアノテーションの一例を説明する図である。図6に例示する教師データDt1において、作業場画像Icには、以下のラベル(アノテーション)が付されている。すなわち、作業場画像Icには、一点鎖線で囲んだ、「作業者Huを検出するバウンディングボックスの範囲」を示すラベルが付されている。また、作業場画像Icには、二点鎖線で囲んだ、「作業対象物Obを検出するバウンディングボックスの範囲」を示すラベルが付されている。さらに、作業場画像Icには、両端を矢印とする直線が、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を示すラベルとして付されている。両端を矢印とする直線は、「作業者Huを検出するバウンディングボックスの範囲」の略中央と、「作業対象物Obを検出するバウンディングボックスの範囲」の略中央とを結んでいる。
(Preparing teacher data)
FIG. 6 is a diagram illustrating an example of annotations necessary for generating teacher data Dt1. In the training data Dt1 illustrated in FIG. 6, the following labels (annotations) are attached to the workplace image Ic. That is, the workplace image Ic is labeled with a dashed-dotted line indicating the "range of the bounding box for detecting the worker Hu". Also, the workplace image Ic is labeled with a two-dot chain line indicating the "range of the bounding box for detecting the work object Ob". Furthermore, in the work place image Ic, a straight line with arrows at both ends indicates the content of the work Op performed by the worker Hu imaged in the work place image Ic on the work object Ob imaged in the work place image Ic. ” is attached as a label. A straight line with arrows at both ends connects approximately the center of the "range of the bounding box for detecting the worker Hu" and approximately the center of the "range of the bounding box for detecting the work object Ob".
図6に例示するような教師データDt1の準備には、作業者Huを検出するためのバウンディングボックスの設定が不要であったとしても、作業場画像Icに対して以下の5つのアノテーションが必要となる。すなわち、作業場画像Icに対して、作業対象物Obを検出するためのバウンディングボックスの範囲を示す4点のうち、左下の点および右上の点の各々のX座標およびY座標を設定することが必要であり、つまり、4つのアノテーションが必要となる。さらに、作業場画像Icに対して、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を示す1つのアノテーションが必要となる。 To prepare training data Dt1 as exemplified in FIG. 6, even if it is not necessary to set a bounding box for detecting worker Hu, the following five annotations are required for workplace image Ic. . That is, it is necessary to set the X and Y coordinates of each of the lower left point and the upper right point among the four points indicating the range of the bounding box for detecting the work object Ob for the workplace image Ic. , which means that four annotations are required. Furthermore, for the workplace image Ic, there is one annotation indicating "the content of the work Op performed by the worker Hu captured in the workplace image Ic with respect to the work object Ob captured in the workplace image Ic". necessary.
ここで、教師あり学習のためには、一般に大量の教師データDt1が必要であり、大量の教師データDt1を準備するためには、大量の作業場画像Icの各々について、上述の5つのアノテーションを行うことが必要となる。そのため、大量の作業場画像Icの各々について、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を人間に判定させようとする場合、それに要するコストは極めて大きい。 Here, supervised learning generally requires a large amount of teacher data Dt1, and in order to prepare a large amount of teacher data Dt1, the above five annotations are performed for each of the large number of workplace images Ic. is required. For this reason, for each of a large number of workplace images Ic, "the content of the work Op performed by the worker Hu imaged in the workplace image Ic on the work object Ob imaged in the workplace image Ic" is determined by a human being. The cost of doing so is extremely high.
そこで、本実施形態においては、教師データDt1の準備に際して、作業場画像Icから人間が判定した「作業Opの内容」ではなく、検知情報Idから予測された「作業Opの内容」が、「作業Opの内容」を示すラベルとして、作業場画像Icに付与される。つまり、教師データDt1においては、作業場画像Icから人間が判定した「作業Opの内容」ではなく、作業予測部142が検知情報Idから予測した「作業Opの内容」が、「作業Opの内容」を示すラベルとして付されている。
Therefore, in the present embodiment, when preparing the training data Dt1, the “contents of the work Op” predicted from the detection information Id are used instead of the “contents of the work Op” determined by a human from the workplace image Ic. is given to the workplace image Ic as a label indicating "contents of". That is, in the training data Dt1, the "contents of the work Op" predicted by the
そのため、作業予測モデル171の構築に必要となるコストは、「作業Opの内容」を示すラベルとして「作業場画像Icから人間が判定した内容」を用いる場合と比べて、大幅に抑制できる。特に、学習用データセットDS1の生成に必要なアノテーションコストは、「作業Opの内容」を示すラベルとして「作業場画像Icから人間が判定した内容」を用いる場合と比べて、大幅に抑制できる。例えば、作業場画像Icに対して必要な上述の5つのアノテーションの内の1つを、「人間による判定内容」から「作業予測部142が検知情報Idから予測した内容」へと変更するので、アノテーションコストを20%抑制することができる。
Therefore, the cost required for constructing the
例えば、或る撮像時刻Tpにおいてセルカメラ30が作業場Ar(x)を撮像して生成した作業場画像Ic(x)について、以下の「作業Op(x)の内容」が、ラベルとして付されることによって、教師データDt1(x)が生成される。すなわち、作業予測部142が検知情報Id(x)から予測した「撮像時刻Tpにおいて、作業者Hu(x)が、作業場Ar(x)で行っている作業Op(x)の内容」が、作業場画像Ic(x)に対してラベルとして付された教師データDt1(x)が生成される。検知情報Id(x)は、撮像時刻Tpにおける「作業Op(x)に用いられる工具(例えば、出力デバイス42(x)または器具90(x))、作業対象物Ob(x)、および、作業場Ar(x)の少なくとも1つの状態」を示す情報である。
For example, the following "contents of work Op(x)" is attached as a label to the workplace image Ic(x) generated by imaging the workplace Ar(x) with the cell camera 30 at a certain imaging time Tp. generates teacher data Dt1(x). That is, the
具体的には、作業予測部142は、例えば、「撮像時刻Tpにおいて、器具90(x):電動ドライバに流れた電流の大きさ」から、「撮像時刻Tpにおいて、作業者Huが、作業場Ar(x)で作業Op(x):ネジ締め作業を行った」と予測する。この予測内容(つまり、「作業Op(x)の内容::ネジ締め作業」)が、作業場画像Ic(x)に付されることによって、教師データDt1(x)が生成される。
Specifically, the
これまでに説明してきたように、情報処理装置10において、作業予測モデル171は、学習用データセットDS1を用いた機械学習によって構築された学習済モデルである。学習用データセットDS1において、「作業場画像Icまたは作業場画像Icから生成された特徴情報」には、以下の情報がラベルとして付されている。すなわち、「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を検知する入力デバイス41の検知情報Idから予測された、「作業場Arにおいて作業者Huが行っている作業Opの内容」がラベルとして付されている。
As described above, in the
前記の構成によれば、情報処理装置10は、入力デバイス41の検知情報Idから予測した「作業場Arにおいて作業者Huが行っている作業Opの内容」がラベルとして付された学習用データセットを用いた機械学習によって、作業予測モデル171を構築する。
According to the above configuration, the
教師あり学習のためには、大量の教師データ(学習用データセット)が必要であることが知られており、そのような教師データの生成に必要なラベリング作業、および、教師データに付されているラベル(メタデータ)は、「アノテーション」とも呼ばれる。 It is known that supervised learning requires a large amount of teacher data (learning data set). The labels (metadata) that are present are also called “annotations”.
例えば、作業予測モデル171の構築に際して学習される教師データDt1には、作業者Huを検出するためのバウンディングボックス(Bounding Box)の設定が不要であったとしても、作業場画像Icに対して以下の5つのアノテーションが必要となる。すなわち、作業場画像Icに対して、作業対象物Obを検出するためのバウンディングボックスの範囲を示す4点のうち、左下の点および右上の点の各々のX座標およびY座標を設定することが必要であり、つまり、4つのアノテーションが必要となる。さらに、作業場画像Icに対して、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を示す情報(ラベル)の付与が必要であり、つまり、1つのアノテーションが必要となる。
For example, even if the teacher data Dt1 learned when constructing the
そして、大量の作業場画像Icの各々について、「作業場画像Icに撮像されている作業者Huが、作業場画像Icに撮像されている作業対象物Obについて行っている作業Opの内容」を人間に判定させようとする場合、それに要するコストは極めて大きい。 Then, for each of a large number of workplace images Ic, "the content of the work Op performed by the worker Hu imaged in the workplace image Ic on the work object Ob imaged in the workplace image Ic" is determined by a human. The cost of doing so is extremely high.
そこで、教師データDt1の生成に際しては、作業場画像Icから人間が判定した「作業Opの内容」ではなく、入力デバイス41の検知情報Idから予測された「作業Opの内容」が、「作業Opの内容」を示すラベルとして付与される。つまり、教師データDt1においては、作業場画像Icから人間が判定した「作業Opの内容」ではなく、入力デバイス41の検知情報Idから予測された「作業Opの内容」が、「作業Opの内容」を示すラベルとして付されている。 Therefore, when generating the training data Dt1, the "contents of the work Op" predicted from the detection information Id of the input device 41 is used instead of the "contents of the work Op" determined by a human from the workplace image Ic. It is given as a label indicating "content". That is, in the training data Dt1, the "contents of the work Op" predicted from the detection information Id of the input device 41 is not the "contents of the work Op" determined by a human from the workplace image Ic. It is attached as a label indicating
そのため、作業予測モデル171の構築に必要となるコストは、「作業Opの内容」を示すラベルとして「作業場画像Icから人間が判定した内容」を用いる場合と比べて、大幅に抑制できる。特に、学習用データセットDS1の生成に必要なアノテーションコストは、「作業Opの内容」を示すラベルとして「作業場画像Icから人間が判定した内容」を用いる場合と比べて、大幅に抑制できる。例えば、作業場画像Icに対して必要な上述の5つのアノテーションの内の1つを、「人間による判定内容」から「情報処理装置10等の装置が検知情報Idから予測した内容」へと変更するので、アノテーションコストを20%抑制することができる。
Therefore, the cost required for constructing the
したがって、前記の構成によれば、情報処理装置10は、アノテーションコストが大幅に抑制された作業予測モデル171を用いて、作業場画像Icから、「作業者Huが行っている作業Opの内容」を、高精度に推定することができるとの効果を奏する。
Therefore, according to the above-described configuration, the
(存否モデルについて)
NNとして実現された存否予測部141は、学習済モデルである存否モデル172を、例えば、教師データDt2の集合であるデータセットDS2に対する教師あり学習によって構築する。教師データDt2は、全体画像Iaに対し、「作業場Ar(より正確には、工場Faにおける複数の作業場Arの各々)に作業者Huが居るか」を示す情報がラベルとして付されたデータである。「存否予測部141が、データセットDS2に対する教師あり学習によって、存否モデル172を構築する」処理を、「学習処理SS2」とも称する。
(About presence/absence model)
The presence/
学習処理SS2において、NNとして実現された存否予測部141は、データセットDS2に対する教師あり学習によって、全体画像Iaの入力に対して、以下の情報を出力する存否モデル172を、学習済モデルとして構築する。すなわち、存否モデル172は、全体画像Iaを入力とし、「作業場Ar(より正確には、工場Faにおける複数の作業場Arの各々)に作業者Huが居るか」を出力とする学習済モデルである。
In the learning process SS2, the presence/
つまり、教師データDt2において全体画像Iaには、「作業場Ar(より正確には、工場Faにおける複数の作業場Arの各々)に作業者Huが居るか」を示す情報がラベルとして付されている。教師データDt2において全体画像Iaに対するラベルとして付される情報は、教師データDt2の集合であるデータセットDS2に対する機械学習により構築される存否モデル172が、全体画像Iaの入力に対して出力する情報と同様である。
That is, in the training data Dt2, the entire image Ia is labeled with information indicating "whether there is a worker Hu in the workplace Ar (more precisely, each of the plurality of workplaces Ar in the factory Fa)". The information labeled as the entire image Ia in the teacher data Dt2 is the information output by the presence/
NNとして実現された存否予測部141は、学習処理SS2によって構築した存否モデル172を、記憶部170に格納する。
The presence/
ただし、存否予測部141が学習処理SS2によって存否モデル172を構築することは必須ではない。存否予測部141は、動線検出アルゴリズムに用いられる一般的な学習済モデルを存否モデル172として用いて、全体画像Iaから「作業場Ar(より正確には、工場Faにおける複数の作業場Arの各々)に作業者Huが居るか」を予測してもよい。
However, it is not essential for the presence/
§4.変形例
(機械学習について)
これまで、教師ありデータに対する機械学習によって、学習済データとして作業予測モデル171および存否モデル172を構築する例を説明してきた。しかしながら、作業予測モデル171および存否モデル172を構築するための機械学習は、教師ありデータに対する機械学習に限られない。作業予測モデル171および存否モデル172を構築するための機械学習は、教師あり学習に限らず、教師なし学習、または、強化学習等の他の機械学習であってもよい。
§4. Modified example (about machine learning)
So far, an example has been described in which the
(全体画像について)
これまで、存否予測部141が、全体画像Iaから「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測する例を説明してきた。しかしながら、存否予測部141は、作業場画像Icから「作業場画像Icに撮像されている作業場Arに作業者Huが居るか」を予測してもよい。すなわち、情報処理装置10が、作業場画像Icとは別に全体画像Iaを取得することは必須ではない。情報処理装置10(特に、判定部150)は、作業場画像Icから生成した第一予測Pfの正否を、全体画像Iaおよび作業場画像Icの少なくとも一方から生成された存否予測Paによって検証することができる。例えば、判定部150は、全体画像Iaおよび作業場画像Ic(x)の少なくとも一方から生成された存否予測Pa(x)が「作業場Ar(x)に作業者Huが存在する」との予測であると、「第一予測Pf(x)は正しい」と判定する。
(About the whole image)
So far, an example has been described in which the presence/
(作業予測について)
これまで、検知情報Idから、「作業者Huが行っている作業Opの内容」を予測する主体が、情報処理装置10である例を説明してきた。すなわち、作業予測部142が、検知情報Idから、「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を把握し、把握した状態から、作業予測Poを生成する例を説明してきた。
(About work forecast)
So far, an example has been described in which the
しかしながら、検知情報Idから「作業Opに用いられる工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態」を把握し、把握した状態から、「作業者Huが行っている作業Opの内容」を予測する主体は、情報処理装置10でなくともよい。情報処理装置10は、工具、作業対象物Ob、および、作業場Arの少なくとも1つの状態から予測される「作業者Huが行っている作業Opの内容」を取得または生成できればよい。
However, from the detection information Id, "at least one state of the tool used in the work Op, the work object Ob, and the work place Ar" is grasped, and from the grasped state, "the content of the work Op performed by the worker Hu ” may not be the
例えば、PLC20が、検知情報Idから作業予測Poを生成してもよい。その場合、情報処理装置10(特に、検知情報取得部132)は、PLC20から、PLC20が実行した予測の結果を、つまり、作業予測Poを取得する。そして、判定部150は、PLC20の生成した作業予測Poを用いて、第一予測Pf(の正否)を検証する。
For example, the
つまり、情報処理装置10(特に、判定部150)が第一予測Pf(の正否)を検証するために作業予測Poを用いる場合、検知情報Idから作業予測Poを生成する主体は、情報処理装置10であってもよいし、情報処理装置10でなくともよい。
That is, when the information processing device 10 (especially, the determination unit 150) uses the work prediction Po to verify (correctness of) the first prediction Pf, the entity that generates the work prediction Po from the detection information Id is the
(第二予測について)
これまで、情報処理装置10が存否予測部141と作業予測部142とを共に備える例を説明してきたが、情報処理装置10が存否予測部141と作業予測部142とを共に備えることは必須ではない。判定部150は、第一予測Pf(の正否)を、第二予測Psを用いて検証できればよく、つまり、第一予測Pf(の正否)を、存否予測Paおよび作業予測Poの少なくとも一方を用いて検証できればよい。そのため、第一予測Pf(の正否)の検証に存否予測Paを用いない場合、情報処理装置10は、存否予測部141を備えなくともよい。また、第一予測Pf(の正否)の検証に作業予測Poを用いない場合、情報処理装置10は、作業予測部142を備えなくともよい。
(About the second prediction)
So far, an example in which the
〔ソフトウェアによる実現例〕
情報処理装置10の機能ブロック(具体的には、第一取得部110、第一予測部120、第二取得部130、第二予測部140、判定部150、および推定部160)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。また、これらの機能ブロックは、CPU、GPU、DSP等を用いてソフトウェアによって実現してもよい。
[Example of realization by software]
The functional blocks of the information processing device 10 (specifically, the
後者の場合、情報処理装置10は、各々、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、GPU、DSP等と、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROMまたは記憶装置(これらを「記録媒体」と称する)と、上記プログラムを展開するRAM等とを備えている。そして、コンピュータ(またはCPU、GPU、DSP等)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
10 情報処理装置(作業推定装置)
41 入力デバイス(センサ)
42 出力デバイス(工具)
90 器具(工具)
120 第一予測部(予測部)
141 存否予測部
142 作業予測部(作業検知部)
150 判定部
160 推定部
171 作業予測モデル
172 存否モデル
Ar 作業場
DS1 学習用データセット
Hu 作業者
Ia 全体画像
Ic 作業場画像
Id 検知情報
Ob 作業対象物
Op 作業
S120 (予測ステップ)
S130 (判定ステップ)
S140 (推定ステップ)
S210 (判定ステップ)
S220 (予測ステップ)
S230 (推定ステップ)
S310 (判定ステップ)
S330 (予測ステップ)
S340 (判定ステップ)
S350 (推定ステップ)
10 information processing device (work estimation device)
41 Input device (sensor)
42 Output device (tool)
90 instruments (tools)
120 first prediction unit (prediction unit)
141 presence/
150
S130 (Determination step)
S140 (estimation step)
S210 (Determination step)
S220 (prediction step)
S230 (estimation step)
S310 (Determination step)
S330 (prediction step)
S340 (Determination step)
S350 (estimation step)
Claims (8)
前記作業場を撮像した作業場画像または前記作業場画像から生成された特徴情報を入力とし、前記作業場画像に撮像されている前記作業者が、前記作業場画像に撮像されている作業対象物について行っている作業の内容を出力とする学習済モデルである作業予測モデルを用いて、前記作業場画像または前記特徴情報から、前記作業者が前記作業対象物について行っている作業の内容を予測する予測部と、
前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場に前記作業者が存在するか否かの判定結果の少なくとも一方を用いて、前記予測部の予測の正否を判定する判定部と、
前記判定部によって前記予測部の予測が正しいと判定されると、前記予測部によって予測された前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容として推定する推定部と、
を備える作業推定装置。 A work estimation device for estimating the content of work performed by a worker in a workplace,
A work performed by the worker imaged in the work place image with respect to the work target imaged in the work place image, using as an input a work place image obtained by imaging the work place or feature information generated from the work place image. a prediction unit that predicts the content of the work performed by the worker on the work object from the workplace image or the feature information using a work prediction model that is a learned model that outputs the content of;
Determining whether the prediction by the prediction unit is correct or not using at least one of the content of the work predicted without using the work prediction model and a determination result as to whether or not the worker is present in the workplace. a determination unit;
an estimating unit for estimating, when the determining unit determines that the prediction by the predicting unit is correct, the content of the work predicted by the predicting unit as the content of the work performed by the worker in the workplace; ,
A work estimating device comprising:
前記判定部は、前記予測部によって予測された前記作業の内容と、前記作業検知部によって予測された前記作業の内容とが一致すると、前記予測部の予測が正しいと判定する
請求項1に記載の作業推定装置。 A work detection unit that predicts the content of the work performed by the worker in the work area from detection information from a sensor that detects at least one state of the tool, the work object, and the work area used in the work. further comprising
2. The determination unit according to claim 1, wherein when the content of the work predicted by the prediction unit matches the content of the work predicted by the work detection unit, the determination unit determines that the prediction by the prediction unit is correct. work estimator.
前記判定部は、前記存否予測部によって前記作業場に前記作業者が存在すると予測されると、前記予測部の予測が正しいと判定する
請求項1に記載の作業推定装置。 (A) an overall image obtained by imaging a plurality of workplaces including the workplace, or (B) the workplace image, or (C) feature information generated from the overall image or the workplace image is input, and the workplace Using a presence/absence model that is a learned model that outputs whether or not the worker exists, from the overall image, the workplace image, or the feature information generated from the overall image or the workplace image , further comprising a presence/absence prediction unit that predicts whether or not the worker exists in the workplace,
The work estimating device according to claim 1, wherein the determining unit determines that the prediction by the predicting unit is correct when the presence/absence predicting unit predicts that the worker is present in the workplace.
(A)前記作業場を含む複数の作業場を撮像した全体画像、または、(B)前記作業場画像、または、(C)前記全体画像または前記作業場画像から生成された特徴情報を入力とし、前記作業場に前記作業者が存在するか否かを出力とする学習済モデルである存否モデルを用いて、前記全体画像、または、前記作業場画像、または、前記全体画像または前記作業場画像から生成された特徴情報から、前記作業場に前記作業者が存在するか否かを予測する存否予測部と、
をさらに備え、
前記判定部は、前記存否予測部によって前記作業場に前記作業者が存在すると予測され、かつ、前記予測部によって予測された前記作業の内容と、前記作業検知部によって予測された前記作業の内容とが一致すると、前記予測部の予測が正しいと判定する
請求項1に記載の作業推定装置。 A work detection unit that predicts the content of the work performed by the worker in the work area from detection information from a sensor that detects at least one state of the tool, the work object, and the work area used in the work. When,
(A) an overall image obtained by imaging a plurality of workplaces including the workplace, or (B) the workplace image, or (C) feature information generated from the overall image or the workplace image is input, and the workplace Using a presence/absence model that is a learned model that outputs whether or not the worker exists, from the overall image, the workplace image, or the feature information generated from the overall image or the workplace image , a presence/absence prediction unit that predicts whether or not the worker is present in the workplace;
further comprising
The determination unit predicts that the worker will be present in the workplace by the presence/absence prediction unit, and determines the content of the work predicted by the prediction unit and the content of the work predicted by the work detection unit. 2. The work estimating device according to claim 1, wherein the prediction of the prediction unit is determined to be correct when the .
請求項1から4のいずれか1項に記載の作業推定装置。 The work prediction model predicts the tool used in the work, the work object, and the information detected by a sensor that detects at least one state of the work place, and the work performed by the worker in the work place. 5. Any one of claims 1 to 4, wherein the work content is constructed by machine learning using a learning data set labeled with the workplace image or feature information generated from the workplace image. Work estimating device according to.
前記作業場を撮像した作業場画像または前記作業場画像から生成された特徴情報を入力とし、前記作業場画像に撮像されている前記作業者が、前記作業場画像に撮像されている作業対象物について行っている作業の内容を出力とする学習済モデルである作業予測モデルを用いて、前記作業場画像または前記特徴情報から、前記作業者が前記作業対象物について行っている作業の内容を予測する予測ステップと、
前記作業予測モデルを用いずに予測された前記作業の内容、および、前記作業場に前記作業者が存在するか否かの判定結果の少なくとも一方を用いて、前記予測ステップでの予測の正否を判定する判定ステップと、
前記判定ステップにて前記予測ステップでの予測が正しいと判定されると、前記予測ステップにて予測された前記作業の内容を、前記作業場において前記作業者が行っている前記作業の内容として推定する推定ステップと、
を含む制御方法。 A control method for a work estimation device for estimating the content of work performed by a worker in a workplace, comprising:
A work performed by the worker imaged in the work place image with respect to the work target imaged in the work place image, using as an input a work place image obtained by imaging the work place or feature information generated from the work place image. a prediction step of predicting the content of the work performed by the worker on the work object from the workplace image or the feature information using a work prediction model that is a learned model that outputs the content of;
Determining whether the prediction in the prediction step is correct or not using at least one of the content of the work predicted without using the work prediction model and the determination result of whether or not the worker is present in the work place. a determination step to
When the determination step determines that the prediction in the prediction step is correct, the content of the work predicted in the prediction step is estimated as the content of the work performed by the worker in the workplace. an estimation step;
Control method including.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021009138A JP7654983B2 (en) | 2021-01-22 | 2021-01-22 | WORK ESTIMATION DEVICE, CONTROL METHOD FOR WORK ESTIMATION DEVICE, INFORMATION PROCESSING PROGRAM, AND RECORDING MEDIUM |
| PCT/JP2021/007816 WO2022157988A1 (en) | 2021-01-22 | 2021-03-02 | Work estimation device, control method for work estimation device, information processing program, and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021009138A JP7654983B2 (en) | 2021-01-22 | 2021-01-22 | WORK ESTIMATION DEVICE, CONTROL METHOD FOR WORK ESTIMATION DEVICE, INFORMATION PROCESSING PROGRAM, AND RECORDING MEDIUM |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022113042A true JP2022113042A (en) | 2022-08-03 |
| JP7654983B2 JP7654983B2 (en) | 2025-04-02 |
Family
ID=82548611
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021009138A Active JP7654983B2 (en) | 2021-01-22 | 2021-01-22 | WORK ESTIMATION DEVICE, CONTROL METHOD FOR WORK ESTIMATION DEVICE, INFORMATION PROCESSING PROGRAM, AND RECORDING MEDIUM |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7654983B2 (en) |
| WO (1) | WO2022157988A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024085159A1 (en) | 2022-10-18 | 2024-04-25 | ソフトバンクグループ株式会社 | Work robot adjustment method, sensing system, sensing method, mobile robot, operation modification system, operation modification method, work robot, work reproduction system, work reproduction method, work mastering system, work mastering method, and work reproducing robot |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019012328A (en) * | 2017-06-29 | 2019-01-24 | 株式会社 日立産業制御ソリューションズ | Human behavior estimation system |
| JP2019125013A (en) * | 2018-01-12 | 2019-07-25 | コニカミノルタ株式会社 | Production management system and production management program |
| JP2019197373A (en) * | 2018-05-09 | 2019-11-14 | 高砂熱学工業株式会社 | Notification device, information processing device, information processing system, information processing method, and information processing program |
| JP6789590B1 (en) * | 2020-08-14 | 2020-11-25 | 株式会社キャッシュフローリノベーション | Productivity improvement system and productivity improvement method |
| JP2020204819A (en) * | 2019-06-14 | 2020-12-24 | オムロン株式会社 | Information processing equipment, information processing methods, information processing programs, and recording media |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7118155B2 (en) * | 2018-07-30 | 2022-08-15 | 株式会社日立製作所 | Work information management system and work information management method |
| JP7300617B2 (en) * | 2018-12-27 | 2023-06-30 | パナソニックIpマネジメント株式会社 | WORK SUPPORT DEVICE, WORK SUPPORT METHOD, AND PROGRAM |
-
2021
- 2021-01-22 JP JP2021009138A patent/JP7654983B2/en active Active
- 2021-03-02 WO PCT/JP2021/007816 patent/WO2022157988A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019012328A (en) * | 2017-06-29 | 2019-01-24 | 株式会社 日立産業制御ソリューションズ | Human behavior estimation system |
| JP2019125013A (en) * | 2018-01-12 | 2019-07-25 | コニカミノルタ株式会社 | Production management system and production management program |
| JP2019197373A (en) * | 2018-05-09 | 2019-11-14 | 高砂熱学工業株式会社 | Notification device, information processing device, information processing system, information processing method, and information processing program |
| JP2020204819A (en) * | 2019-06-14 | 2020-12-24 | オムロン株式会社 | Information processing equipment, information processing methods, information processing programs, and recording media |
| JP6789590B1 (en) * | 2020-08-14 | 2020-11-25 | 株式会社キャッシュフローリノベーション | Productivity improvement system and productivity improvement method |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024085159A1 (en) | 2022-10-18 | 2024-04-25 | ソフトバンクグループ株式会社 | Work robot adjustment method, sensing system, sensing method, mobile robot, operation modification system, operation modification method, work robot, work reproduction system, work reproduction method, work mastering system, work mastering method, and work reproducing robot |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2022157988A1 (en) | 2022-07-28 |
| JP7654983B2 (en) | 2025-04-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN106919162B (en) | Control device having learning function for detecting cause of noise generation | |
| JP7272128B2 (en) | Information processing device, information processing method, information processing program, and recording medium | |
| US10915419B2 (en) | Industrial control system, and assistance apparatus, control assist method, and program thereof | |
| US20180348728A1 (en) | Process analysis apparatus, process analysis method, and process analysis program | |
| CN111308925B (en) | Information processing device, production instruction support method | |
| JP2019204155A (en) | Abnormality detector | |
| JP6977686B2 (en) | Control system and control unit | |
| JP7660586B2 (en) | Industrial system, anomaly detection system, and anomaly detection method | |
| US11138805B2 (en) | Quantitative quality assurance for mixed reality | |
| JP2020155114A (en) | Systems, methods and computer readable storage media for anomaly detection in time-varying system operation | |
| CN112653737A (en) | Indoor wall plastering robot remote monitoring system based on Internet of things | |
| JP2020205027A (en) | Data extraction device, method of controlling the same, information processing program, and recording medium | |
| JP2022113042A (en) | Task estimation device, control method thereof, information processing program, and recording medium | |
| WO2016079833A1 (en) | Abnormality detection device, abnormality detection method, and abnormality detection program | |
| CN116194952A (en) | Check device | |
| WO2022234678A1 (en) | Machine learning device, classification device, and control device | |
| WO2020250501A1 (en) | Data extraction device, control method for data extraction device, information processing program, and recording medium | |
| JP7559511B2 (en) | WORK ESTIMATION DEVICE, CONTROL METHOD FOR WORK ESTIMATION DEVICE, INFORMATION PROCESSING PROGRAM, AND RECORDING MEDIUM | |
| JPWO2020178913A1 (en) | Inspection system | |
| JP2024112671A (en) | Work analysis device, work analysis system, work analysis method, and program | |
| Riedel et al. | Evaluating augmented reality, deep learning and paper-based assistance systems in industrial manual assembly | |
| EP4288908A1 (en) | Monitoring apparatus for quality monitoring with adaptive data valuation | |
| CN117718949B (en) | Real-time data management system and method for wafer transfer robotic arms based on digital twins | |
| EP4597246A1 (en) | Factor analysis device and factor analysis method | |
| CN116604535B (en) | Teaching system and method applied to modular design of robot industrial chain |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231109 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240910 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241111 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241203 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250129 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250218 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250303 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7654983 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
