JP7453126B2 - Work observation system, work analysis method, and educational support system - Google Patents
Work observation system, work analysis method, and educational support system Download PDFInfo
- Publication number
- JP7453126B2 JP7453126B2 JP2020192435A JP2020192435A JP7453126B2 JP 7453126 B2 JP7453126 B2 JP 7453126B2 JP 2020192435 A JP2020192435 A JP 2020192435A JP 2020192435 A JP2020192435 A JP 2020192435A JP 7453126 B2 JP7453126 B2 JP 7453126B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- observation system
- tool
- image
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Educational Technology (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、作業観察システムに関する。 The present invention relates to a work observation system.
精密機器の微細な加工のような熟練手技を必要とする作業者の育成において、定性的な指導が中心であり、手技の結果としての出来栄えを確認しながら試行錯誤を繰り返して、手技を習得させて、作業品質を向上している。 Qualitative guidance is the main focus in training workers who require skilled techniques, such as fine processing of precision equipment, and the training involves repeating trial and error while checking the results of the technique to help them acquire the technique. The quality of work has been improved.
本技術分野の背景技術として、特開2012-198644号公報(特許文献1)、特開2011-134224号公報(特許文献2)、特開2017-71033号公報(特許文献3)がある。 As background art in this technical field, there are JP2012-198644A (Patent Document 1), JP2011-134224A (Patent Document 2), and JP2017-71033A (Patent Document 3).
特開2012-198644号公報には、一作業区間に関する第1の一連の作業画像情報を記憶する記憶部と、前記一作業区間に関する第2の一連の作業画像情報をカメラから取得する取得部と、前記記憶部に記憶された第1の一連の作業画像情報と、前記取得部により取得された第2の一連の作業画像情報と、を比較することにより、前記第1の一連の作業画像情報の撮影時の作業に対する前記第2の一連の作業画像情報の撮影時の作業の良否を判定する判定部と、前記判定部による判定結果に応じて、前記第1の一連の作業画像情報を前記第2の一連の作業画像情報に更新する更新部と、前記更新部による更新結果を出力する出力部と、を備えることを特徴とする作業支援装置が記載されている。 Japanese Unexamined Patent Publication No. 2012-198644 discloses a storage unit that stores a first series of work image information regarding one work section, and an acquisition section that acquires a second series of work image information regarding the one work section from a camera. , the first series of work image information is obtained by comparing the first series of work image information stored in the storage unit and the second series of work image information acquired by the acquisition unit. a determination unit that determines the quality of the work at the time of photographing the second series of work image information for the work at the time of photography; A work support device is described that includes an updating section that updates to a second series of work image information, and an output section that outputs the update result by the updating section.
特開2011-134224号公報には、組立作業における作業者への作業を支援する組立作業支援システムであって、作業のシナリオを記録する作業シナリオ記録手段と、前記作業のシナリオに従って行われる作業の作業時間を計測する作業時間計測手段と、前記作業時間計測手段で計測された作業時間の最も短い作業から予め定められた順番までの作業を撮像した動画、および前記作業時間計測手段で計測された作業時間の最も長い作業から予め定められた順番までの作業を撮像した動画を記録する動画記録手段とを備えることを特徴とする組立作業支援システムが記載されている。 Japanese Unexamined Patent Publication No. 2011-134224 discloses an assembly work support system that supports workers in assembly work, which includes a work scenario recording means for recording a work scenario, and a work scenario recorder for recording a work scenario. A working time measuring means for measuring working time, a video capturing the work from the shortest working time measured by the working time measuring means to a predetermined order, and the working time measuring means measuring the working time. An assembly work support system is described, which is characterized by comprising a video recording means for recording a video of the work taken from the longest work time to a predetermined order.
特開2017-71033号公報には、ロボットアームを有するロボット装置で使用され、光学的に検知して前記ロボットアームの制御に用いる座標系を調整可能な指標を有する作業用基準物体における指標の位置ずれ情報を測定する測定工程と、前記測定工程により測定した前記位置ずれ情報を、光学的に読み取り可能な情報画像に変換して前記作業用基準物体に記録する記録工程と、を有することを特徴とする作業用基準物体の製造方法が記載されている。 JP 2017-71033A discloses a method of positioning an index in a working reference object that is used in a robot device having a robot arm and has an index that can be optically detected and adjust the coordinate system used to control the robot arm. It is characterized by comprising a measuring step of measuring displacement information, and a recording step of converting the positional displacement information measured in the measuring step into an optically readable information image and recording it on the work reference object. A method for manufacturing a reference object for work is described.
精密機器の微細な加工のような熟練手技を必要とする作業者の育成において、定性的な指導が中心であり、手技の結果としての出来栄えを確認しながら試行錯誤を繰り返して、手技を習得させている。そのため、微細な加工のような熟練手技の場合は、指導にあたる熟練作業者の微細な加工中の動作や加工対象の状態を指導を受ける作業者が直接観察できないことがあり、作業者の育成に数か月あるいはそれ以上の時間を要することがあり、早期に作業者を技能向上させ生産性を向上させることが望まれていた。 Qualitative guidance is the main focus in training workers who require skilled techniques, such as fine processing of precision equipment, and the training involves repeating trial and error while checking the results of the technique to help them acquire the technique. ing. Therefore, in the case of skilled techniques such as micro-machining, the worker receiving the instruction may not be able to directly observe the movements of the skilled worker who is instructing the instructor during micro-machining or the state of the workpiece. This can take several months or more, so it has been desired to quickly improve the skills of workers and improve productivity.
前述した先行技術を用いると技能者の育成を支援できるが、特開2012-198644号公報に記載の作業支援装置では、作業者の手本動画になるより良い動画を判定して更新する。また、特開2011-134224号公報に記載の組立作業支援システムでは、作業者の手本動画になるより良い動画を判定して更新する。また、特開2017-71033号公報に記載の作業用基準物体の製造方法では、ロボットアーム先端のマーカーを固定カメラで座標取得し位置ずれ判定するが、固定カメラとロボットアームにカメラを配置する。このようにいずれの先行技術でも、微細な加工の熟練手技の早期育成について考慮されていない。 Although the above-mentioned prior art can support the training of skilled workers, the work support device described in Japanese Patent Application Laid-open No. 2012-198644 determines a better video to serve as a model video for the worker and updates it. Furthermore, in the assembly work support system described in Japanese Patent Application Laid-open No. 2011-134224, a better model video for the worker is determined and updated. Furthermore, in the method for manufacturing a work reference object described in Japanese Patent Application Laid-open No. 2017-71033, coordinates of a marker at the tip of a robot arm are acquired using a fixed camera to determine positional deviation, but cameras are placed on the fixed camera and the robot arm. As described above, none of the prior art techniques takes into consideration the early development of skilled techniques for fine processing.
本願発明では、作業者を従来よりも早期に育成し、作業品質の平準化を図る作業観察システムの提供を目的とする。 The present invention aims to provide a work observation system that trains workers more quickly than before and levels out work quality.
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、作業者が工具を用いて作業領域で作業する状態を撮像する作業観察システムであって、第1の方向から前記作業領域を撮像して、第1の画像を取得する第1の撮像装置と、第2の方向から前記作業領域を撮像して、第2の画像を取得する第2の撮像装置と、前記第1の画像及び前記第2の画像を用いて、作業を解析する解析装置とを備え、前記解析装置は、少なくとも前記第2の画像に映る前記工具の位置及び姿勢の特徴量を計算し、前記作業における前記工具の位置及び姿勢の特徴量を出力することを特徴とする。 A typical example of the invention disclosed in this application is as follows. That is, it is a work observation system that images a state in which a worker works in a work area using a tool, and includes a first imaging device that images the work area from a first direction to obtain a first image. a second imaging device that images the work area from a second direction to obtain a second image; and an analysis device that analyzes the work using the first image and the second image. The analysis device is characterized in that the analysis device calculates at least feature quantities of the position and orientation of the tool reflected in the second image, and outputs the feature quantities of the position and orientation of the tool in the work. .
本発明の一態様によれば、作業品質を向上できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。 According to one aspect of the present invention, work quality can be improved. Problems, configurations, and effects other than those described above will be made clear by the description of the following examples.
以下、本発明の実施例を図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は本発明の実施例の作業観察システムの構成を示す図であり、図2は作業観察システムの各機器の配置を示す図である。 FIG. 1 is a diagram showing the configuration of a work observation system according to an embodiment of the present invention, and FIG. 2 is a diagram showing the arrangement of each device in the work observation system.
まず、本実施例の作業観察システムの概要を説明する。ステレオ画像を撮影する側方カメラ22、23を作業者の手元に設置し、作業者が持つ工具5に取り付けた二つの微小な第2のマーカ52A、52Bを2台の側方カメラ22、23に同時に映るように撮影する。顕微鏡カメラ20は、作業者が使用する顕微鏡2の鏡筒に取り付けており、作業者が作業中に視認する画像、すなわち複数のマーカ33A~33Dを取り付けられたワーク3を撮影する。
First, an overview of the work observation system of this embodiment will be explained.
作業前のキャリブレーションで、顕微鏡カメラ20と側方カメラ22、23で撮影した映像間の幾何的な関係を取得する。側方カメラ22、23で工具5のマーカ52A、52Bの三次元位置を計測して、工具5の先端部51の位置を計算する。そして、計算された先端位置を顕微鏡カメラ20の座標に変換する(S115)。さらに、顕微鏡カメラ20でワーク3のマーカ33A~33Dを計測して、ワーク3に対する工具5の細かな動きを取得する。
In pre-work calibration, the geometric relationship between the images taken by the
次に、本実施例の作業観察システムの詳細を説明する。本実施例の作業観察システムは、作業領域1を撮影する顕微鏡カメラ20と、作業領域1を撮影する側方カメラ22、23と、複数のカメラ20、22、23に同期信号を供給する信号発生器24と、作業解析を実行する解析装置10と、解析装置10に接続されたディスプレイ装置27及びスピーカ28によって構成される。
Next, details of the work observation system of this embodiment will be explained. The work observation system of this embodiment includes a
顕微鏡カメラ20は、作業領域1を拡大して撮影し、撮影した画像を解析装置10に送信する。顕微鏡カメラ20が搭載される顕微鏡2は、作業者が作業領域1を見るための接眼レンズ21を有する。これによって、顕微鏡カメラ20は、作業者が見る画像と同じ画像を撮影できる。
The
作業領域1には、加工対象であるワーク3が置かれる治具4が設置されている。作業者は、工具5を使用してワーク3を加工する。顕微鏡2は、顕微鏡支柱6を介して、作業台上に置かれた治具4と連結されている。
In the
ワーク3の一例は、図3に示すように、四角形の外形の本体部31に円形部32が取り付けられている。円形の電子部品である円形部32は、本体部31に電気的に接続が必要な部品である。円形部32に電極部300aが、本体部31に電極部300bがそれぞれ設けられている。電極部300bには配線部300cが接続されており、図3では配線部300cの接続先の図示を省略している。 In an example of the workpiece 3, as shown in FIG. 3, a circular portion 32 is attached to a main body portion 31 having a rectangular outer shape. The circular portion 32, which is a circular electronic component, is a component that needs to be electrically connected to the main body portion 31. The circular portion 32 is provided with an electrode portion 300a, and the main body portion 31 is provided with an electrode portion 300b. A wiring section 300c is connected to the electrode section 300b, and the connection destination of the wiring section 300c is not shown in FIG. 3.
電極部300aと電極部300bは対応する形状であり、一般にリフロー後の半田が接続しやすいよう電極部300aより電極部300bの方が大きい。電極部300a、300bは、図示した以外の形状でもよい。また、電極部300aは円形部32の上面だけでなく側面部に伸びるように配置すると、より電極部300aと電極部300bとの接続が強固となる。なお、図8以降では、円形部32や本体部31に設けられる電極部300a、300b、300cの図示を省略する。 The electrode part 300a and the electrode part 300b have corresponding shapes, and the electrode part 300b is generally larger than the electrode part 300a so that the solder after reflow can easily connect the electrode part 300a and the electrode part 300b. The electrode parts 300a and 300b may have shapes other than those shown. Further, if the electrode portion 300a is arranged so as to extend not only to the top surface of the circular portion 32 but also to the side surface thereof, the connection between the electrode portion 300a and the electrode portion 300b becomes stronger. Note that from FIG. 8 onward, illustrations of the electrode portions 300a, 300b, and 300c provided on the circular portion 32 and the main body portion 31 are omitted.
まず、作業者は、電極部300bにはんだペーストを塗布する。その後、作業者は、本体部31上に電極部300aと電極部300bの位置を仮決めし、円形部32を配置する。次に、作業者は、工具5を用いてはんだペーストを適切な厚みや塗布量となるように整形する。塗布され工具5によって整形されたはんだペーストのリフローを行うと、はんだペーストの量や厚みによって、電子部品である円形部32の移動や傾きが生じるため、適切な量のはんだペーストとする必要がある。
First, the operator applies solder paste to the electrode portion 300b. After that, the operator temporarily determines the positions of the electrode part 300a and the electrode part 300b on the main body part 31, and arranges the circular part 32. Next, the operator shapes the solder paste using the
また、電子部品である円形部32や電極部300aの形状や厚みにばらつきが生じるため、円形部32や電極部300aや電極部300bの形状や厚みのばらつきを考慮して、作業者は工具5を用いてはんだペーストを伸ばしたり整形する。工具5の先端部51は細く形成された形状以外にもゴムや樹脂製のスキージ等であって先端が平らで変形するような部材でもよい。代表して円形部32を電子部品として説明したが、円形部32は他の形状であっても、複数の電極部300aを有してもよい。また、円形部32は複数の電子部品を有する基板でもよい。
In addition, since there are variations in the shape and thickness of the circular part 32 and the electrode part 300a, which are electronic components, the operator should 5 Use to stretch and shape the solder paste. The
他の例として、はんだペーストとリフロー工程を設けず、電極部300aと電極部300bを直接はんだ付けを行ってもよい。この場合は、一組の電極部300aと電極部300bをはんだ付けにより位置を仮決めし、他の電極部300aと300bとの組をはんだ付けすることで位置合わせができる。 As another example, the electrode part 300a and the electrode part 300b may be directly soldered without providing a solder paste and a reflow process. In this case, the positions of one set of electrode parts 300a and 300b can be temporarily determined by soldering, and the other set of electrode parts 300a and 300b can be aligned by soldering.
次に、マーカの認識方法について説明する。円形部32には複数のマーカ33A~33Dが設けられている。マーカ33A~33Dは、作業領域1においてカメラで認識しやすい色や形(例えば所定色の正方形)とするとよい。例えば、作業領域1の背景と異なる色にすることによって、作業領域1におけるマーカ33A~33Dのカメラによる視認性を向上できる。図示したワーク3には四つのマーカ33A~33Dが設けられるが、少なくとも二つのマーカを設ければ、本体部31や円形部32の位置ずれや回転を測定できる。また、各マーカ33A~33Dは、区別可能な態様(例えば、色及び/又は形状が異なる)とすることによって、本体部31や円形部32の位置ずれや回転を測定できる。また、電極部300aや電極部300bをマーカとして利用してもよい。
Next, a method for recognizing markers will be explained. The circular portion 32 is provided with a plurality of markers 33A to 33D. It is preferable that the markers 33A to 33D have a color or shape (for example, a square of a predetermined color) that is easy to recognize with a camera in the
また、他の例として、円形部32と本体部31が樹脂で形成されており、図示しない円形部32に凸部と、円形部32の凸部に対応する凹部を本体部31に設け、これらの凹凸部を嵌め合わせる構造である場合について説明する。 As another example, the circular part 32 and the main body part 31 are formed of resin, and the main body part 31 is provided with a convex part (not shown) in the circular part 32 and a concave part corresponding to the convex part of the circular part 32. A case will be explained in which the structure is such that the concavo-convex portions are fitted together.
凹凸部は、円形部32と本体部31の樹脂部材が射出成形や積層造形等によって製造された場合に、凹凸部のバリや熱収縮によって、微細な凹凸部が嵌め合わせられない場合がある。このような場合に、工具5としてけがき針、エンドミル、刃物等を用いて、円形部32と本体部31の凹凸部を切削又は変形させることによって嵌め合わせできるように微細な加工を行う。
When the resin members of the circular portion 32 and the main body portion 31 are manufactured by injection molding, layered manufacturing, etc., the fine uneven portions may not fit together due to burrs or heat shrinkage of the uneven portions. In such a case, a scribing needle, an end mill, a cutter, or the like is used as the
工具5は、図4に示すように、先端部51が取り付けられた柄53によって構成されている。先端部51には、複数のマーカ52A、52Bが取り付けられている。マーカ52A、52Bは、作業領域1においてカメラで認識しやすい色や形(例えば白色の球形)となっている。マーカ52A、52B及び先端部51の先端は、後述するキャリブレーション処理において認識され、それらの位置関係が測定される。マーカ52A、52Bの取付位置が工具5よって異なっても、これらの位置関係が測定されることによって、マーカ52A、52Bの距離、及びマーカ52Aと先端部51の先端との距離を知ることができる。そして、キャリブレーション処理における測定結果を用いて、作業中に測定されるマーカ52A、52Bの位置から先端部51の先端位置や、先端部51の傾きを計算できる。
As shown in FIG. 4, the
側方カメラ22、23は、顕微鏡カメラ20と異なる方向から作業領域1、すなわち作業者の手元でマーカ52A、52Bを撮影する。側方カメラ22と側方カメラ23は、異なる方向から作業領域1を撮影してステレオ画像を撮影するステレオカメラを構成している。すなわち、側方カメラ22、23がマーカ52A、52Bを撮影することによって、マーカ52A、52Bの距離情報を含む三次元画像が得られる。側方カメラ22、23は、一体に構成し、画像情報と距離情報を含む距離画像を出力するように構成してもよい。
The
側方カメラ22、23は、作業領域1から等距離に設置するとよい。例えば、側方カメラ22、23は、水平方向に自由に移動できるようにフレームに配置したり、作業領域1を中心とした円弧状のレール上を移動できるように配置する。また、側方カメラ22は、垂直方向の位置を変えられるように(例えば、エレベータ付き雲台上に)設置されるとよい。さらに側方カメラ22は、上下及び左右に首を振ることができる雲台上に設置して、撮影方向を変えられるようにしてもよい。雲台は、単に台座や三脚等でもよい。
The
信号発生器24は、複数のカメラ20、22、23に同期信号を供給する。複数のカメラ20、22、23に信号発生器24から出力された同期信号をトリガとして動画像の撮影を開始する。また、信号発生器24は、複数のカメラ20、22、23に共通の時刻を提供して、各カメラ20、22、23が同期した時刻で動画像を撮影してもよい。さらに、信号発生器24を設けずに、1台のカメラが他のカメラに同期信号を供給してもよい。この場合の同期信号は、動画像撮影開始トリガでも、共通の時刻でもよい。必ずしも各カメラの同期は必要ではないが、各カメラを同期することによって、作業者や先端部51の動作をより高い精度で検出できる。
The
各カメラ20、22、23と解析装置10との間は、ネットワークで接続されるとよいが、専用のケーブルで接続されてもよい。また、信号発生器24と各カメラ20、22、23との間は、信号伝送の遅延が生じないように専用のケーブルで接続されるとよいが、遅延の影響がないプロトコルを用いれば、ネットワークで接続されてもよい。
Each
解析装置10は、図5に示すように、プロセッサ(CPU)11、メモリ12、補助記憶装置13、通信インターフェース14、入力インターフェース15及び出力インターフェース18を有する計算機によって構成される。
As shown in FIG. 5, the
プロセッサ11は、メモリ12に格納されたプログラムを実行する。具体的には、プロセッサ11がプログラムを実行することによって、後述する画像取得部41と、キャリブレーション部42と、工具位置推定部43と、逸脱判定部44と、出力部45とが実現される。なお、プロセッサ11がプログラムを実行して行う処理の一部を、他の形式の(例えばハードウェアによる)演算装置(例えば、FPGA(Field Programable Gate Array)やASIC(Application Specific Integrated Circuit)、CPLD(Complex Programmable Logic Device)等)で実行してもよい。
メモリ12は、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、プログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサ11が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
The
補助記憶装置13は、例えば、磁気記憶装置(HDD:Hard Disk Drive)、フラッシュメモリ(SSD:Solid State Drive)等の大容量かつ不揮発性の記憶装置であり、プロセッサ11が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。すなわち、プログラムは、補助記憶装置13から読み出されて、メモリ12にロードされて、プロセッサ11によって実行される。補助記憶装置13は、解析装置10の内部に設けられても、解析装置10と別体に設けられたストレージ装置でもよい。
The
通信インターフェース14は、所定のプロトコルに従って、他の装置(顕微鏡カメラ20、側方カメラ22、23など)との通信を制御するネットワークインターフェース装置である。
The
入力インターフェース15は、キーボード16やマウス17などが接続され、オペレータからの入力を受けるインターフェースである。出力インターフェース18は、ディスプレイ装置27やスピーカ28などが接続され、プログラムの実行結果をオペレータが視認可能な形式で出力するインターフェースである。入力インターフェース15と出力インターフェース18は、タッチパネルによる入力手段と液晶等による画面表示が可能な出力手段が一体となるタブレット端末でもよい。
The
プロセッサ11が実行するプログラムは、リムーバブルメディア(CD-ROM、フラッシュメモリなど)又はネットワークを介して解析装置10に提供され、非一時的記憶媒体である不揮発性の補助記憶装置13に格納される。このため、解析装置10は、リムーバブルメディアからデータを読み込むインターフェースを有するとよい。
The program executed by the
解析装置10は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、同一の計算機上で別個のスレッドで動作してもよく、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。た、解析装置10の各機能部は異なる計算機上で実現されてもよい。
The
図6は、解析装置10の論理的な構成を示す図である。
FIG. 6 is a diagram showing the logical configuration of the
解析装置10は、機能ブロックとして、画像取得部41、キャリブレーション部42、工具位置推定部43、逸脱判定部44及び出力部45を有する。また、解析装置10は、画像データ46、カメラパラメータ47、標準作業モデル(閾値)48及び工具位置データ49を補助記憶装置13に格納する。
The
画像取得部41は、カメラ20、22、23が撮影した動画像を画像データ46に格納する。また、画像取得部41は、カメラ20、22、23が撮影したキャリブレーション用静止画像をキャリブレーション部42に送る。また、画像取得部41は、カメラ20、22、23が撮影した作業中の動画像を工具位置推定部43に送る。
The
キャリブレーション部42は、カメラ20、22、23が撮影したキャリブレーション用静止画像を用いてキャリブレーション処理を実行して、キャリブレーション結果をカメラパラメータ47に記録する(図7、図8、図9参照)。
The
工具位置推定部43は、カメラ20、22、23が撮影した作業中の動画像から工具5の位置及び姿勢の特徴量を推定し、逸脱判定部44に送り、工具位置データ49に記録する。工具位置推定部43が推定する位置及び姿勢の特徴量は例えば下記のものがある。
・ワーク3の原点位置から先端部51の先端位置までの距離r
・ワーク3の基準方向から先端部51の先端位置の偏角θ
・画像内の基準方向から先端部51の先端位置の偏角φ
・工具5の傾き(先端部51とワーク3の表面(水平面)との角度)
・作業開始から作業終了までの作業時間
・先端部51が円形部32の外周を移動する角速度
・1工程の作業において、先端部51がワーク3に接触した回数
・1工程の作業において、先端部51がワーク3に最初に接触した位置
・1工程の作業において、先端部51がワーク3から離れた位置
・1工程の作業において、先端部51がワーク3に接触してから離れるまでの時間
The tool
・Distance r from the origin position of the workpiece 3 to the tip position of the
・Declination angle θ of the tip position of the
・Declination angle φ of the tip position of the
- Inclination of the tool 5 (angle between the
・Working time from the start of the work to the end of the work ・The angular velocity at which the
逸脱判定部44は、工具位置推定部43が推定した作業中の工具5の位置を監視し、標準作業モデル48として定められた閾値と比較し、異常と判定された場合に出力部45に通知する。
The
出力部45は、逸脱判定部44によって工具5の位置が異常と判定された場合、作業者に対してアラームを出力する。本実施例の作業観察システムでは、作業中の作業者は接眼レンズ21から目を離さないので、音や接眼レンズ21を通して視認可能な画像を出力して作業者に警告するとよい。また、出力部45は、画像データ46に蓄積された作業中の動画像データや、工具位置データ49に記録された工具5の位置の推定結果を出力する(図13参照)。
The
画像データ46は、カメラ20、22、23が撮影し、画像取得部41が取得した作業中の動画像である。カメラパラメータ47は、キャリブレーション部42によるキャリブレーション処理の結果である。標準作業モデル48は、標準作業として定められた工具5の位置及び姿勢のデータであり、逸脱を判定するための閾値が記録される。また、標準作業モデル48には、熟練者の作業で記録された工具5の位置データを記録してもよい。工具位置データ49は、工具位置推定部43による工具5の位置の推定結果の時系列データである。
The
次に、キャリブレーション処理について説明する。図7はキャリブレーション部42が実行するキャリブレーション処理のフローチャートであり、図8、図9はキャリブレーション画面の例を示す図である。
Next, the calibration process will be explained. FIG. 7 is a flowchart of the calibration process executed by the
キャリブレーション処理が起動されると、まず、水平に置かれた工具5を撮影し、工具5に取り付けられたマーカ52A、52Bと先端部51の先端を認識し、マーカ52A、52Bの位置と先端部51の先端位置を計測し、マーカ52A、52Bの距離、及びマーカ52Aと先端部51の先端との距離を計算する(S101)。計算されたこれらの距離を用いると、作業中に測定されるマーカ52A、52Bの位置から工具5の先端の位置を計算できる。なお、マーカ52A、52Bの位置が既知の場合、ステップS101のキャリブレーション処理は省略できる。また、顕微鏡カメラ20のように、光軸が鉛直方向と一致するカメラでは、工具5を水平に設置して撮影するとよい。このように設置することで、レンズの歪みによる要因を除けば、画像上で計測した距離の比率と、実際の三次元世界における距離の比率とが一致するため、キャリブレーションが容易になる。顕微鏡カメラ20のようにレンズの歪みが少なく、かつ倍率が高いカメラを用いることによって、より正確なキャリブレーションができる。
When the calibration process is started, first, the
次に、側方カメラ22、23の内部パラメータ(例えば、側方カメラ22、23の焦点距離)及び外部パラメータ(側方カメラ22、23の位置関係)を推定する(S102)。例えば、二つの側方カメラ22、23で3点の相対位置が決まっている図形(例えば市松模様のテストパターン)を撮影し、当該3点の画像内の位置関係から、側方カメラ22、23が撮影する画像内の点の位置関係を取得する。キャリブレーション用の点は最低3点が必要だが、4点以上を用いると精度を向上できる。なお、側方カメラ22、23の位置関係や撮影パラメータ(ズーム倍率)が不変なステレオカメラである場合、ステップS102のキャリブレーションは不要である。
Next, internal parameters (for example, focal lengths of the
次に、顕微鏡カメラ20の内部パラメータ(例えば、焦点距離)及び外部パラメータ(顕微鏡カメラ20と側方カメラ22、23の相対位置関係)を推定する(S103)。例えば、キャリブレーション部42は、各カメラ20、22、23が所定のキャリブレーション用治具を撮影した画像から、大きさが既知の物体(キャリブレーション球)を認識する。図8に示すキャリブレーション画面には、右側に顕微鏡カメラ20の画像、左側に側方カメラ22、23の画像が表示される。「キャリブレーション開始」ボタンを操作すると、ステップS103のキャリブレーション処理を開始し、画面に撮影指示が表示される。作業者が「撮影」ボタンを操作するとフレーム画像がキャプチャーされ、これを繰り返して複数枚(例えば15枚)の静止画像を撮影する。
Next, internal parameters (for example, focal length) and external parameters (relative positional relationship between the
顕微鏡カメラ20と治具4の距離は既知なので、顕微鏡カメラ20が撮影した画像中の認識結果(キャリブレーション球の大きさ)によって、顕微鏡カメラ20のズーム倍率を計算できる。また、側方カメラ22、23のズーム倍率が計算されているので、側方カメラ22、23が撮影した画像中の認識結果(キャリブレーション球の大きさ)によって、側方カメラ22、23と治具4の距離を計算できる。これによって、顕微鏡カメラ20と側方カメラ22、23との位置関係が分かる。同時に撮影された三つの画像において、キャリブレーション球が認識され、各画像内の位置関係が計算される。また、複数枚の静止画像から認識されたキャリブレーション球の大きさを平均化すると、計算される位置関係の精度を向上できる。
Since the distance between the
なお、ステップS103で、キャリブレーション球の大きさが未知であっても、別の大きさや認識ターゲット間の距離が既知の物体(例えば、所定の大きさの図形が描かれたテストパターン)を使用して各カメラ20、22、23のズーム倍率を推定すればよい。この場合、テストパターンによって各カメラ20、22、23のズーム倍率が分かり、キャリブレーション球によって各カメラ20、22、23の位置関係が分かる。
Note that in step S103, even if the size of the calibration sphere is unknown, another object of known size and distance between the recognition targets (for example, a test pattern on which a figure of a predetermined size is drawn) is used. The zoom magnification of each
次に、ワーク3の上面の位置及び傾きを計測する(S104)。例えば、先端部51の先端がワーク3に接した状態に工具5を置き、顕微鏡カメラ20及び側方カメラ22、23で作業領域1を撮影する。図9に示すキャリブレーション画面には、顕微鏡カメラ20の画像が表示される。「キャリブレーション開始」ボタンを操作すると、ステップS104のキャリブレーション処理を開始し、画面に撮影指示が表示される。作業者が「撮影」ボタンを操作すると側方カメラ22、23が撮影したフレーム画像がキャプチャーされ、これを繰り返して複数枚(例えば3枚)の静止画像を撮影する。撮影された画像において、マーカ52A、52Bが認識される。マーカ52A、52Bの間隔とマーカ52Aと先端部51の先端の距離は、ステップS101のキャリブレーションで計算されていることから、側方カメラ22、23が撮影した画像からワーク3の上面の垂直方向の位置を計算できる。また、複数枚の静止画像から認識されたキャリブレーション球の大きさを平均化すると、計算される位置関係の精度を向上できる。
Next, the position and inclination of the upper surface of the workpiece 3 are measured (S104). For example, the
全てのキャリブレーションの終了後、計測待機状態になる。 After all calibrations are completed, the device enters the measurement standby state.
図10は、解析装置10が実行する計測処理のフローチャートである。
FIG. 10 is a flowchart of the measurement process executed by the
まず、計測待機状態から計測処理が起動されると、画像取得部41は、図11に示す画面を表示し、「計測開始/停止」ボタンの操作によって、撮影開始のカウントダウンを開始する。そして、画像取得部41は、カウント0になったタイミングで、各カメラ20、22、23が同期して動画像の撮影を開始するような、撮影開始指示を信号発生器24に送る(S101)。信号発生器24は、解析装置10の撮影開始カウンタが0になるタイミングで、撮影開始トリガを顕微鏡カメラ20及び側方カメラ22、23に送る、顕微鏡カメラ20及び側方カメラ22、23は、撮影開始トリガを受信すると、同期して動画像の撮影を開始する。
First, when the measurement process is started from the measurement standby state, the
図11に示す画面は、左上部にステータス表示として計測開始までの時間を表示し、画面左側に顕微鏡カメラ20が撮影した画像が表示される領域と、画面右側に工具5(先端部51の先端)の動きを解析した位置データの経時変化が表示される領域を有する。
The screen shown in FIG. 11 displays the time until the start of measurement as a status display in the upper left, an area where the image taken by the
また、画面上部には、画面に表示する作業員名を選択するための「作業員名」ボタンと、作業者が行った作業を選択するための「作業選択」ボタンと、計測を開始又は停止するための「計測開始/停止」ボタンが設けられる。また、画面下部には、前の画面に戻るための「戻る」ボタンと、過去に記録された動画像を再生するための「再生」ボタンと、表示中の作業記録を解析するための「解析」ボタンと、作業中の計測値が所定の閾値から逸脱したことを示す警告を発報するかを切り替えるための「逸脱アラート」スイッチ(チェックボックス)と、解析された位置データに閾値を重畳して表示するかを切り替えるための「しきい値」スイッチ(チェックボックス)が設けられる。 In addition, at the top of the screen, there is a "worker name" button to select the worker name to be displayed on the screen, a "work selection" button to select the work performed by the worker, and a button to start or stop measurement. A "measurement start/stop" button is provided to do so. In addition, at the bottom of the screen, there is a "Back" button to return to the previous screen, a "Play" button to play back previously recorded video images, and an "Analysis" button to analyze the currently displayed work record. ” button, the “Deviation Alert” switch (checkbox) to switch whether to issue a warning indicating that the measured value during work deviates from the predetermined threshold, and the “Deviation Alert” switch (checkbox) to switch whether to issue a warning indicating that the measured value during work deviates from the predetermined threshold. A “threshold” switch (check box) is provided for switching whether to display the threshold value or not.
図10に戻ってフローチャートの説明を続ける。次に、画像取得部41は、各カメラ20、22、23から動画像を取得し、画像データ46に格納する(S102)。
Returning to FIG. 10, the explanation of the flowchart will be continued. Next, the
次に、工具位置推定部43は、側方カメラ22、23が撮影した画像からマーカ52A、52Bの位置を認識する。そして、キャリブレーション処理のS101で計算されたマーカ52A、52Bの距離、及びマーカ52Aと先端部51の先端との距離を用いて、認識されたマーカ52A、52Bの位置から、先端部51の先端位置を計算して、工具位置データ49に記録する(S113)。
Next, the tool
次に、工具位置推定部43は、側方カメラ22、23が撮影した画像から認識されたマーカ52A、52Bの位置と、キャリブレーション処理のS104で計算されたワーク3の上面の傾きから、ワーク3の上面に対する先端部51の角度αを計算して、工具位置データ49に記録する(S114)。
Next, the tool
次に、工具位置推定部43は、顕微鏡カメラ20が撮影した画像の座標における先端部51の先端位置を推定して、工具位置データ49に記録する(S115)。例えば、顕微鏡カメラ20が撮影した画像における顕微鏡座標系は、当該画像における1点を原点として画像中の所定の方向を0度とする極座標や、当該画像における1点を原点として画像の特定の辺をX軸又はY軸とする直交座標であるが、工具5の動きを的確に解析できるように、ワーク3によって変えるとよい。図3に示すワーク3では、ワーク3の上面を含む平面において、円形部32の中心を極(原点)として、顕微鏡カメラ20が撮影した画像の一つの辺の方向を0度とした極座標を用いて、原点からの距離r、基準軸からの偏角φを計算するとよい。
Next, the tool
次に、工具位置推定部43は、顕微鏡カメラ20が撮影したワーク3のマーカ33A~33Dの位置からワーク座標の原点及び基準方向を計算し、顕微鏡カメラ画像の座標との変換パラメータを計算し、計算された変換パラメータと線形変換や射影変換などの数学的手法を用いて、ワーク座標系のステップS115で計算された先端部51の先端位置を計算して、工具位置データ49に記録する(S116)。例えば、顕微鏡カメラ20が撮影した画像の顕微鏡座標は、ワーク3における1点を原点として画像中の所定の方向を0度とする極座標や、ワーク3における1点を原点としてワーク3の特定の辺をX軸又はY軸とする直交座標であるが、工具5の動きを的確に解析できるように、ワーク3によって変えるとよい。図3に示すワーク3では、ワーク3の上面を含む平面において、円形部32の中心を極(原点)として、円形部32のマーカ33A~33Dのいずれか一つの位置を0度とした極座標を用いて、偏角θを推定するとよい。なお、ステップS115で使用される極座標と、ステップS116で使用される極座標は、半径rは同じであるが、円形部32の回転によってθの基準方向とφの基準方向が異なるため、基準方向の差だけθとφが異なる。
Next, the tool
これらの工具位置推定部43による解析は動画像の毎フレームで行ってもよいが、逸脱アラームの発報に遅延が生じない程度で、数フレーム毎に行ってもよい。
The analysis by the tool
次に、逸脱判定部33は、ステップS111~S114で推定された工具5の位置を標準作業モデル48として定められた閾値と比較し、正常値の範囲を逸脱した場合に逸脱アラームを発報するよう出力部45に通知する(S117)。
Next, the deviation determination unit 33 compares the position of the
次に、出力部45は、蓄積された画像データ46及び記録された工具位置データ49を読み出して、動画像及び時系列チャートを表示するための表示データを出力する(S118)。例えば、出力部45は、図12に示すように、画面左側上部にステータス表示として「計測中」及び撮影開始からの経過時間を、画面左側に顕微鏡カメラ20が撮影した画像を、画面右側に工具5(先端部51の先端)の動きを解析した位置データの経時変化を表示する。図12に示す画面の他の要素は図11に示す画面と同じである。
Next, the
図13から図15は、出力部45が出力する解析結果表示画面の例を示す図である。図13に示す解析結果表示画面は計測された作業者の動作と、事前に計測された熟練者の教師データとを比較可能に表示し、図14に示す解析結果表示画面は熟練者及び作業者の動作を解析した時系列チャートを比較可能に表示する。
13 to 15 are diagrams showing examples of analysis result display screens output by the
画面上部には、作業者が行った作業を選択するための「作業選択」ボタンと、画面に表示する作業員名を選択するための「作業員選択」ボタンと、画面で再生する教師データの動画像ファイル又は解析結果の時系列チャートを選択するための「教師データ選択」ボタンと、再生する作業者の動画像ファイル又は時系列チャートを選択するための「動画選択」ボタンが設けられる。 At the top of the screen, there is a "work selection" button for selecting the work done by the worker, a "worker selection" button for selecting the worker name to be displayed on the screen, and a button for selecting the teacher data to be played on the screen. A ``select teacher data'' button for selecting a moving image file or a time-series chart of analysis results, and a ``select moving image'' button for selecting a moving image file or a time-series chart of an operator to be reproduced are provided.
画面中央には、動画像を表示するか(図13)、時系列チャートを表示するか(図14)を切り替えるための「動画/チャート」ボタンと、当該「動画/チャート」ボタンの左側に教師データを表示する教師データ表示領域と、当該「動画/チャート」ボタンの右側に当該作業者のデータを表示する作業者データ表示領域が設けられる。 In the center of the screen, there is a "Video/Chart" button to switch between displaying a video image (Figure 13) or a time series chart (Figure 14), and a teacher button to the left of the "Video/Chart" button. A teacher data display area for displaying data and a worker data display area for displaying data of the worker are provided on the right side of the "video/chart" button.
また、画面下部には、動画像の再生を制御するための再生ボタンと、動画像の生成位置を指定するためのタイムスライダと、再生方法選択ラジオボタンが設けられる。また、制御領域の下部には、前の画面に戻るための「戻る」ボタンと、作業者の動作の評価結果を表示する(図15参照)ための「評価」ボタンが設けられる。 Further, at the bottom of the screen, there are provided a playback button for controlling playback of the moving image, a time slider for specifying the generation position of the moving image, and a playback method selection radio button. Further, at the bottom of the control area, there are provided a "return" button for returning to the previous screen and an "evaluation" button for displaying the evaluation results of the operator's actions (see FIG. 15).
熟練者の動画像はディスプレイ装置27に表示するだけでなく、作業中の作業者が視認できるようにしてもよい。例えば、ワーク3にプロジェクションマッピングによって熟練者の動画像を投影して、作業者に見せてもよい。また、顕微鏡2の接眼レンズ21から対物レンズまでの光路にプリズムを配置して、小型ディスプレイ装置の画像を接眼レンズ21に導いてもよく、熟練者の動画像が接眼レンズ21から視認できるようにしてもよい。さらに、デジタル顕微鏡を使用する場合は、接眼レンズ21から視認される画像に熟練者の動画像を重畳して、作業者が視認できるようにしてもよい。
The moving image of the expert may not only be displayed on the
図13、図14に示す解析結果表示画面では、熟練者及び作業者の動画像や動作を解析した時系列チャートを並べて表示することによって、作業者と熟練者の作業の違いを分かりやすく表示でき、学習効果を向上できる。 On the analysis result display screens shown in Figures 13 and 14, by displaying video images and time-series charts that analyze the movements of skilled workers and workers side by side, it is possible to clearly display the differences between the tasks of workers and experts. , can improve the learning effect.
図15に示す解析結果表示画面は、作業者の動作の解析結果をスコア化した評価結果をレーダーチャートで表示する。 The analysis result display screen shown in FIG. 15 displays the evaluation results obtained by scoring the analysis results of the worker's movements in the form of a radar chart.
画面上部には、作業者が行った作業の動画ファイルを選択するための「作業1動画選択」ボタン及び「作業2動画選択」ボタンと、画面に表示する作業員名を選択するための「作業員選択」ボタンが設けられる。
At the top of the screen, there are buttons "
画面中央には、選択された作業を解析した時系列チャートを表示するデータ表示領域と、スコア化した作業員の動作を表示するレーダーチャート表示領域が設けられる。 At the center of the screen, there are provided a data display area that displays a time-series chart that analyzes the selected work, and a radar chart display area that displays the worker's scored actions.
また、画面下部には、前の画面に戻るための「戻る」ボタンが設けられる。 Additionally, a "back" button is provided at the bottom of the screen to return to the previous screen.
図15に示す解析結果表示画面によって、熟練者と比較した作業者の習熟度を分かりやすく表示でき、学習効果を向上できる。 The analysis result display screen shown in FIG. 15 allows the worker's proficiency level compared to that of an expert to be displayed in an easy-to-understand manner, and the learning effect can be improved.
次に、前述した実施例の作業観察システムを適用した教育支援システムについて説明する。本実施例の教育支援システムは、前述した作業観察システムに記憶された作業データと熟練者の動作を比較・分析して、作業者と熟練者の作業の違いを分かりやすく表示でき、高い教育効果を得られる。また、作業者の動作の解析結果をスコア化した評価結果を表示して、作業者の動作の優劣を分かりやすく表示でき、高い教育効果を得られる。 Next, an educational support system to which the work observation system of the above-described embodiment is applied will be described. The educational support system of this embodiment compares and analyzes the work data stored in the work observation system described above and the movements of the expert, and can clearly display the differences between the work of the worker and the expert, resulting in a high educational effect. You can get In addition, the evaluation results obtained by converting the analysis results of the worker's movements into scores are displayed, so that the superiority or inferiority of the worker's movements can be clearly displayed, and a high educational effect can be obtained.
以上に説明したように、本実施例の作業観察システムは、第1の方向から作業領域1を撮像して、第1の画像を取得する第1の撮像装置(顕微鏡カメラ20)と、第2の方向から作業領域1を撮像して、距離情報を含む第2の画像を取得する第2の撮像装置(側方カメラ22、23)と、第1の画像及び第2の画像を用いて、作業を解析する解析装置10とを備え、解析装置10は、少なくとも第2の画像に映る工具5の位置及び姿勢の特徴量を計算し、作業における工具5の位置及び姿勢の特徴量を出力するので、作業品質を向上できる。すなわち、従来は、手技の結果としての出来栄えを確認しながら試行錯誤を繰り返す定性的な指導により手技を習得させており、技能者の育成に数カ月要していた。そこで、作業者の動作をデジタル化して、一般作業者の手技と熟練作業者の手技とを比較して、作業者を早期に育成できる。
As described above, the work observation system of the present embodiment includes a first imaging device (microscope camera 20) that images the
また、顕微鏡カメラ20と側方カメラ22、23とは異なる倍率で作業領域1を撮影してもよく、顕微鏡カメラ20は側方カメラ22、23より高い倍率で作業領域1を撮影してもよい。例えば、顕微鏡カメラ20による拡大画像を用いる微細な手作業(微細な加工)を1ミリメートル以下の精度で三次元定位できる。微細な手作業又は微細な加工とは、作業者の加工中の動作、加工対象のワーク3、及び加工に用いる工具5を第三者が肉眼による観察が難しい作業である。つまり、肉眼による観察は、ワーク3によって工具5が隠れたり、工具5によってワーク3が隠れることによって、作業者の加工中の動作、ワーク3、工具5を肉眼では複数の視野で肉眼で観察することは難しい。ワーク3の加工領域や工具5が小さいため、ルーペ等によって倍率を上げることで肉眼で観察することが可能であるが、肉眼では他の視野で観察することは難しい。そのため、前述した異なる倍率のカメラによって三次元的に観察することが可能となる。
Furthermore, the
また、前記作業領域に配置される作業対象物(ワーク3)には、少なくとも二つの第1のマーカ33A~33Dが付されているので、ワーク3中に円形部32のような円形の部分があっても、円形部32の回転を検出できる。 Further, since at least two first markers 33A to 33D are attached to the work object (work 3) placed in the work area, a circular part such as the circular part 32 is included in the work 3. Even if there is, the rotation of the circular portion 32 can be detected.
また、第1の画像は、作業者が視認する画像と同じ方向から撮影されたものであるので、作業者視点の画像を用いることによって、作業内容を分かりやすく作業者に説明でき、教育効果を向上できる。 In addition, since the first image was taken from the same direction as the image viewed by the worker, by using the image from the worker's perspective, the work content can be explained to the worker in an easy-to-understand manner, increasing the educational effect. You can improve.
また、顕微鏡カメラ20と側方カメラ22、23とは、同期した時刻に基づいて、前記作業領域を撮影するので、時間的ズレがない画像を撮影でき、特徴量を正確に分析できる。
Further, since the
また、第1のマーカ33A~33Dの各々は、作業領域1の背景と異なり、かつ互いに異なる色に着色されているので、作業領域1におけるマーカ33A~33Dの視認性を向上でき、マーカ33A~33Dの視認性誤認識を低減できる。
Further, each of the first markers 33A to 33D is different from the background of the
また、工具5には、少なくとも二つの第2のマーカ52A、52Bが付されているので、マーカ52A、52Bの位置の計測によって、工具5の位置及び姿勢の特徴量を計算できる。
Furthermore, since at least two
また、第2のマーカ52A、52Bは、球形であり、第2のマーカ52A、52Bの各々は、工具5の先端から異なる位置に設けられるので、工具5の位置及び姿勢の特徴量を簡単に計算できる。
Further, the
また、解析装置10は、第2のマーカ52A、52Bの位置関係を用いて、工具5の位置及び姿勢を計算するので、工具5の位置及び姿勢の特徴量を簡単に計算できる。
Furthermore, since the
また、解析装置10は、工具5の位置及び姿勢の特徴量と予め記憶された標準的な位置及び姿勢の特徴量とを比較して、比較の結果を出力するので、作業者と熟練者の作業の違いを分かりやすく表示でき、学習効果を向上できる。
In addition, the
また、第2の画像に映る工具5の位置の特徴量は、顕微鏡カメラ20から工具5までの距離情報及び側方カメラ22から工具5までの距離情報及び側方カメラ23から工具5までの距離情報を含むので、各カメラが正確に設置されていなくても、キャリブレーションによって工具5の位置を正確に測定できる。
Moreover, the feature amount of the position of the
また、出力部45が、作業観察システムが、第1の作業者について計測した特徴量と、第2の作業者について計測した特徴量とに基づいて作成されたグラフを表示するためのデータを出力するので、作業者による差を分かりやすく表示でき、効果的な教育を実施できる。
In addition, the
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。 Note that the present invention is not limited to the embodiments described above, and includes various modifications and equivalent configurations within the scope of the appended claims. For example, the embodiments described above have been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Further, a part of the configuration of one embodiment may be replaced with the configuration of another embodiment. Further, the configuration of one embodiment may be added to the configuration of another embodiment. Further, other configurations may be added, deleted, or replaced with a part of the configuration of each embodiment.
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in part or in whole by hardware, for example by designing an integrated circuit, and a processor realizes each function. It may also be realized by software by interpreting and executing a program.
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、フラッシュメモリ、DVD等の記録媒体に格納することができる。 Information such as programs, tables, files, etc. that realize each function can be stored in a storage device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, a flash memory, or a DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。 Furthermore, the control lines and information lines shown are those considered necessary for explanation, and do not necessarily show all the control lines and information lines necessary for implementation. In reality, almost all configurations can be considered interconnected.
1 作業領域
2 顕微鏡
20 顕微鏡カメラ
21 接眼レンズ
3 ワーク
31 本体部
32 円形部
33 工具位置推定部
33A、33B、33C、33D マーカ
4 作業台
5 工具
51 先端部
52A、52B マーカ
53 柄
6 顕微鏡支柱
10 解析装置
11 プロセッサ
12 メモリ
13 補助記憶装置
14 通信インターフェース
15 入力インターフェース
16 キーボード
17 マウス
18 出力インターフェース
22、23 側方カメラ
24 信号発生器
27 ディスプレイ装置
28 スピーカ
41 画像取得部
42 キャリブレーション部
43 逸脱判定部
44 逸脱判定部
45 出力部
46 画像データ
47 カメラパラメータ
48 標準作業モデル
49 工具位置データ
1 Working area 2
Claims (16)
第1の方向から前記作業領域を撮像して、第1の画像を取得する第1の撮像装置と、
第2の方向から前記作業領域を撮像して、第2の画像を取得する第2の撮像装置と、
前記第1の画像及び前記第2の画像を用いて、作業を解析する解析装置とを備え、
前記解析装置は、
少なくとも前記第2の画像に映る前記工具の位置及び姿勢の特徴量を計算し、
前記作業における前記工具の位置及び姿勢の特徴量を出力することを特徴とする作業観察システム。 A work observation system that images a state in which a worker works in a work area using a tool,
a first imaging device that images the work area from a first direction to obtain a first image;
a second imaging device that images the work area from a second direction to obtain a second image;
an analysis device that analyzes the work using the first image and the second image,
The analysis device includes:
Calculating feature amounts of the position and orientation of the tool that appears in at least the second image,
A work observation system characterized by outputting feature amounts of the position and orientation of the tool in the work.
前記作業領域に配置される作業対象物には、少なくとも二つの第1のマーカが付されていることを特徴とする作業観察システム。 The work observation system according to claim 1,
A work observation system characterized in that at least two first markers are attached to the work object placed in the work area.
前記第1の画像は、作業者が視認する画像と同じ方向から撮影されたものであることを特徴とする作業観察システム。 The work observation system according to claim 1,
The work observation system is characterized in that the first image is taken from the same direction as the image visually recognized by the worker.
前記第1の撮像装置と前記第2の撮像装置とは異なる倍率で前記作業領域を撮影することを特徴とする作業観察システム。 The work observation system according to claim 1,
A work observation system characterized in that the first imaging device and the second imaging device photograph the work area at different magnifications.
前記第1の撮像装置は、前記第2の撮像装置より高い倍率で前記作業領域を撮影することを特徴とする作業観察システム。 The work observation system according to claim 4,
The work observation system is characterized in that the first imaging device photographs the work area at a higher magnification than the second imaging device.
前記第1の撮像装置と前記第2の撮像装置とは、同期した時刻に基づいて、前記作業領域を撮影することを特徴とする作業観察システム。 The work observation system according to claim 1,
The work observation system is characterized in that the first imaging device and the second imaging device photograph the work area based on synchronized times.
前記第1のマーカの各々は、前記作業領域の背景と異なり、かつ互いに異なる色に着色されていることを特徴とする作業観察システム。 The work observation system according to claim 2,
A work observation system characterized in that each of the first markers is colored in a color different from a background of the work area and mutually different.
前記工具には、少なくとも二つの第2のマーカが付されていることを特徴とする作業観察システム。 The work observation system according to claim 1,
A work observation system characterized in that at least two second markers are attached to the tool.
前記第2のマーカは、球形であり、
前記第2のマーカの各々は、前記工具の先端から異なる位置に設けられることを特徴とする作業観察システム。 The work observation system according to claim 8,
the second marker is spherical;
The work observation system is characterized in that each of the second markers is provided at a different position from the tip of the tool.
前記解析装置は、前記第2のマーカの位置関係を用いて、前記工具の位置及び姿勢を計算することを特徴とする作業観察システム。 The work observation system according to claim 9,
The work observation system is characterized in that the analysis device calculates the position and orientation of the tool using the positional relationship of the second marker.
前記解析装置は、前記工具の位置及び姿勢の特徴量と予め記憶された標準的な位置及び姿勢の特徴量とを比較して、前記比較の結果を出力することを特徴とする作業観察システム。 The work observation system according to claim 1,
The work observation system is characterized in that the analysis device compares the feature values of the position and orientation of the tool with pre-stored standard feature values of the position and orientation, and outputs the results of the comparison.
前記解析装置は、前記工具の先端位置、前記工具の角度、前記工具が作業対象物に接した回数のいずれかを前記位置及び姿勢の特徴量として計算することを特徴とする作業観察システム。 The work observation system according to claim 1,
The work observation system is characterized in that the analysis device calculates any one of the tip position of the tool, the angle of the tool, and the number of times the tool touches the workpiece as the feature quantity of the position and posture.
前記第2の画像に映る前記工具の位置の特徴量は、前記各撮像装置から前記工具までの距離情報を含むことを特徴とする作業観察システム。 The work observation system according to claim 1,
The work observation system is characterized in that the feature quantity of the position of the tool reflected in the second image includes distance information from each of the imaging devices to the tool.
前記解析装置が、第1の作業者について計測した前記特徴量と、第2の作業者について計測した前記特徴量とに基づいて作成されたグラフを表示するためのデータを出力する出力部を有することを特徴とする作業観察システム。 The work observation system according to claim 1,
The analysis device includes an output unit that outputs data for displaying a graph created based on the feature amount measured for the first worker and the feature amount measured for the second worker. A work observation system characterized by:
前記解析装置は、
所定の演算処理を実行して以下の各機能部を実現する演算装置と、前記演算処理に使用されるデータが記憶される記憶装置とを有し、
前記作業解析方法は、
前記演算装置が、第1の方向から前記作業領域を撮像した第1の画像を取得する第1の撮像装置と、第2の方向から前記作業領域を撮像した、第2の画像を取得する第2の撮像装置とから画像を取得し、
前記解析装置が、少なくとも前記第2の画像に映る前記工具の位置及び姿勢の特徴量を計算し、
前記演算装置が、前記作業における前記工具の位置及び姿勢の特徴量を出力することを特徴とする作業解析方法。 A work analysis method in which an analysis device analyzes work performed by a tool in a work area, the method comprising:
The analysis device includes:
It has an arithmetic device that executes predetermined arithmetic processing to realize each of the following functional units, and a storage device that stores data used in the arithmetic processing,
The work analysis method is
The arithmetic unit includes a first imaging device that captures a first image of the work area from a first direction, and a second imaging device that captures a second image of the work area from a second direction. Obtain an image from the second imaging device,
the analysis device calculates at least feature amounts of the position and orientation of the tool shown in the second image;
A work analysis method, characterized in that the arithmetic device outputs feature quantities of the position and orientation of the tool in the work.
第1の方向から前記作業領域を撮像して、第1の画像を取得する第1の撮像装置と、
第2の方向から前記作業領域を撮像して、第2の画像を取得する第2の撮像装置と、
前記第1の画像及び前記第2の画像を用いて、作業を解析する解析装置とを備え、
前記第1の撮像装置と前記第2の撮像装置とは異なる倍率で前記作業領域を撮影するものであって、
前記解析装置は、
少なくとも前記第2の画像に映る前記工具の位置及び姿勢の特徴量を計算し、
前記作業における前記工具の位置及び姿勢の特徴量を出力することを特徴とする教育支援システム。 An educational support system that images a state in which a worker works in a work area using a tool, the system comprising:
a first imaging device that images the work area from a first direction to obtain a first image;
a second imaging device that images the work area from a second direction to obtain a second image;
an analysis device that analyzes the work using the first image and the second image,
The first imaging device and the second imaging device photograph the work area at different magnifications,
The analysis device includes:
Calculating feature amounts of the position and orientation of the tool that appears in at least the second image,
An educational support system characterized by outputting feature amounts of the position and posture of the tool in the work.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020192435A JP7453126B2 (en) | 2020-11-19 | 2020-11-19 | Work observation system, work analysis method, and educational support system |
PCT/JP2021/038282 WO2022107521A1 (en) | 2020-11-19 | 2021-10-15 | Work observation system, work analysis method, and education assistance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020192435A JP7453126B2 (en) | 2020-11-19 | 2020-11-19 | Work observation system, work analysis method, and educational support system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022081102A JP2022081102A (en) | 2022-05-31 |
JP2022081102A5 JP2022081102A5 (en) | 2022-12-16 |
JP7453126B2 true JP7453126B2 (en) | 2024-03-19 |
Family
ID=81709002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020192435A Active JP7453126B2 (en) | 2020-11-19 | 2020-11-19 | Work observation system, work analysis method, and educational support system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7453126B2 (en) |
WO (1) | WO2022107521A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001051712A (en) | 1999-08-09 | 2001-02-23 | Kawasaki Heavy Ind Ltd | Robot skill teaching method and device |
JP2019012328A (en) | 2017-06-29 | 2019-01-24 | 株式会社 日立産業制御ソリューションズ | Person action estimation system |
JP2019056622A (en) | 2017-09-21 | 2019-04-11 | 株式会社日立製作所 | Joining process line monitoring system |
JP2019217607A (en) | 2018-06-21 | 2019-12-26 | 三菱電機株式会社 | Teaching device, robot control system and teaching method |
JP2020154434A (en) | 2019-03-18 | 2020-09-24 | 大豊精機株式会社 | Work management system and work management method |
-
2020
- 2020-11-19 JP JP2020192435A patent/JP7453126B2/en active Active
-
2021
- 2021-10-15 WO PCT/JP2021/038282 patent/WO2022107521A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001051712A (en) | 1999-08-09 | 2001-02-23 | Kawasaki Heavy Ind Ltd | Robot skill teaching method and device |
JP2019012328A (en) | 2017-06-29 | 2019-01-24 | 株式会社 日立産業制御ソリューションズ | Person action estimation system |
JP2019056622A (en) | 2017-09-21 | 2019-04-11 | 株式会社日立製作所 | Joining process line monitoring system |
JP2019217607A (en) | 2018-06-21 | 2019-12-26 | 三菱電機株式会社 | Teaching device, robot control system and teaching method |
JP2020154434A (en) | 2019-03-18 | 2020-09-24 | 大豊精機株式会社 | Work management system and work management method |
Also Published As
Publication number | Publication date |
---|---|
WO2022107521A1 (en) | 2022-05-27 |
JP2022081102A (en) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7856172B2 (en) | Jiggle measuring system and jiggle measuring method | |
CN110880188B (en) | Calibration method, calibration device and calibration system for near-eye display optical system | |
CN111609995A (en) | Optical module assembly and debugging test method and device | |
US9990739B1 (en) | Method and device for fisheye camera automatic calibration | |
JP2009503711A (en) | Method and system for determining the relative position of a first object with respect to a second object, a corresponding computer program and a corresponding computer-readable recording medium | |
JP2018031701A (en) | Calibration method and calibration device | |
JP7453126B2 (en) | Work observation system, work analysis method, and educational support system | |
JP2000205821A (en) | Instrument and method for three-dimensional shape measurement | |
JP7611982B2 (en) | A camera tracking system for computer-aided surgical navigation. | |
JP2005323905A (en) | Eye movement measuring device and eye movement measuring program | |
US11790624B2 (en) | Video processing method, video processing apparatus, and recording medium having video processing program recorded therein | |
JP7533265B2 (en) | Support system, image processing device, support method and program | |
JPH11295045A (en) | Inspecting apparatus | |
JP6340113B2 (en) | Measuring device and program thereof | |
CN118967796B (en) | Virtual display calibration method and device for extended reality device and extended reality device | |
CN114170314B (en) | Intelligent 3D vision processing-based 3D glasses process track execution method | |
US20240123611A1 (en) | Robot simulation device | |
CN115281850B (en) | Tool posture evaluation method based on hemispherical laser list method | |
JPH05329793A (en) | Visual sensor | |
JP2007025830A (en) | 3-D object recognition method and apparatus | |
WO2021240934A1 (en) | Marker for measuring position and orientation of subject, device, system, and measurement method | |
JP2005121478A (en) | Mounting component inspection method, mounting component inspection apparatus, and jig substrate | |
JPS6166108A (en) | Method and apparatus for measuring position and shape of object | |
JPS6311290A (en) | Three-dimensional position setter | |
JP2023056623A (en) | Remote inspection device and remote inspection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221208 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7453126 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |