[go: up one dir, main page]

JP7589911B2 - Indication value reading program, indication value reading device, and indication value reading method - Google Patents

Indication value reading program, indication value reading device, and indication value reading method Download PDF

Info

Publication number
JP7589911B2
JP7589911B2 JP2020123114A JP2020123114A JP7589911B2 JP 7589911 B2 JP7589911 B2 JP 7589911B2 JP 2020123114 A JP2020123114 A JP 2020123114A JP 2020123114 A JP2020123114 A JP 2020123114A JP 7589911 B2 JP7589911 B2 JP 7589911B2
Authority
JP
Japan
Prior art keywords
value
image data
pointer
indicated
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020123114A
Other languages
Japanese (ja)
Other versions
JP2022019334A (en
Inventor
強福 趙
菖平 上田
三四郎 平原
幸治 江原
善範 速水
次男 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Aizu
Original Assignee
University of Aizu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Aizu filed Critical University of Aizu
Priority to JP2020123114A priority Critical patent/JP7589911B2/en
Publication of JP2022019334A publication Critical patent/JP2022019334A/en
Application granted granted Critical
Publication of JP7589911B2 publication Critical patent/JP7589911B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Arrangements For Transmission Of Measured Signals (AREA)
  • Image Analysis (AREA)

Description

本発明は、指示値読取プログラム、指示値読取装置及び指示値読取方法に関する。 The present invention relates to an indication value reading program, an indication value reading device, and an indication value reading method.

例えば、半導体の製造等を行う工場には、一般的に、各機器の温度や圧力等の計測を行うための多くのアナログメーターが配置されている。 For example, factories that manufacture semiconductors typically have many analog meters for measuring the temperature, pressure, and other parameters of each device.

このような工場において、作業者は、例えば、定期的なタイミングにおいて工場内を巡回し、各アナログメーターが指し示している値の確認を目視によって行う。そして、作業者は、例えば、各アナログメーターの値を用いて必要な計算を行い、工場内において異常(例えば、機器の故障等)が発生しているか否かについての判定を行う。その結果、工場内において異常が発生していると判定した場合、作業者は、例えば、異常が発生した機器の交換を行うための手配等を行う(特許文献1乃至2及び非特許文献1乃至2を参照)。 In such factories, workers, for example, patrol the factory at regular intervals and visually check the values indicated by each analog meter. Then, for example, the workers perform necessary calculations using the values of each analog meter to determine whether or not an abnormality (e.g., equipment failure, etc.) has occurred within the factory. As a result, if it is determined that an abnormality has occurred within the factory, the workers, for example, make arrangements to replace the equipment with the abnormality (see Patent Documents 1 and 2 and Non-Patent Documents 1 and 2).

特開2004-133560号公報JP 2004-133560 A 特開2017-126187号公報JP 2017-126187 A

Yixiao Fang, Yan Dai, Guoli He and Donglian Qi, "A Mask RCNN based Automatic Reading Method for Pointer Meter", 38th Chinese Control Conference, 8466-8471.Yixiao Fang, Yan Dai, Guoli He and Donglian Qi, "A Mask RCNN based Automatic Reading Method for Pointer Meter", 38th Chinese Control Conference, 8466-8471. HaoWen Lai, Qi Kang, Le pan and Can Cui, "A Novel Scale Recognition Method for Pointer Meters Adapted to Different Types and Shape", 2019 IEEE 15th International Conference on Automation Science and Engineering (CASE), 374-379.HaoWen Lai, Qi Kang, Le pan and Can Cui, "A Novel Scale Recognition Method for Pointer Meters Adapted to Different Types and Shape", 2019 IEEE 15th International Conference on Automation Science and Engineering (CASE), 374-379.

ここで、上記のような各アナログメーターの値を用いて行う計算は、例えば、作業者が人手によって行うものであり、ある程度の時間を要する場合がある。また、このような計算は、例えば、工場内以外の場所(作業者のオフィス等)に移動してから行う必要がある場合がある。 The calculations performed using the values of the analog meters as described above are performed manually by an operator, and may take a certain amount of time. Furthermore, such calculations may need to be performed after moving to a location outside the factory (such as the operator's office).

そのため、作業者は、工場内において発生している異常を迅速に検知することができず、発生した異常を解消するまでに時間を要する場合がある。 As a result, workers may not be able to quickly detect abnormalities occurring within the factory, and it may take time to resolve the abnormalities.

そこで、本発明の目的は、工場内において発生した異常を迅速に検知することを可能とする指示値読取プログラム、指示値読取装置及び指示値読取方法を提供することにある。 The object of the present invention is to provide an indication value reading program, an indication value reading device, and an indication value reading method that enable rapid detection of abnormalities that occur in a factory.

上記目的を達成するための本発明における指示値読取プログラムは、指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出し、抽出した前記部分画像データに基づいて、前記部分画像データに含まれる前記指針が指示する第1の向きを特定し、特定した前記第1の向きと、前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定し、特定した前記指針が指示する値を出力する、処理をコンピュータに実行させることを特徴とする。 The indication value reading program of the present invention for achieving the above object is characterized in that it causes a computer to execute the following process: extracting partial image data for a display having a pointer from inspection target image data that includes the display; identifying a first orientation indicated by the pointer included in the partial image data based on the extracted partial image data; identifying a value indicated by the pointer included in the partial image data based on the identified first orientation and the range of values that the pointer can indicate on the display; and outputting the identified value indicated by the pointer.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、指針を有する表示器が含まれる複数の学習用画像データのそれぞれに対し、各学習用画像データに含まれる前記表示器の位置情報を付加することによって、複数の学習データを生成し、生成した前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成し、前記検査対象画像データを入力することに伴って前記学習モデルから出力される値を取得し、取得した前記値に対応する前記部分画像データを前記検査対象画像データから抽出する、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it generates multiple pieces of learning data by adding position information of a display having a pointer, which is included in each piece of learning image data, to each piece of learning image data, and generates a learning model by performing machine learning using the multiple pieces of learning data generated, obtains a value output from the learning model in response to inputting the inspection object image data, and extracts the partial image data corresponding to the obtained value from the inspection object image data.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、指針を有する表示器についての複数の学習用画像データのそれぞれに対し、各学習用画像データに含まれる前記指針の向きを示す情報を付加することによって、複数の学習データを生成し、生成した前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成し、前記部分画像データを入力することに伴って前記学習モデルから出力される値を取得し、取得した前記値から前記指針の向きを特定する、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it generates multiple pieces of learning data by adding information indicating the orientation of a pointer contained in each piece of learning image data for a display device having a pointer, generates a learning model by performing machine learning using the multiple pieces of learning data generated, obtains a value output from the learning model as the partial image data is input, and identifies the orientation of the pointer from the obtained value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記値から前記指針の長さを算出し、算出した前記長さが所定の範囲内にある場合に、前記値から指針の向きを特定する処理を行う、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates the length of the pointer from the value, and if the calculated length is within a predetermined range, performs a process to identify the orientation of the pointer from the value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記長さが前記所定の範囲内にない場合、前記値から指針の向きを特定する処理を行う前に、前記部分画像データを抽出する処理と前記値を取得する処理とを再度行う、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that, if the length is not within the predetermined range, the process of extracting the partial image data and the process of obtaining the value are performed again before the process of identifying the orientation of the pointer from the value is performed.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記指針が指示可能な値の範囲に含まれる最小値と、前記指針が指示可能な値の範囲に含まれる最大値と、前記第1の向きと、前記指針が前記最小値を指示する場合に前記指針が指示する第2の向きと、前記指針が前記最大値を指示する場合における前記指針が指示する第3の向きとから、前記指針が指示する値を特定する、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it identifies the value indicated by the pointer from the minimum value included in the range of values that the pointer can indicate, the maximum value included in the range of values that the pointer can indicate, the first orientation, the second orientation indicated by the pointer when the pointer indicates the minimum value, and the third orientation indicated by the pointer when the pointer indicates the maximum value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記第1の向きに対応する角度から前記第2の向きに対応する角度を減算することによって第1の値を算出し、前記第3の向きに対応する角度から前記第2の向きに対応する角度を減算することによって第2の値を算出し、前記最大値から前記最小値を減算することによって第3の値を算出し、前記第1の値を前記第2の値で除算することによって第4の値を算出し、前記第4の値と前記第3の値とを乗算することによって第5の値を算出し、前記第5の値に前記最小値を加算することによって前記指針が指示する値を算出する、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates a first value by subtracting an angle corresponding to the second orientation from an angle corresponding to the first orientation, calculates a second value by subtracting an angle corresponding to the second orientation from an angle corresponding to the third orientation, calculates a third value by subtracting the minimum value from the maximum value, calculates a fourth value by dividing the first value by the second value, calculates a fifth value by multiplying the fourth value and the third value, and calculates a value indicated by the pointer by adding the minimum value to the fifth value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、撮像装置によって撮像された前記表示器についての前記検査対象画像データを取得し、取得した前記検査対象画像データについてホモグラフィー変換を行い、ホモグラフィー変換を行った前記検査対象画像データから前記部分画像データの抽出を行う、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it acquires the inspection object image data of the display captured by an imaging device, performs homography transformation on the acquired inspection object image data, and extracts the partial image data from the inspection object image data that has been subjected to homography transformation.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記表示器における1以上の目印を特定し、特定した前記1以上の目印が予め指定された位置に移動するように、前記検査対象画像データについてホモグラフィー変換を行う、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it identifies one or more markers on the display device and performs a homography transformation on the inspection object image data so that the identified one or more markers move to a pre-specified position.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記指針が指示する値の平均値を算出し、算出した前記平均値を出力する、ことを特徴とする。 In one embodiment, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates the average value of the values indicated by the pointer and outputs the calculated average value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記指針が指示する値を特定する処理において特定した前記指針が指示する値の標準偏差を算出し、算出した前記標準偏差が所定の閾値以上である場合に、前記平均値の出力を行う、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates the standard deviation of the value indicated by the pointer identified in the process of identifying the value indicated by the pointer, and outputs the average value if the calculated standard deviation is equal to or greater than a predetermined threshold value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記指針が指示する値を特定する処理において特定した前記指針が指示する値の標準偏差を算出し、前記平均値に加えて前記標準偏差を出力する、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates the standard deviation of the value indicated by the pointer identified in the process of identifying the value indicated by the pointer, and outputs the standard deviation in addition to the average value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記指針が指示する値を特定する処理において特定した前記指針が指示する値の標準偏差を算出し、算出した前記標準偏差が所定の閾値以上である場合、前記平均値に加えて前記指針が振動していることを示す情報を出力する、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates the standard deviation of the value indicated by the pointer identified in the process of identifying the value indicated by the pointer, and if the calculated standard deviation is equal to or greater than a predetermined threshold, outputs information indicating that the pointer is vibrating in addition to the average value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記指針が指示する値を特定する処理において特定した前記指針が指示する値のうちの最大値と最小値との差を算出し、算出した前記差が所定の閾値以上である場合に、前記平均値の出力を行う、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates the difference between the maximum and minimum values indicated by the pointer identified in the process of identifying the value indicated by the pointer, and outputs the average value if the calculated difference is equal to or greater than a predetermined threshold value.

また、上記目的を達成するための本発明における指示値読取プログラムは、一つの態様では、前記指針が指示する値を特定する処理において特定した前記指針が指示する値のうちの最大値と最小値との差を算出し、算出した前記差が所定の閾値以上である場合、前記平均値に加えて前記指針が振動していることを示す情報を出力する、ことを特徴とする。 In one aspect, the indication value reading program of the present invention for achieving the above object is characterized in that it calculates the difference between the maximum and minimum values indicated by the pointer identified in the process of identifying the value indicated by the pointer, and if the calculated difference is equal to or greater than a predetermined threshold, outputs information indicating that the pointer is vibrating in addition to the average value.

また、上記目的を達成するための本発明における指示値読取装置は、指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出する部分画像抽出部と、抽出した前記部分画像データに基づいて、前記部分画像データに含まれる前記指針が指示する第1の向きを特定する方向特定部と、特定した前記第1の向きと、前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定する値特定部と、特定した前記指針が指示する値を出力する値出力部と、を有する、ことを特徴とする。 The indication value reading device of the present invention for achieving the above object is characterized by having a partial image extraction unit that extracts partial image data for a display having a pointer from inspection target image data that includes the display, a direction identification unit that identifies a first orientation indicated by the pointer included in the partial image data based on the extracted partial image data, a value identification unit that identifies a value indicated by the pointer included in the partial image data based on the identified first orientation and the range of values that the pointer can indicate on the display, and a value output unit that outputs the identified value indicated by the pointer.

また、上記目的を達成するための本発明における指示値読取方法は、指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出し、抽出した前記部分画像データに基づいて、前記部分画像データに含まれる前記指針が指示する第1の向きを特定し、特定した前記第1の向きと、前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定し、特定した前記指針が指示する値を出力する、処理をコンピュータに実行させることを特徴とする。 The method for reading indicated values according to the present invention for achieving the above object is characterized in that it causes a computer to execute the following processes: extracting partial image data for a display having a pointer from inspection target image data that includes the display; identifying a first orientation indicated by the pointer included in the partial image data based on the extracted partial image data; identifying a value indicated by the pointer included in the partial image data based on the identified first orientation and the range of values that the pointer can indicate on the display; and outputting the identified value indicated by the pointer.

本発明における指示値読取プログラム、指示値読取装置及び指示値読取方法によれば、工場内において発生している異常を迅速に検知することを可能とする。 The indication value reading program, indication value reading device, and indication value reading method of the present invention make it possible to quickly detect abnormalities occurring within a factory.

図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。FIG. 1 is a diagram showing an example of a configuration of an information processing device 1 according to the first embodiment. 図2は、第1の実施の形態における指示値読取処理の概略を説明する図である。FIG. 2 is a diagram for explaining an outline of the indication value reading process in the first embodiment. 図3は、第1の実施の形態における指示値読取処理の概略を説明する図である。FIG. 3 is a diagram for explaining an outline of the indication value reading process in the first embodiment. 図4は、第1の実施の形態における指示値読取処理の詳細を説明するフローチャート図である。FIG. 4 is a flow chart illustrating details of the indication value reading process in the first embodiment. 図5は、第1の実施の形態における指示値読取処理の詳細を説明するフローチャート図である。FIG. 5 is a flow chart illustrating details of the indication value reading process in the first embodiment. 図6は、第1の実施の形態における指示値読取処理の詳細を説明するフローチャート図である。FIG. 6 is a flow chart illustrating details of the indication value reading process in the first embodiment. 図7は、第1の実施の形態における指示値読取処理の詳細を説明するフローチャート図である。FIG. 7 is a flow chart illustrating details of the indication value reading process in the first embodiment. 図8は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 8 is a diagram for explaining details of the indication value reading process in the first embodiment. 図9は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 9 is a diagram for explaining details of the indication value reading process in the first embodiment. 図10は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 10 is a diagram for explaining details of the indication value reading process in the first embodiment. 図11は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 11 is a diagram for explaining details of the indication value reading process in the first embodiment. 図12は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 12 is a diagram for explaining details of the indication value reading process in the first embodiment. 図13は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 13 is a diagram for explaining details of the indication value reading process in the first embodiment. 図14は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 14 is a diagram for explaining details of the indication value reading process in the first embodiment. 図15は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 15 is a diagram for explaining details of the indication value reading process in the first embodiment. 図16は、第1の実施の形態における指示値読取処理の詳細を説明する図である。FIG. 16 is a diagram for explaining details of the indication value reading process in the first embodiment.

以下、図面を参照して本発明の実施の形態について説明する。しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。 Below, an embodiment of the present invention will be described with reference to the drawings. However, such an embodiment does not limit the technical scope of the present invention.

初めに、第1の実施の形態における情報処理装置1(以下、指示値読取装置1とも呼ぶ)の構成例について説明を行う。図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。 First, a configuration example of an information processing device 1 (hereinafter also referred to as an indication value reading device 1) in the first embodiment will be described. FIG. 1 is a diagram showing a configuration example of an information processing device 1 in the first embodiment.

情報処理装置1は、コンピュータ装置であって、例えば、汎用的なPC(Personal Computer)である。そして、情報処理装置1は、例えば、図示しないアナログメーター(以下、表示器とも呼ぶ)の指針が指示する値を読み取る処理(以下、指示値読取処理とも呼ぶ)を行う。 The information processing device 1 is a computer device, for example, a general-purpose PC (Personal Computer). The information processing device 1 performs a process (hereinafter also referred to as an indicated value reading process) for reading a value indicated by a needle of an analog meter (not shown) (hereinafter also referred to as a display).

情報処理装置1は、汎用的なコンピュータ装置のハードウエア構成を有し、例えば、図1に示すように、プロセッサであるCPU101と、メモリ102と、通信インタフェース103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。 The information processing device 1 has the hardware configuration of a general-purpose computer device, and for example, as shown in FIG. 1, has a processor, a CPU 101, a memory 102, a communication interface 103, and a storage medium 104. Each part is connected to each other via a bus 105.

記憶媒体104は、例えば、指示値読取処理を行うためのプログラム(図示しない)を記憶するプログラム格納領域(図示しない)を有する。 The storage medium 104 has, for example, a program storage area (not shown) that stores a program (not shown) for performing the indication value reading process.

また、記憶媒体104は、例えば、指示値読取処理を行う際に用いられる情報を記憶する記憶部110(以下、記憶領域110とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。 The storage medium 104 also has a storage unit 110 (hereinafter also referred to as storage area 110) that stores information used when performing the indication value reading process. The storage medium 104 may be, for example, a hard disk drive (HDD) or a solid state drive (SSD).

CPU101は、記憶媒体104からメモリ102にロードされたプログラムを実行して指示値読取処理を行う。 The CPU 101 executes the program loaded from the storage medium 104 to the memory 102 to perform the indication value reading process.

通信インタフェース103は、例えば、インターネット網等のネットワークNWを介してスマートフォン等の操作端末2と通信を行う。 The communication interface 103 communicates with an operation terminal 2 such as a smartphone via a network NW such as the Internet.

[第1の実施の形態の概略]
図2及び図3は、第1の実施の形態における指示値読取処理の概略を説明する図である。具体的に、図2は、第1の実施の形態における指示値読取処理のうち、学習段階の処理について説明する図である。また、図3は、第1の実施の形態における指示値読取処理のうち、推論段階の処理について説明する図である。
[Outline of the first embodiment]
2 and 3 are diagrams for explaining an outline of the indication value reading process in the first embodiment. Specifically, Fig. 2 is a diagram for explaining the learning stage of the indication value reading process in the first embodiment. Also, Fig. 3 is a diagram for explaining the inference stage of the indication value reading process in the first embodiment.

初めに、第1の実施の形態における指示値読取処理のうち、学習段階の処理について説明を行う。 First, we will explain the learning stage of the indication value reading process in the first embodiment.

情報処理装置1の第1データ生成部111は、図2に示すように、例えば、アナログメーターが一部において映る学習用画像データ(以下、第1学習用画像データとも呼ぶ)に対し、第1学習用画像データにおけるアナログメーターの位置及びサイズについての情報(以下、これらを総称して位置情報とも呼ぶ)を付加することによって学習データ(以下、第1学習データとも呼ぶ)を生成する。 As shown in FIG. 2, the first data generation unit 111 of the information processing device 1 generates learning data (hereinafter also referred to as first learning data) by adding information about the position and size of the analog meter in the first learning image data (hereinafter collectively referred to as position information) to learning image data (hereinafter also referred to as first learning image data) that partially shows an analog meter.

そして、情報処理装置1の第1モデル生成部112は、第1データ生成部111が生成した複数の第1学習データを用いた機械学習を行うことによって、学習モデル(以下、第1学習モデルとも呼ぶ)を生成する。その後、第1モデル生成部112は、生成した第1学習モデルを記憶領域110に記憶する。 Then, the first model generation unit 112 of the information processing device 1 generates a learning model (hereinafter also referred to as the first learning model) by performing machine learning using the multiple first learning data generated by the first data generation unit 111. After that, the first model generation unit 112 stores the generated first learning model in the memory area 110.

すなわち、第1モデル生成部112は、複数の第1学習データを用いることによって、検査対象画像データからアナログメーターの部分画像データを抽出する際に用いられる第1学習モデルを生成する。 In other words, the first model generation unit 112 uses multiple first learning data to generate a first learning model that is used when extracting partial image data of an analog meter from the inspection target image data.

また、情報処理装置1の第2データ生成部113は、例えば、アナログメーターについての学習用画像データ(以下、第2学習用画像データとも呼ぶ)に対し、第1モデル生成部112が生成した第1学習モデルによって抽出された部分画像データにおけるアナログメーターの指針の向きを示す情報を付加することによって学習データ(以下、第2学習データとも呼ぶ)を生成する。 The second data generation unit 113 of the information processing device 1 generates learning data (hereinafter also referred to as second learning data) by adding information indicating the orientation of the pointer of the analog meter in the partial image data extracted by the first learning model generated by the first model generation unit 112 to learning image data (hereinafter also referred to as second learning image data) for an analog meter, for example.

そして、情報処理装置1の第2モデル生成部114は、第2データ生成部113が生成した複数の第2学習データを用いた機械学習を行うことによって、学習モデル(以下、第2学習モデルとも呼ぶ)を生成する。その後、第2モデル生成部114は、生成した第2学習モデルを記憶領域110に記憶する。 Then, the second model generation unit 114 of the information processing device 1 generates a learning model (hereinafter also referred to as the second learning model) by performing machine learning using the multiple second learning data generated by the second data generation unit 113. After that, the second model generation unit 114 stores the generated second learning model in the memory area 110.

すなわち、第2モデル生成部114は、複数の第2学習データを用いることによって、アナログメーターの指針が指示する方向を特定(推定)する際に用いられる第2学習モデルを生成する。 That is, the second model generation unit 114 uses multiple pieces of second learning data to generate a second learning model that is used to identify (estimate) the direction indicated by the needle of an analog meter.

次に、第1の実施の形態における指示値読取処理のうち、推論段階の処理について説明を行う。 Next, we will explain the inference stage of the indication value reading process in the first embodiment.

情報処理装置1の部分画像抽出部121は、アナログメーターを一部において含む検証対象画像データから、アナログメーターについての部分画像データを抽出する。 The partial image extraction unit 121 of the information processing device 1 extracts partial image data about the analog meter from the verification target image data that partially includes the analog meter.

具体的に、部分画像抽出部121は、記憶領域110に記憶された第1学習モデルに対する検証対象画像データの入力に伴って出力される値が示す位置情報を特定する。そして、部分画像抽出部121は、特定した位置情報に対応する部分画像データを検証対象画像データから抽出する。 Specifically, the partial image extraction unit 121 identifies position information indicated by a value output in response to input of the verification target image data to the first learning model stored in the memory area 110. Then, the partial image extraction unit 121 extracts the partial image data corresponding to the identified position information from the verification target image data.

そして、情報処理装置1の方向判定部122は、部分画像抽出部121が抽出した部分画像データに基づいて、その部分画像データに映るアナログメーターの指針が指示する向き(以下、第1の向きとも呼ぶ)を特定する。 Then, the direction determination unit 122 of the information processing device 1 determines the direction indicated by the needle of the analog meter shown in the partial image data extracted by the partial image extraction unit 121 (hereinafter, also referred to as the first direction).

具体的に、方向判定部122は、記憶領域110に記憶された第2学習モデルに対する部分画像データの入力に伴って出力される値が示す第1の向きを特定する。 Specifically, the direction determination unit 122 identifies the first direction indicated by the value output in response to input of partial image data to the second learning model stored in the memory area 110.

続いて、情報処理装置1の値特定部123は、方向判定部122が特定した第1の向きと、アナログメーターの指針が指示可能な値の範囲とに基づいて、部分画像抽出部121が抽出した部分画像データに含まれるアナログメーターの指針が指示している値を特定する。 Next, the value determination unit 123 of the information processing device 1 determines the value indicated by the needle of the analog meter included in the partial image data extracted by the partial image extraction unit 121 based on the first orientation determined by the direction determination unit 122 and the range of values that can be indicated by the needle of the analog meter.

その後、情報処理装置1の値出力部124は、例えば、値特定部123が特定した値を操作端末2に出力する。 Then, the value output unit 124 of the information processing device 1 outputs, for example, the value identified by the value identification unit 123 to the operation terminal 2.

すなわち、本実施の形態における情報処理装置1は、工場内に配置されたアナログメーターが映る画像データを学習モデルに対する入力として用いることで、アナログメーターの指針が向いている方向の特定を自動的に行う。そして、情報処理装置1は、特定した方向に基づいて、アナログメーターの指針が示す値を特定する。 In other words, the information processing device 1 in this embodiment automatically identifies the direction in which the analog meter's needle is pointing by using image data showing an analog meter placed in a factory as input to a learning model. Then, the information processing device 1 identifies the value indicated by the analog meter's needle based on the identified direction.

その後、情報処理装置1は、例えば、各アナログメーターの指針が示す現在の値と過去の値とから工場内の機器における異常値の発生確率の算出(推定)を行う。そして、情報処理装置1は、例えば、算出した異常値の発生確率が所定の閾値を上回った場合に、工場内において異常が発生している可能性が高いと判定する。 The information processing device 1 then calculates (estimates) the probability of abnormal values occurring in equipment within the factory, for example, from the current and past values indicated by the needles of each analog meter. Then, for example, if the calculated probability of abnormal values occurring exceeds a predetermined threshold, the information processing device 1 determines that there is a high possibility that an abnormality has occurred within the factory.

これにより、情報処理装置1は、工場内において異常が発生している可能性が高いか否かについての判定を自動的かつ迅速に行うことが可能になる。そして、情報処理装置1は、例えば、工場内において異常が発生している可能性が高いと判定した場合、作業者に対して必要な作業(操作)を行う旨の通知を行うことが可能になる。 This enables the information processing device 1 to automatically and quickly determine whether or not there is a high possibility that an abnormality has occurred in the factory. Then, for example, if the information processing device 1 determines that there is a high possibility that an abnormality has occurred in the factory, it becomes possible to notify workers to perform the necessary work (operation).

この点、工場内における異常の発生は、工場内における大きな事故の発生に繋がる可能性がある。そのため、作業者は、工場内における大きな事故の発生を防止する観点から、工場内において発生した異常に対して迅速な処置を行う必要がある。 In this regard, the occurrence of an abnormality in the factory can lead to a major accident in the factory. Therefore, workers need to take prompt action in response to any abnormality that occurs in the factory in order to prevent a major accident from occurring in the factory.

したがって、情報処理装置1は、例えば、工場内において異常が発生する可能性が高いと判定した場合、作業者に対して適切な処置を行う旨の指示を行う。また、情報処理装置1は、例えば、工場内において異常が発生している可能性が極めて高いと判定した場合(異常が発生していると断定可能な状況にあると判定した場合)、作業者に対して緊急処理を取るように指示を行う。 Therefore, for example, if the information processing device 1 determines that there is a high possibility that an abnormality has occurred in the factory, it instructs the workers to take appropriate measures. Also, for example, if the information processing device 1 determines that there is an extremely high possibility that an abnormality has occurred in the factory (if it determines that the situation is such that it can be determined that an abnormality has occurred), it instructs the workers to take emergency measures.

さらに、情報処理装置1は、各アナログメーターの指針が示す値の読み取りを自動的に行うことで、この読み取りを作業者が行うことによる人為的なミス(読み取りミスや値の入力ミス等)の発生を防止することが可能になる。 Furthermore, by automatically reading the values indicated by the needles of each analog meter, the information processing device 1 can prevent the occurrence of human errors (reading errors, value input errors, etc.) that occur when an operator performs this reading.

[第1の実施の形態の詳細]
次に、第1の実施の形態における指示値読取処理の詳細について説明を行う。図4から図7は、第1の実施の形態における指示値読取処理の詳細を説明するフローチャート図である。また、図8から図16は、第1の実施の形態における指示値読取処理の詳細を説明する図である。
[Details of the First Embodiment]
Next, the details of the indication value reading process in the first embodiment will be described. Figures 4 to 7 are flow charts for explaining the details of the indication value reading process in the first embodiment. Figures 8 to 16 are diagrams for explaining the details of the indication value reading process in the first embodiment.

[学習段階における処理]
初めに、第1の実施の形態における指示値読取処理の詳細のうち、学習段階における処理の詳細について説明を行う。図4は、学習段階における処理の詳細について説明する図である。
[Processing in the learning stage]
First, the details of the learning stage of the indication value reading process in the first embodiment will be described with reference to FIG.

第1データ生成部111は、図4に示すように、例えば、学習タイミングになるまで待機する(S11のNO)。学習タイミングは、例えば、作業者が操作端末2を介して第1学習用画像データを入力したタイミングであってよい。また、学習タイミングは、例えば、作業者が各学習モデルの生成を行う旨の情報を入力したタイミングであってよい。 As shown in FIG. 4, the first data generation unit 111 waits, for example, until the learning timing arrives (NO in S11). The learning timing may be, for example, the timing when the worker inputs the first learning image data via the operation terminal 2. The learning timing may also be, for example, the timing when the worker inputs information to generate each learning model.

そして、学習タイミングなった場合(S11のYES)、第1データ生成部111は、第1学習用画像データのそれぞれに対し、各画像データに含まれるアナログメーターの位置情報を付加することによって、第1学習データを生成する(S12)。 Then, when it is time to learn (YES in S11), the first data generation unit 111 generates first learning data by adding the position information of the analog meter contained in each piece of first learning image data (S12).

具体的に、第1データ生成部111は、図7に示すように、例えば、アナログメーターの位置及びサイズを示すバウンディングボックスBB11(作業者によって指定されたバウンディングボックスBB11)を用いることによって、第1学習用画像データDT11に対してアナログメーターの位置情報を付加する。 Specifically, as shown in FIG. 7, the first data generation unit 111 adds position information of the analog meter to the first learning image data DT11 by using, for example, a bounding box BB11 (bounding box BB11 specified by the operator) that indicates the position and size of the analog meter.

さらに具体的に、作業者は、例えば、撮像装置(図示しない)によって撮影された動画データに含まれる各フレームに対応する画像データを第1学習用画像データとして用意する。そして、作業者は、バウンディングボックスを用いることによって、第1学習用画像データのそれぞれに対してアナログメーターの位置情報を付加する。その後、第1データ生成部111は、例えば、第1学習用画像データと、バウンディングボックスの左上の座標(X座標及びY座標)と、バウンディングボックスの縦及び横の長さとを対応付けることによって、第1学習データを生成する。 More specifically, the worker prepares, for example, image data corresponding to each frame included in video data captured by an imaging device (not shown) as the first learning image data. The worker then adds analog meter position information to each piece of first learning image data by using a bounding box. After that, the first data generator 111 generates the first learning data by, for example, associating the first learning image data with the coordinates (X and Y coordinates) of the top left corner of the bounding box and the vertical and horizontal lengths of the bounding box.

その後、第1モデル生成部112は、S12の処理で生成した第1学習データを用いた機械学習を行うことによって、第1学習モデルを生成する(S13)。 Then, the first model generation unit 112 generates a first learning model by performing machine learning using the first learning data generated in the processing of S12 (S13).

続いて、第2データ生成部113は、第2学習用画像データのそれぞれに対し、各画像データにおける指針の向きを示す情報を付加することによって、第2学習データを生成する(S14)。 Next, the second data generation unit 113 generates second learning data by adding information indicating the orientation of the needle in each piece of second learning image data (S14).

具体的に、第2データ生成部113は、図8に示すように、例えば、アナログメーターの指針の位置を示すバウンディングボックスBB12(作業者によって指定されたバウンディングボックスBB12)を用いることによって、第2学習用画像データDT12に対して指針の位置情報を付加する。 Specifically, as shown in FIG. 8, the second data generation unit 113 adds pointer position information to the second learning image data DT12 by using, for example, a bounding box BB12 (bounding box BB12 specified by the operator) indicating the position of the pointer of an analog meter.

さらに具体的に、第2データ生成部113は、例えば、S13の処理で生成した第1学習モデルに対する第1学習用画像データの入力に伴って出力される画像データを第2学習用画像データとして取得する。そして、作業者は、バウンディングボックスを用いることによって、第2学習用画像データのそれぞれに対して指針の位置情報を付加する。その後、第2データ生成部113は、例えば、第2学習用画像データと、バウンディングボックスの左上の座標(X座標及びY座標)と、バウンディングボックスの縦及び横の長さとを対応付けることによって、第2学習データを生成する。 More specifically, the second data generation unit 113 acquires, for example, image data output in response to the input of the first learning image data to the first learning model generated in the process of S13 as the second learning image data. Then, the worker adds position information of the pointer to each piece of second learning image data by using a bounding box. After that, the second data generation unit 113 generates the second learning data by, for example, associating the second learning image data with the coordinates (X and Y coordinates) of the top left corner of the bounding box and the vertical and horizontal lengths of the bounding box.

ここで、第2データ生成部113は、推定精度が高い第2学習モデルを生成する必要性から、例えば、アナログメーターの目盛りごとに、各目盛りを指針が示している状態のアナログメーターが映る第2学習用画像データを数百から数千単位で生成する必要がある。さらに、例えば、複数のアナログメーターが工場に配置されている場合、第2データ生成部113は、例えば、第2学習用画像データの生成をアナログメーターごとに行う必要がある。 Here, because it is necessary to generate a second learning model with high estimation accuracy, the second data generation unit 113 must generate, for example, hundreds to thousands of second learning image data showing an analog meter with a needle pointing to each scale mark on the analog meter for each scale mark on the analog meter. Furthermore, for example, if multiple analog meters are installed in a factory, the second data generation unit 113 must generate, for example, second learning image data for each analog meter.

この点、作業者は、本実施の形態における指示値読取処理を行う場合、例えば、アナログメーターの目盛りの1/4の領域(例えば、図8に示すアナログメーターにおける「0.1」から「0.3」までの間の領域)に対応する第1学習用画像データのみを用意し、これらを第1学習モデルに入力することによって第2学習用画像データを生成するものであってよい。そして、作業者は、生成した第2学習用画像データから第2学習データを生成した後、生成した第2学習用画像データを左右反転または上下反転(左右反転及び上下反転)させることによって、他の領域(例えば、図8に示すアナログメーターにおける「0.1」から「0.3」までの間の領域以外の領域)に対応する新たな第2学習データをさらに生成し、アナログメーターの目盛りの全ての領域に対応する第2学習データを生成するものであってよい。 In this regard, when performing the indicated value reading process in this embodiment, the worker may prepare only the first learning image data corresponding to, for example, a quarter of the scale of the analog meter (for example, the area between "0.1" and "0.3" on the analog meter shown in FIG. 8) and input these to the first learning model to generate the second learning image data. Then, after generating the second learning data from the generated second learning image data, the worker may further generate new second learning data corresponding to other areas (for example, areas other than the area between "0.1" and "0.3" on the analog meter shown in FIG. 8) by inverting the generated second learning image data horizontally or vertically (horizontal inversion and vertical inversion), thereby generating second learning data corresponding to all areas of the scale of the analog meter.

具体的に、例えば、図8に示す第2学習用画像データDT12に映るアナログメーターの指針が指し示す値が「0.178」である場合、第2学習用画像データDT12を左右反転させた画像データに映るアナログメーターの指針が指し示す値が「0.422」であり、第2学習用画像データDT12を上下反転させた画像データに映るアナログメーターの指針が指し示す値が「0.022」であり、第2学習用画像データDT12を左右反転及び上下反転させた画像データに映るアナログメーターの指針が指し示す値が「0.578」である。 Specifically, for example, if the value indicated by the needle of the analog meter displayed in the second learning image data DT12 shown in FIG. 8 is "0.178", the value indicated by the needle of the analog meter displayed in image data obtained by flipping the second learning image data DT12 horizontally is "0.422", the value indicated by the needle of the analog meter displayed in image data obtained by flipping the second learning image data DT12 vertically is "0.022", and the value indicated by the needle of the analog meter displayed in image data obtained by flipping the second learning image data DT12 horizontally and vertically is "0.578".

そのため、作業者は、この場合、第2学習用画像データDT12を左右反転させた画像データに対し、「0.422」を指し示す場合における指針の位置情報を付加した新たな第2学習データと、第2学習用画像データDT12を上下反転させた画像データに対し、「0.022」を指し示す場合における指針の位置情報を付加した新たな第2学習データと、第2学習用画像データDT12を左右反転及び上下反転させた画像データに対し、「0.578」を指し示す場合における指針の位置情報を付加した新たな第2学習データとを生成する。 Therefore, in this case, the worker generates new second learning data by adding position information of the pointer when pointing to "0.422" to image data obtained by flipping the second learning image data DT12 horizontally, new second learning data by adding position information of the pointer when pointing to "0.022" to image data obtained by flipping the second learning image data DT12 vertically, and new second learning data by adding position information of the pointer when pointing to "0.578" to image data obtained by flipping the second learning image data DT12 horizontally and vertically.

すなわち、本実施の形態における第2学習モデルは、アナログメーターが映る検証対象画像データを認識する学習モデルではなく、アナログメーターの指針が指示する方向(角度)を検知する学習モデルである。そのため、作業者は、第2学習モデルを生成する際に、例えば、目盛りを示す文字(「0.1」等)が反転している画像データを用いることも可能である。したがって、作業者は、例えば、アナログメーターの目盛りの一部の領域に対応する第2学習データのみを生成し、さらに、生成した第2学習データに含まれる第2学習画像データを各種反転させることによって新たな第2学習データを生成するものであってもよい。 In other words, the second learning model in this embodiment is not a learning model that recognizes verification target image data that shows an analog meter, but a learning model that detects the direction (angle) indicated by the needle of an analog meter. Therefore, when generating the second learning model, the worker can use, for example, image data in which the characters indicating the scale (such as "0.1") are inverted. Therefore, the worker can generate only second learning data that corresponds to a partial area of the scale of the analog meter, and further generate new second learning data by inverting various parts of the second learning image data included in the generated second learning data.

これにより、作業者は、第2学習データの生成に要する負荷を軽減させることが可能になる。また、作業者は、この場合、例えば、指針の種類や目盛りの数等が異なる他のアナログメーターにおける指針の向きについても特定(推定)可能な第2学習モデルを生成することが可能になる。 This allows the worker to reduce the burden required to generate the second learning data. In this case, the worker can also generate a second learning model that can identify (estimate) the orientation of the pointer of other analog meters that have different types of pointers, different numbers of scales, etc.

その後、第2モデル生成部114は、S14の処理で生成した第2学習データを用いた機械学習を行うことによって、第2学習モデルを生成する(S15)。 Then, the second model generation unit 114 generates a second learning model by performing machine learning using the second learning data generated in the processing of S14 (S15).

なお、作業者は、新たな第1学習用画像データを情報処理装置1に対して随時入力するものであってよい。そして、情報処理装置1は、新たな第1学習用画像データを含む新たな第1学習データを随時生成するものであってよい(S12)。 The worker may input new first learning image data to the information processing device 1 at any time. The information processing device 1 may generate new first learning data including the new first learning image data at any time (S12).

その後、例えば、追加された新たな第1学習用画像データの割合が、全ての第1学習用画像データの所定割合を上回った場合、情報処理装置1は、第1学習モデル及び第2学習モデルを再度生成するものであってもよい(S13からS15)。 After that, for example, if the proportion of the newly added first learning image data exceeds a predetermined proportion of all the first learning image data, the information processing device 1 may generate the first learning model and the second learning model again (S13 to S15).

これにより、作業者は、第1学習モデル及び第2学習モデルの判定精度を継続的に向上させていくことが可能になる。 This allows the worker to continuously improve the judgment accuracy of the first learning model and the second learning model.

[推論段階における処理]
次に、第1の実施の形態における指示値読取処理の詳細のうち、推論段階における処理の詳細について説明を行う。図5及び図6は、推論段階における処理の詳細について説明する図である。
[Processing in the inference stage]
Next, the details of the processing in the inference stage among the details of the indication value reading processing in the first embodiment will be described below. Figures 5 and 6 are diagrams for explaining the details of the processing in the inference stage.

部分画像抽出部121は、図5に示すように、判定タイミングなるまで待機する(S21のNO)。判定タイミングは、例えば、作業者が操作端末2を介して検証対象画像データを入力したタイミングであってよい。また、判定タイミングは、例えば、作業者が検証対象学習データの判定を行う旨の情報を入力したタイミングであってよい。 As shown in FIG. 5, the partial image extraction unit 121 waits until the judgment timing arrives (NO in S21). The judgment timing may be, for example, the timing when the worker inputs the verification target image data via the operation terminal 2. The judgment timing may also be, for example, the timing when the worker inputs information to the effect that a judgment will be made on the verification target learning data.

そして、判定タイミングになった場合(S21のYES)、部分画像抽出部121は、撮像装置(図示しない)が撮像したアナログメーターについての検査対象画像データを取得する(S22)。 Then, when the determination timing arrives (YES in S21), the partial image extraction unit 121 acquires inspection target image data for the analog meter captured by an imaging device (not shown) (S22).

具体的に、部分画像抽出部121は、図9に示すように、例えば、作業者が撮影を行う撮像装置から送信されたアナログメーターの検査対象画像データDT21を受信する。撮像装置は、例えば、非固定のカメラであってもよい。また、撮像装置は、例えば、操作端末2に内蔵されているものであってもよい。 Specifically, as shown in FIG. 9, the partial image extraction unit 121 receives inspection target image data DT21 of an analog meter transmitted from an imaging device that an operator uses to take images. The imaging device may be, for example, a non-fixed camera. The imaging device may also be, for example, one that is built into the operation terminal 2.

続いて、部分画像抽出部121は、S22の処理で取得した検査対象画像データを入力することに伴って第1学習モデルから出力される値を取得する(S23)。 Next, the partial image extraction unit 121 acquires values output from the first learning model in response to input of the inspection target image data acquired in the processing of S22 (S23).

そして、部分画像抽出部121は、S23の処理で取得した値に対応する部分画像データを、S22の処理で取得した検査対象画像データから抽出する(S24)。 Then, the partial image extraction unit 121 extracts the partial image data corresponding to the value obtained in the process of S23 from the inspection target image data obtained in the process of S22 (S24).

具体的に、部分画像抽出部121は、図10に示すように、例えば、S23の処理で取得した値に対応する位置情報(座標)を参照し、S21の処理で取得した検査対象画像データのうち、アナログメーターが映る部分を部分画像データDT22として取得する。 Specifically, as shown in FIG. 10, the partial image extraction unit 121 refers to the position information (coordinates) corresponding to the value acquired in the processing of S23, for example, and acquires the portion of the inspection object image data acquired in the processing of S21 that shows the analog meter as partial image data DT22.

次に、方向判定部122は、図6に示すように、S24の処理で抽出した部分画像データを入力することに伴って第2学習モデルから出力される値を取得する(S31)。 Next, as shown in FIG. 6, the direction determination unit 122 obtains values output from the second learning model in response to input of the partial image data extracted in the processing of S24 (S31).

なお、方向判定部112は、この場合、アナログメーターにおける指針の回転軸から先端までの長さ(指針の位置に対応するバウンディングボックスの対角線の長さ)を、S31の処理で取得した値を用いることによって算出するものであってもよい。そして、方向判定部112は、算出した対角線の長さが予め指定された所定の許容範囲内(例えば、±5(%)の範囲内)にない場合、S24の処理においてエラー(部分画像データの読取エラー)が発生しているものと判定し、S24以降の処理を再度行うものであってもよい。 In this case, the direction determination unit 112 may calculate the length from the axis of rotation of the needle on the analog meter to the tip (the length of the diagonal of the bounding box corresponding to the needle's position) by using the value acquired in the process of S31. If the calculated diagonal length is not within a predetermined tolerance range (for example, within a range of ±5 (%)), the direction determination unit 112 may determine that an error (partial image data reading error) has occurred in the process of S24, and may perform the processes from S24 onwards again.

これにより、方向判定部112は、S24の処理における部分画像データの読取精度の向上を図ることが可能になる。 This enables the direction determination unit 112 to improve the reading accuracy of partial image data in the processing of S24.

そして、方向判定部122は、S31の処理で取得した値からアナログメーターにおける指針が向いている第1の方向を特定する(S32)。 Then, the direction determination unit 122 determines the first direction in which the needle of the analog meter is pointing from the value acquired in the process of S31 (S32).

具体的に、方向判定部122は、図11に示すように、例えば、S24の処理で抽出した部分画像データDT22に映るアナログメーターの指針が向いている第1の方向として方向DRpを特定する。 Specifically, as shown in FIG. 11, the direction determination unit 122 identifies the direction DRp as the first direction in which the needle of the analog meter shown in the partial image data DT22 extracted in the processing of S24 is pointing, for example.

続いて、値特定部123は、S32の処理で特定した第1の向きとアナログメーターにおいて指針が示す値の範囲とに基づいて、S24の処理で抽出した部分画像データに含まれる指針が指示する値を特定する(S33)。 Next, the value determination unit 123 determines the value indicated by the needle included in the partial image data extracted in the process of S24 based on the first orientation determined in the process of S32 and the range of values indicated by the needle on the analog meter (S33).

具体的に、値特定部123は、例えば、指針が指示可能な値の範囲のうちの最小値(以下、単に最小値とも呼ぶ)と、指針が指示可能な値の範囲のうちの最大値(以下、単に最大値とも呼ぶ)と、S32の処理で特定した第1の方向と、指針が最小値を指示する場合に指針が指示する方向(以下、第2の方向とも呼ぶ)と、指針が最大値を指示する場合における指針が指示する方向(以下、第3の方向とも呼ぶ)とから、S24の処理で抽出した部分画像データに含まれる指針が指示する値の特定を行う。以下、S33の処理の具体例について説明を行う。 Specifically, the value identification unit 123 identifies the value indicated by the pointer included in the partial image data extracted in the processing of S24, for example, from the minimum value in the range of values that the pointer can indicate (hereinafter also simply referred to as the minimum value), the maximum value in the range of values that the pointer can indicate (hereinafter also simply referred to as the maximum value), the first direction identified in the processing of S32, the direction indicated by the pointer when it indicates the minimum value (hereinafter also referred to as the second direction), and the direction indicated by the pointer when it indicates the maximum value (hereinafter also referred to as the third direction). A specific example of the processing of S33 will be described below.

[S33の処理の具体例]
値特定部123は、例えば、以下の式1に従って、S24の処理で抽出した部分画像データに含まれる指針が指示する値の特定を行う。なお、以下、図12に示すように、第2の方向を方向DRmとも呼び、第3の方向を方向DRMとも呼び、各角度を算出する際の基準となる方向(X軸方向)を方向DRXとも呼ぶ。
[Specific example of the process of S33]
The value specification unit 123 specifies the value indicated by the pointer included in the partial image data extracted in the process of S24, for example, according to the following formula 1. Note that, hereinafter, as shown in Fig. 12, the second direction is also referred to as direction DRm, the third direction is also referred to as direction DRM, and the direction (X-axis direction) that is the reference when calculating each angle is also referred to as direction DRX.

Figure 0007589911000001
Figure 0007589911000001

上記の式1において、θpは、方向DRXから方向DRpまで時計回りで進んだ場合の角度を示し、θは、方向DRXから方向DRmまで時計回りで進んだ場合の角度を示し、θは、方向DRXから方向DRMまで時計回りで進んだ場合の角度を示している。また、上記の式1において、vは、指針が指示可能な値の範囲のうちの方向DRpに対応する値を示し、vは、指針が指示可能な値のうちの最小値(方向DRmに対応する値)を示し、vは、指針が指示可能な値のうちの最大値(方向DRMに対応する値)を示している。なお、値特定部123は、θp及びθがθよりも小さい場合、方向DRXから方向DRMまでの角度に360度を加算した角度をθとする。 In the above formula 1, θ p indicates the angle when moving clockwise from the direction DRX to the direction DRp, θ m indicates the angle when moving clockwise from the direction DRX to the direction DRm, and θ M indicates the angle when moving clockwise from the direction DRX to the direction DRM. Also, in the above formula 1, v p indicates a value corresponding to the direction DRp within the range of values that the needle can indicate, v m indicates the minimum value (value corresponding to the direction DRm) among the values that the needle can indicate, and v M indicates the maximum value (value corresponding to the direction DRM) among the values that the needle can indicate. Note that, when θ p and θ M are smaller than θ m , the value specification unit 123 sets θ M to the angle obtained by adding 360 degrees to the angle from the direction DRX to the direction DRM.

具体的に、図12に示すように、例えば、θが135度であって、θが405度であって、θpが215度である場合、値特定部123は、vとして約0.178を算出する。 Specifically, as shown in FIG. 12, for example, when θ m is 135 degrees, θ M is 405 degrees, and θ p is 215 degrees, the value specifying unit 123 calculates v p to be approximately 0.178.

図6に戻り、値出力部124は、S33の処理で特定した指針が指示する値を出力する(S34)。 Returning to FIG. 6, the value output unit 124 outputs the value indicated by the indicator identified in the processing of S33 (S34).

具体的に、値出力部124は、例えば、S33の処理で特定した指針が指示する値を操作端末2に出力する。 Specifically, the value output unit 124 outputs, for example, the value indicated by the indicator identified in the processing of S33 to the operation terminal 2.

なお、値出力部124は、例えば、S33の処理で特定した指針が示す値を用いて予め定められた計算を行い、その算出結果についても操作端末2に出力するものであってもよい。すなわち、値出力部124は、例えば、S33の処理で特定した指針が示す値を用いることによって、工場内において異常が発生している否かを判定するための計算を行い、その算出結果を操作端末2に出力するものであってもよい。 The value output unit 124 may perform a predetermined calculation using the value indicated by the pointer identified in the processing of S33, and output the calculation result to the operation terminal 2. That is, the value output unit 124 may perform a calculation to determine whether or not an abnormality has occurred in the factory, for example, by using the value indicated by the pointer identified in the processing of S33, and output the calculation result to the operation terminal 2.

このように、本実施の形態における情報処理装置1は、指針を有するアナログメーターが映る検査対象画像データから、そのアナログメーターについての部分画像データを抽出する。そして、情報処理装置1は、抽出した部分画像データに基づいて、その部分画像データに含まれる指針が指示する第1の向きを特定する。 In this manner, the information processing device 1 in this embodiment extracts partial image data for an analog meter having a pointer from the inspection target image data showing the analog meter. Then, based on the extracted partial image data, the information processing device 1 identifies the first orientation indicated by the pointer included in the partial image data.

さらに、情報処理装置1は、特定した第1の向きと、アナログメーターにおいて指針が指示可能な値の範囲とに基づいて、部分画像データに含まれる指針が指示する値を特定する。その後、情報処理装置1は、特定した指針が指示する値を出力する。 Furthermore, the information processing device 1 identifies the value indicated by the needle included in the partial image data based on the identified first orientation and the range of values that the needle can indicate on the analog meter. Then, the information processing device 1 outputs the identified value indicated by the needle.

すなわち、本実施の形態における情報処理装置1は、工場内における各アナログメーターの画像データを入力とすることによって、各アナログメーターが示している値の特定(読み取り)を自動的に行う。 In other words, the information processing device 1 in this embodiment automatically identifies (reads) the values indicated by each analog meter by inputting image data of each analog meter in the factory.

これにより、情報処理装置1は、例えば、各アナログメーターが示す値を用いることで、工場内において異常が発生している確率を算出(推定)することが可能になる。そして、情報処理装置1は、例えば、算出した確率に基づいて工場内において異常が発生していると判定した場合、作業者に対して必要な作業(操作)を行う旨の通知を行うことが可能になる。 This allows the information processing device 1 to, for example, calculate (estimate) the probability that an abnormality has occurred in the factory by using the values indicated by each analog meter. Then, for example, when the information processing device 1 determines that an abnormality has occurred in the factory based on the calculated probability, it becomes possible to notify workers to perform the necessary work (operation).

また、情報処理装置1は、各アナログメーターの指針が示す値の読み取りを自動的に行うことで、この読み取りを作業者が行うことによる人為的なミス(読み取りミスや値の入力ミス等)の発生を防止することが可能になる。 In addition, by automatically reading the values indicated by the needles of each analog meter, the information processing device 1 can prevent the occurrence of human errors (such as reading errors or value input errors) that would occur if an operator were to perform this reading.

ここで、情報処理装置1は、S22の処理において、撮像装置(図示しない)が撮像したアナログメーターについての動画データを取得するものであってもよい。そして、情報処理装置1は、S23からS34の処理を、動画データに含まれる複数の検査対象画像データ(例えば、連続する10フレームに対応する複数の検査対象画像データ)のそれぞれについて処理を行うものであってよい。 Here, the information processing device 1 may acquire video data of an analog meter captured by an imaging device (not shown) in the process of S22. The information processing device 1 may then perform the processes of S23 to S34 on each of a plurality of pieces of inspection target image data (e.g., a plurality of pieces of inspection target image data corresponding to 10 consecutive frames) included in the video data.

具体的に、情報処理装置1は、この場合、例えば、S33の処理で算出した値(複数の検査対象画像データのそれぞれについて算出した値)の標準偏差を算出する。その結果、標準偏差が閾値を上回っていると判定した場合、情報処理装置1は、S22の処理で取得した動画データに映るアナログメーターの指針が振動していると判定し、S33の処理で算出した値の平均値を出力する。 Specifically, in this case, the information processing device 1 calculates, for example, the standard deviation of the values calculated in the process of S33 (the values calculated for each of the multiple test target image data). If it determines that the standard deviation exceeds a threshold value, the information processing device 1 determines that the needle of the analog meter shown in the video data acquired in the process of S22 is vibrating, and outputs the average value of the values calculated in the process of S33.

これにより、情報処理装置1は、アナログメーターの指針が振動しているか否かについての判定を行うことが可能になる。また、情報処理装置1は、アナログメーターの指針が振動している場合であっても、指針が指し示す値を精度良く出力することが可能になる。 This allows the information processing device 1 to determine whether or not the needle of the analog meter is vibrating. Furthermore, even if the needle of the analog meter is vibrating, the information processing device 1 can output the value indicated by the needle with high accuracy.

なお、情報処理装置1は、この場合、例えば、S33の処理で算出した値の平均値に加えて、S33の処理で算出した値の標準偏差や、S22の処理で取得した動画データに映るアナログメーターの指針が振動していることを示す情報を出力するものであってもよい。また、情報処理装置1は、S33の処理で算出した値の標準偏差が閾値を上回っているか否かについての判定に代えて、S33の処理で算出した値のうちの最大値と最小値との差が閾値を上回っているか否かについての判定を行うものであってもよい。 In this case, the information processing device 1 may output, for example, in addition to the average value of the values calculated in the process of S33, the standard deviation of the values calculated in the process of S33, or information indicating that the needle of the analog meter shown in the video data acquired in the process of S22 is vibrating. Furthermore, instead of determining whether the standard deviation of the values calculated in the process of S33 exceeds a threshold value, the information processing device 1 may determine whether the difference between the maximum and minimum values of the values calculated in the process of S33 exceeds a threshold value.

さらに、情報処理装置1は、標準偏差が閾値を上回っていないと判定した場合においても、S33の処理で算出した値の平均値を出力するものであってもよい。これにより、情報処理装置1は、アナログメーターの指針が指し示す値の推定精度を高めることが可能になる。 Furthermore, the information processing device 1 may output the average value of the values calculated in the process of S33 even when it is determined that the standard deviation does not exceed the threshold value. This enables the information processing device 1 to improve the accuracy of estimating the value indicated by the needle of the analog meter.

[ホモグラフィー変換]
次に、部分画像データのホモグラフィー変換について説明を行う。
[Homography Transformation]
Next, homography transformation of partial image data will be described.

情報処理装置1は、例えば、S31の処理を行う前に、S24の処理で抽出した部分画像データについてホモグラフィー変換を行うものであってもよい。具体的に、情報処理装置1は、例えば、S24の処理で抽出した部分画像データに映るアナログメーターにおける1以上の目印が予め指定された位置に移動するように、ホモグラフィー変換を行うものであってよい。そして、情報処理装置1は、S31の処理において、ホモグラフィー変換を行った部分画像データを第2学習モデルに入力するものであってもよい。 The information processing device 1 may, for example, perform homography transformation on the partial image data extracted in the process of S24 before performing the process of S31. Specifically, the information processing device 1 may, for example, perform homography transformation so that one or more markers on an analog meter shown in the partial image data extracted in the process of S24 move to a pre-specified position. Then, in the process of S31, the information processing device 1 may input the partial image data that has been subjected to homography transformation to a second learning model.

これにより、情報処理装置は、例えば、傾いた状態のアナログメーターが映る検知対象画像データを、正しい姿勢(真正面から撮影した場合と同じ姿勢)のアナログメーターが映る検知対象画像データに変換することが可能になる。そのため、情報処理装置1は、傾いた状態のアナログメーターが映る検知対象画像データを取得した場合であっても、指針が指し示す値の推定精度の低下を抑えることが可能になる。以下、ホモグラフィー変換の具体例について説明を行う。 This enables the information processing device to convert, for example, detection target image data showing a tilted analog meter into detection target image data showing the analog meter in the correct orientation (the same orientation as when photographed from directly in front). Therefore, even when the information processing device 1 acquires detection target image data showing a tilted analog meter, it is possible to suppress any decrease in the estimation accuracy of the value indicated by the needle. Specific examples of homography transformation are described below.

[ホモグラフィー変換の具体例]
図13及び図14は、ホモグラフィー変換の具体例について説明する図である。
[Specific example of homography transformation]
13 and 14 are diagrams for explaining a specific example of homography transformation.

作業者は、例えば、図13に示すように、撮像装置(図示しない)による撮像対象であるアナログメーターの外枠FLに、アナログメーターにおいて用いられていない色のシールである4つの目印MR31、MR32、MR33及びMR34を貼り付ける。 For example, as shown in FIG. 13, the worker attaches four markers MR31, MR32, MR33, and MR34, which are stickers of a color not used in the analog meter, to the outer frame FL of the analog meter that is to be imaged by an imaging device (not shown).

具体的に、作業者は、図13に示すように、例えば、目印MR31と目印MR33とを結ぶ直線(以下、第1の直線とも呼ぶ)が地面と垂直になるように、かつ、その第1の直線が指針の基端部(指針の回転軸)を通るように、検査対象のアナログメーターに対して目印MR31及びMR33を貼り付ける。また、作業者は、例えば、目印MR32と目印MR34とを結ぶ直線(以下、第2の直線とも呼ぶ)が地面と水平になるように、かつ、その第2の直線が指針の基端部を通るように、検査対象のアナログメーターに対して目印MR32及びMR34を貼り付ける。 Specifically, as shown in Figure 13, the worker attaches marks MR31 and MR33 to the analog meter to be inspected so that the line connecting marks MR31 and MR33 (hereinafter also referred to as the first line) is perpendicular to the ground and the first line passes through the base end of the pointer (the axis of rotation of the pointer). The worker also attaches marks MR32 and MR34 to the analog meter to be inspected so that the line connecting marks MR32 and MR34 (hereinafter also referred to as the second line) is horizontal to the ground and the second line passes through the base end of the pointer.

そして、図14(A)に示すように、例えば、S24の処理において、左に傾いたアナログメーターが映る部分画像データDT31を抽出した場合、情報処理装置1は、図14(B)に示すように、例えば、第1の直線が部分画像データの横の辺と並行になるように、かつ、第2の直線が部分画像データの縦の辺と並行になるようにホモグラフィー変換を行い、部分画像データDT31aを生成する。その後、情報処理装置1は、S31の処理において、部分画像データDT31aを第2学習モデルに入力する。 As shown in Fig. 14(A), for example, when partial image data DT31 showing an analog meter tilted to the left is extracted in the processing of S24, the information processing device 1 performs homography transformation so that, for example, the first straight line is parallel to the horizontal side of the partial image data and the second straight line is parallel to the vertical side of the partial image data, as shown in Fig. 14(B), to generate partial image data DT31a. After that, the information processing device 1 inputs the partial image data DT31a to the second learning model in the processing of S31.

同様に、図14(C)に示すように、例えば、S24の処理において、右に傾いたアナログメーターが映る部分画像データDT32を抽出した場合、情報処理装置1は、図14(D)に示すように、例えば、第1の直線が部分画像データの横の辺と並行になるように、かつ、第2の直線が部分画像データの縦の辺と並行になるようにホモグラフィー変換を行い、部分画像データDT32aを生成する。その後、情報処理装置1は、S31の処理において、部分画像データDT32aを第2学習モデルに入力する。 Similarly, as shown in FIG. 14(C), for example, when partial image data DT32 showing an analog meter tilted to the right is extracted in the processing of S24, the information processing device 1 performs homography transformation so that, for example, the first straight line is parallel to the horizontal side of the partial image data and the second straight line is parallel to the vertical side of the partial image data, as shown in FIG. 14(D), to generate partial image data DT32a. After that, the information processing device 1 inputs the partial image data DT32a to the second learning model in the processing of S31.

[ホモグラフィー変換を行った場合の第2学習モデルの推定結果]
次に、ホモグラフィー変換を行った場合における第2学習モデルの推定結果について説明を行う。図15及び図16は、ホモグラフィー変換を行った場合における第2学習モデルの推定結果について説明する図である。具体的に、図15(A)は、ホモグラフィー変換を行わなかった場合における第2学習モデルの推定結果を示す散布図であり、図15(B)は、ホモグラフィー変換を行わなかった場合における第2学習モデルの推定結果を示すヒストグラムである。また、図16(A)は、ホモグラフィー変換を行った場合における第2学習モデルの推定結果を示す散布図であり、図16(B)は、ホモグラフィー変換を行った場合における第2学習モデルの推定結果を示すヒストグラムである。
[Estimation results of the second learning model when homography transformation is performed]
Next, the estimation result of the second learning model when homography conversion is performed will be described. FIG. 15 and FIG. 16 are diagrams for explaining the estimation result of the second learning model when homography conversion is performed. Specifically, FIG. 15(A) is a scatter diagram showing the estimation result of the second learning model when homography conversion is not performed, and FIG. 15(B) is a histogram showing the estimation result of the second learning model when homography conversion is not performed. Also, FIG. 16(A) is a scatter diagram showing the estimation result of the second learning model when homography conversion is performed, and FIG. 16(B) is a histogram showing the estimation result of the second learning model when homography conversion is performed.

なお、図15(A)及び図16(A)に示す散布図の横軸は、アナログメーターが実際に指し示した値を示しており、縦軸は、S33の処理で特定した値とアナログメーターが実際に指し示した値との誤差(エラー)を示している。また、図15(B)及び図16(B)に示すヒストグラムの横軸は、S33の処理で特定した値とアナログメーターが実際に指し示した値との誤差(エラー)を示しており、縦軸は、第2学習モデルに入力した部分画像データの数を示している。 The horizontal axis of the scatter plots shown in Figures 15(A) and 16(A) indicates the value actually indicated by the analog meter, and the vertical axis indicates the error between the value identified in the processing of S33 and the value actually indicated by the analog meter. The horizontal axis of the histograms shown in Figures 15(B) and 16(B) indicates the error between the value identified in the processing of S33 and the value actually indicated by the analog meter, and the vertical axis indicates the number of partial image data input to the second learning model.

具体的に、図16に示す各図は、図15に示す各図と比較した場合に、例えば、S33の処理で特定した値とアナログメーターが実際に指し示した値との誤差が0であった部分画像データの数が増えていることを示している。また、図16に示す各図は、図15に示す各図と比較した場合に、部分画像データのそれぞれに対応する誤差が全体として小さくなっていることを示している。 Specifically, when compared with the diagrams shown in FIG. 15, the diagrams shown in FIG. 16 show that, for example, the number of partial image data in which the error between the value identified in the processing of S33 and the value actually indicated by the analog meter was 0 has increased. Also, when compared with the diagrams shown in FIG. 15, the diagrams shown in FIG. 16 show that the errors corresponding to each of the partial image data have become smaller overall.

すなわち、図15及び図16に示す例は、S24の処理で抽出した部分画像データについてホモグラフィー変換を行った方が、第2学習モデルの推定精度が向上することを示している。 In other words, the examples shown in Figures 15 and 16 show that performing homography transformation on the partial image data extracted in the process of S24 improves the estimation accuracy of the second learning model.

1:情報処理装置
2:操作端末
101:CPU
102:メモリ
103:通信インタフェース
104:記憶媒体
105:バス
1: Information processing device 2: Operation terminal 101: CPU
102: Memory 103: Communication interface 104: Storage medium 105: Bus

Claims (18)

指針を有する表示器についての複数の学習用画像データのそれぞれに対し、各学習用画像データに含まれる前記指針の向きを示す情報を付加することによって、複数の学習データを生成し、
生成した前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成し、
指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出し、
抽出した前記部分画像データを入力することに伴って前記学習モデルから出力される値を取得し、
取得した前記値から前記部分画像データに含まれる前記指針の長さを算出し、
算出した前記長さが所定の範囲内にある場合、取得した前記値から、前記部分画像データに含まれる前記指針が指示する第1の向きを特定し、
特定した前記第1の向きと、前記部分画像データに含まれる前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定し、
特定した前記指針が指示する値を出力する、
処理をコンピュータに実行させることを特徴とする指示値読取プログラム。
generating a plurality of learning data by adding information indicating the orientation of a pointer included in each of a plurality of learning image data for a display device having a pointer;
generating a learning model by performing machine learning using the generated plurality of learning data;
Extracting partial image data of a display having a pointer from inspection object image data including the display;
Obtaining a value output from the learning model in response to inputting the extracted partial image data;
Calculating the length of the pointer included in the partial image data from the acquired value;
If the calculated length is within a predetermined range, a first direction indicated by the pointer included in the partial image data is identified from the acquired value ;
identifying a value indicated by the pointer included in the partial image data based on the identified first orientation and a range of values that the pointer can indicate on the display included in the partial image data;
outputting a value indicated by the identified indicator;
An indication reading program for causing a computer to execute a process.
請求項1において、さらに、
指針を有する表示器が含まれる複数の学習用画像データのそれぞれに対し、各学習用画像データに含まれる前記表示器の位置情報を付加することによって、複数の学習データを生成し、
生成した前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成する、
処理をコンピュータに実行させ、
前記部分画像データを抽出する処理では、
前記検査対象画像データを入力することに伴って前記学習モデルから出力される値を取得し、
取得した前記値に対応する前記部分画像データを前記検査対象画像データから抽出する、
ことを特徴とする指示値読取プログラム。
In claim 1, further comprising:
generating a plurality of learning data by adding position information of a display having a pointer, the position information being included in each of the plurality of learning image data;
generating a learning model by performing machine learning using the generated plurality of learning data;
The process is executed by a computer,
In the process of extracting the partial image data,
Obtaining a value output from the learning model in response to input of the inspection object image data;
extracting the partial image data corresponding to the acquired value from the inspection object image data;
An indication value reading program comprising:
請求項において、
前記第1の向きを特定する処理では、
前記長さが前記所定の範囲内にない場合、前記値から指針の向きを特定する処理を行う前に、前記部分画像データを抽出する処理と前記値を取得する処理とを再度行う、
ことを特徴とする指示値読取プログラム。
In claim 1 ,
In the process of identifying the first orientation,
if the length is not within the predetermined range, the process of extracting the partial image data and the process of obtaining the value are performed again before the process of identifying the orientation of the pointer from the value is performed.
An indication value reading program comprising:
請求項1において、
前記指針が指示する値を特定する処理では、前記指針が指示可能な値の範囲に含まれる最小値と、前記指針が指示可能な値の範囲に含まれる最大値と、前記第1の向きと、前記指針が前記最小値を指示する場合に前記指針が指示する第2の向きと、前記指針が前記最大値を指示する場合における前記指針が指示する第3の向きとから、前記指針が指示する値を特定する、
ことを特徴とする指示値読取プログラム。
In claim 1,
In the process of identifying the value indicated by the pointer, the value indicated by the pointer is identified from a minimum value included in a range of values that the pointer can indicate, a maximum value included in a range of values that the pointer can indicate, the first orientation, a second orientation indicated by the pointer when the pointer indicates the minimum value, and a third orientation indicated by the pointer when the pointer indicates the maximum value.
An indication value reading program comprising:
請求項において、
前記指針が指示する値を特定する処理では、
前記第1の向きに対応する角度から前記第2の向きに対応する角度を減算することによって第1の値を算出し、
前記第3の向きに対応する角度から前記第2の向きに対応する角度を減算することによって第2の値を算出し、
前記最大値から前記最小値を減算することによって第3の値を算出し、
前記第1の値を前記第2の値で除算することによって第4の値を算出し、
前記第4の値と前記第3の値とを乗算することによって第5の値を算出し、
前記第5の値に前記最小値を加算することによって前記指針が指示する値を算出する、
ことを特徴とする指示値読取プログラム。
In claim 4 ,
In the process of identifying the value indicated by the guideline,
calculating a first value by subtracting an angle corresponding to the second orientation from an angle corresponding to the first orientation;
calculating a second value by subtracting an angle corresponding to the second orientation from an angle corresponding to the third orientation;
calculating a third value by subtracting the minimum value from the maximum value;
calculating a fourth value by dividing the first value by the second value;
calculating a fifth value by multiplying the fourth value and the third value;
calculating a value indicated by the pointer by adding the minimum value to the fifth value;
An indication value reading program comprising:
請求項1において、さらに、
撮像装置によって撮像された前記表示器についての前記検査対象画像データを取得し、
取得した前記検査対象画像データについてホモグラフィー変換を行う、
処理をコンピュータに実行させ、
前記部分画像データを抽出する処理では、ホモグラフィー変換を行った前記検査対象画像データから前記部分画像データの抽出を行う、
ことを特徴とする指示値読取プログラム。
In claim 1, further comprising:
acquiring the inspection object image data of the display unit captured by an imaging device;
performing homography transformation on the acquired inspection object image data;
The process is executed by a computer,
In the process of extracting the partial image data, the partial image data is extracted from the inspection object image data that has been subjected to homography transformation.
An indication value reading program comprising:
請求項において、
前記ホモグラフィー変換を行う処理では、
前記表示器における1以上の目印を特定し、
特定した前記1以上の目印が予め指定された位置に移動するように、前記検査対象画像データについてホモグラフィー変換を行う、
ことを特徴とする指示値読取プログラム。
In claim 6 ,
In the process of performing the homography transformation,
Identifying one or more indicia on the indicator;
performing a homography transformation on the inspection object image data so that the one or more identified landmarks are moved to a pre-specified position;
An indication value reading program comprising:
請求項1において、さらに、
前記部分画像データを抽出する処理と、前記第1の向きを特定する処理と、前記指針が指示する値を特定する処理とを、複数の前記検査対象画像データについて行い、
前記指針が指示する値を特定する処理において特定した前記指針が指示する値の平均値を算出する、
処理をコンピュータに実行させ、
前記指針が指示する値を出力する処理では、算出した前記平均値を出力する、
ことを特徴とする指示値読取プログラム。
In claim 1, further comprising:
performing the process of extracting the partial image data, the process of identifying the first orientation, and the process of identifying the value indicated by the pointer for a plurality of the inspection object image data;
calculating an average value of the values indicated by the indicator identified in the process of identifying the values indicated by the indicator;
The process is executed by a computer,
In the process of outputting the value indicated by the pointer, the calculated average value is output.
An indication value reading program comprising:
請求項において、さらに、
前記指針が指示する値を特定する処理において特定した前記指針が指示する値の標準偏差を算出する、
処理をコンピュータに実行させ、
前記指針は指示する値を出力する処理では、算出した前記標準偏差が所定の閾値以上で
ある場合に、前記平均値の出力を行う、
ことを特徴とする指示値読取プログラム。
In claim 8 , further comprising:
Calculating a standard deviation of the value indicated by the indicator identified in the process of identifying the value indicated by the indicator.
The process is executed by a computer,
In the process of outputting the value indicated by the indicator, when the calculated standard deviation is equal to or greater than a predetermined threshold value, the average value is output.
An indication value reading program comprising:
請求項において、さらに、
前記指針が指示する値を特定する処理において特定した前記指針が指示する値の標準偏差を算出する、
処理をコンピュータに実行させ、
前記指針は指示する値を出力する処理では、前記平均値に加えて前記標準偏差を出力する、
ことを特徴とする指示値読取プログラム。
In claim 8 , further comprising:
Calculating a standard deviation of the value indicated by the indicator identified in the process of identifying the value indicated by the indicator.
The process is executed by a computer,
In the process of outputting the value indicated by the pointer, the standard deviation is output in addition to the average value.
An indication value reading program comprising:
請求項において、さらに、
前記指針が指示する値を特定する処理において特定した前記指針が指示する値の標準偏差を算出する、
処理をコンピュータに実行させ、
前記指針は指示する値を出力する処理では、
算出した前記標準偏差が所定の閾値以上である場合、前記平均値に加えて前記指針が振動していることを示す情報を出力する、
ことを特徴とする指示値読取プログラム。
In claim 8 , further comprising:
Calculating a standard deviation of the value indicated by the indicator identified in the process of identifying the value indicated by the indicator.
The process is executed by a computer,
In the process of outputting the value indicated by the indicator,
When the calculated standard deviation is equal to or greater than a predetermined threshold, in addition to the average value, information indicating that the pointer is vibrating is output.
An indication value reading program comprising:
請求項において、さらに、
前記指針が指示する値を特定する処理において特定した前記指針が指示する値のうちの最大値と最小値との差を算出する、
処理をコンピュータに実行させ、
前記指針は指示する値を出力する処理では、
算出した前記差が所定の閾値以上である場合に、前記平均値の出力を行う、
ことを特徴とする指示値読取プログラム。
In claim 8 , further comprising:
calculating a difference between a maximum value and a minimum value among the values indicated by the indicator identified in the process of identifying the value indicated by the indicator;
The process is executed by a computer,
In the process of outputting the value indicated by the indicator,
When the calculated difference is equal to or greater than a predetermined threshold, the average value is output.
An indication value reading program comprising:
請求項において、さらに、
前記指針が指示する値を特定する処理において特定した前記指針が指示する値のうちの最大値と最小値との差を算出する、
処理をコンピュータに実行させ、
前記指針は指示する値を出力する処理では、
算出した前記差が所定の閾値以上である場合、前記平均値に加えて前記指針が振動していることを示す情報を出力する、
ことを特徴とする指示値読取プログラム。
In claim 8 , further comprising:
calculating a difference between a maximum value and a minimum value among the values indicated by the indicator identified in the process of identifying the value indicated by the indicator;
The process is executed by a computer,
In the process of outputting the value indicated by the indicator,
When the calculated difference is equal to or greater than a predetermined threshold, in addition to the average value, information indicating that the pointer is vibrating is output.
An indication value reading program comprising:
指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出し、Extracting partial image data of a display having a pointer from inspection object image data including the display;
抽出した前記部分画像データに基づいて、前記部分画像データに含まれる前記指針が指示する第1の向きを特定し、Identifying a first direction indicated by the pointer included in the partial image data based on the extracted partial image data;
特定した前記第1の向きと、前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定し、identifying a value indicated by the pointer included in the partial image data based on the identified first orientation and a range of values that the pointer can indicate on the display device;
前記部分画像データを抽出する処理と、前記第1の向きを特定する処理と、前記指針が指示する値を特定する処理とを、複数の前記検査対象画像データについて行い、performing the process of extracting the partial image data, the process of identifying the first orientation, and the process of identifying the value indicated by the pointer for a plurality of the inspection object image data;
特定した前記指針が指示する値の平均値を算出し、Calculating the average value of the values indicated by the identified guidelines;
特定した前記指針が指示する値の標準偏差を算出し、Calculate the standard deviation of the values indicated by the identified guidelines;
算出した前記標準偏差が所定の閾値以上である場合、算出した前記平均値を出力する、If the calculated standard deviation is equal to or greater than a predetermined threshold, output the calculated average value.
処理をコンピュータに実行させることを特徴とする指示値読取プログラム。An indication reading program for causing a computer to execute a process.
指針を有する表示器についての複数の学習用画像データのそれぞれに対し、各学習用画像データに含まれる前記指針の向きを示す情報を付加することによって、複数の学習データを生成するデータ生成部と、
生成した前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成するモデル生成部と、
指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出する部分画像抽出部と、
抽出した前記部分画像データを入力することに伴って前記学習モデルから出力される値を取得し、取得した前記値から前記部分画像データに含まれる前記指針の長さを算出し、算出した前記長さが所定の範囲内にある場合、取得した前記値から、前記部分画像データに含まれる前記指針が指示する第1の向きを特定する方向特定部と、
特定した前記第1の向きと、前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定する値特定部と、
特定した前記指針が指示する値を出力する値出力部と、を有する、
ことを特徴とする指示値読取装置。
a data generating unit that generates a plurality of learning data by adding information indicating the orientation of a pointer included in each of a plurality of learning image data for a display device having a pointer;
a model generation unit that generates a learning model by performing machine learning using the generated plurality of learning data;
a partial image extraction unit that extracts partial image data of a display having a pointer from inspection object image data including the display;
a direction specification unit that obtains a value output from the learning model in response to input of the extracted partial image data, calculates a length of the pointer included in the partial image data from the obtained value, and specifies a first direction indicated by the pointer included in the partial image data from the obtained value if the calculated length is within a predetermined range ;
a value specifying unit that specifies a value indicated by the pointer included in the partial image data based on the specified first orientation and a range of values that the pointer can indicate on the display device;
A value output unit that outputs a value indicated by the specified pointer.
An indication reading device characterized by the above.
指針を有する表示器が含まれる複数の検査対象画像データごとに、各検査対象画像データから、前記表示器についての部分画像データを抽出する部分画像抽出部と、a partial image extracting unit for extracting partial image data of a display having a pointer from each of a plurality of pieces of inspection object image data including the display;
前記複数の検査対象画像データごとに、抽出した前記部分画像データに基づいて、前記部分画像データに含まれる前記指針が指示する第1の向きを特定する方向特定部と、a direction specifying unit that specifies a first direction indicated by the pointer included in the partial image data based on the extracted partial image data for each of the plurality of inspection object image data;
複数の検査対象画像データごとに、特定した前記第1の向きと、前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定する値特定部と、a value specifying unit that specifies, for each of a plurality of pieces of inspection object image data, a value indicated by the pointer included in the partial image data based on the specified first orientation and a range of values that the pointer can indicate on the display;
特定した前記指針が指示する値の平均値を算出し、特定した前記指針が指示する値の標準偏差を算出し、算出した前記標準偏差が所定の閾値以上である場合、算出した前記平均値を出力する値出力部と、を有する、and a value output unit that calculates an average value of the values indicated by the identified indicator, calculates a standard deviation of the values indicated by the identified indicator, and outputs the calculated average value if the calculated standard deviation is equal to or greater than a predetermined threshold value.
ことを特徴とする指示値読取装置。An indication value reading device.
指針を有する表示器についての複数の学習用画像データのそれぞれに対し、各学習用画像データに含まれる前記指針の向きを示す情報を付加することによって、複数の学習データを生成し、
生成した前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成し、
指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出し、
抽出した前記部分画像データを入力することに伴って前記学習モデルから出力される値を取得し、
取得した前記値から前記部分画像データに含まれる前記指針の長さを算出し、
算出した前記長さが所定の範囲内にある場合、取得した前記値から、前記部分画像データに含まれる前記指針が指示する第1の向きを特定し、
特定した前記第1の向きと、前記部分画像データに含まれる前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定し、
特定した前記指針が指示する値を出力する、
処理をコンピュータ実行ることを特徴とする指示値読取方法。
generating a plurality of learning data by adding information indicating the orientation of a pointer included in each of a plurality of learning image data for a display device having a pointer;
generating a learning model by performing machine learning using the generated plurality of learning data;
Extracting partial image data of a display having a pointer from inspection object image data including the display;
Obtaining a value output from the learning model in response to inputting the extracted partial image data;
Calculating the length of the pointer included in the partial image data from the acquired value;
If the calculated length is within a predetermined range, a first direction indicated by the pointer included in the partial image data is identified from the acquired value ;
identifying a value indicated by the pointer included in the partial image data based on the identified first orientation and a range of values that the pointer can indicate on the display included in the partial image data;
outputting a value indicated by the identified indicator;
A method for reading an indication value, the processing of which is executed by a computer.
指針を有する表示器が含まれる検査対象画像データから、前記表示器についての部分画像データを抽出し、Extracting partial image data of a display having a pointer from inspection object image data including the display;
抽出した前記部分画像データに基づいて、前記部分画像データに含まれる前記指針が指示する第1の向きを特定し、Identifying a first direction indicated by the pointer included in the partial image data based on the extracted partial image data;
特定した前記第1の向きと、前記表示器において前記指針が指示可能な値の範囲とに基づいて、前記部分画像データに含まれる前記指針が指示する値を特定し、identifying a value indicated by the pointer included in the partial image data based on the identified first orientation and a range of values that the pointer can indicate on the display device;
前記部分画像データを抽出する処理と、前記第1の向きを特定する処理と、前記指針が指示する値を特定する処理とを、複数の前記検査対象画像データについて行い、performing the process of extracting the partial image data, the process of identifying the first orientation, and the process of identifying the value indicated by the pointer for a plurality of the inspection object image data;
特定した前記指針が指示する値の平均値を算出し、Calculating the average value of the values indicated by the identified guidelines;
特定した前記指針が指示する値の標準偏差を算出し、Calculate the standard deviation of the values indicated by the identified guidelines;
算出した前記標準偏差が所定の閾値以上である場合、算出した前記平均値を出力する、If the calculated standard deviation is equal to or greater than a predetermined threshold, output the calculated average value.
処理をコンピュータが実行することを特徴とする指示値読取方法。A method for reading an indication value, the processing of which is executed by a computer.
JP2020123114A 2020-07-17 2020-07-17 Indication value reading program, indication value reading device, and indication value reading method Active JP7589911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020123114A JP7589911B2 (en) 2020-07-17 2020-07-17 Indication value reading program, indication value reading device, and indication value reading method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020123114A JP7589911B2 (en) 2020-07-17 2020-07-17 Indication value reading program, indication value reading device, and indication value reading method

Publications (2)

Publication Number Publication Date
JP2022019334A JP2022019334A (en) 2022-01-27
JP7589911B2 true JP7589911B2 (en) 2024-11-26

Family

ID=80203659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020123114A Active JP7589911B2 (en) 2020-07-17 2020-07-17 Indication value reading program, indication value reading device, and indication value reading method

Country Status (1)

Country Link
JP (1) JP7589911B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4317490A1 (en) 2021-03-26 2024-02-07 Yokowo Co., Ltd Probe

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223693A (en) 2002-01-30 2003-08-08 Kyushu Electric Power Co Inc Instrument indication reader
JP2012146154A (en) 2011-01-13 2012-08-02 Metawater Co Ltd Indicated value measurement system
JP2015108548A (en) 2013-12-04 2015-06-11 古河機械金属株式会社 Measuring device for electric characteristics of semiconductor, measuring method for electric characteristics of semiconductor, control device for measuring device for electric characteristics of semiconductor, and computer program
JP2019091301A (en) 2017-11-15 2019-06-13 長野計器株式会社 Reading display system, reading display method and reading value measuring device
JP2019096304A (en) 2017-11-17 2019-06-20 キヤノン株式会社 Image processing device, control method thereof, and program
JP2019105588A (en) 2017-12-14 2019-06-27 キヤノン株式会社 Information processing apparatus, system, information processing method, and program
JP2019204238A (en) 2018-05-22 2019-11-28 富士通コンポーネント株式会社 Instrument reading device and instrument reading method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223693A (en) 2002-01-30 2003-08-08 Kyushu Electric Power Co Inc Instrument indication reader
JP2012146154A (en) 2011-01-13 2012-08-02 Metawater Co Ltd Indicated value measurement system
JP2015108548A (en) 2013-12-04 2015-06-11 古河機械金属株式会社 Measuring device for electric characteristics of semiconductor, measuring method for electric characteristics of semiconductor, control device for measuring device for electric characteristics of semiconductor, and computer program
JP2019091301A (en) 2017-11-15 2019-06-13 長野計器株式会社 Reading display system, reading display method and reading value measuring device
JP2019096304A (en) 2017-11-17 2019-06-20 キヤノン株式会社 Image processing device, control method thereof, and program
JP2019105588A (en) 2017-12-14 2019-06-27 キヤノン株式会社 Information processing apparatus, system, information processing method, and program
JP2019204238A (en) 2018-05-22 2019-11-28 富士通コンポーネント株式会社 Instrument reading device and instrument reading method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Mask RCNN based Automatic Reading Method for Pointer Meter,2019 Chinese Control Conference (CCC),2019年,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8865369
画像処理によるアナログメータ自動読み取り,電気学会論文誌C Vol.129 No.5 IEEJ,2009年05月01日

Also Published As

Publication number Publication date
JP2022019334A (en) 2022-01-27

Similar Documents

Publication Publication Date Title
CA2843892C (en) System and method for remote full field three-dimensional displacement and strain measurements
EP2416113B1 (en) Position and orientation measurement apparatus and position and orientation measurement method
JP2022179757A (en) Design tolerance correction method and measurement system
JP6672673B2 (en) Information processing apparatus, control method, and program
JP2017167624A (en) Image processing device, image processing method, and program
CN108871185B (en) Method, apparatus, apparatus, and computer-readable storage medium for part inspection
CN117115233B (en) Dimension measurement method and device based on machine vision and electronic equipment
JP7589911B2 (en) Indication value reading program, indication value reading device, and indication value reading method
CN112635042B (en) Monitor calibration method, device, equipment and storage medium
CN117392103A (en) Method and system for detecting assembly correctness of machine parts
JP7670261B2 (en) Float meter reading program, float meter reading device, and float meter reading method
CN114846513B (en) Motion analysis system and computer-readable recording medium
US10467745B2 (en) Abnormality detection device, abnormality detection method and non-transitory computer-readable recording medium
US20240151556A1 (en) Analog meter reading system and method
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
CN117252844A (en) Electronic element detection method, device, equipment and storage medium
CN112906681A (en) Meter reading method and device, electronic equipment and storage medium
TWI510758B (en) System and method for measuring contour line of object
CN113295546A (en) FPC microcircuit bending damage degree verification method and device and electronic equipment
WO2020136924A1 (en) Motion analysis device, motion analysis method, and motion analysis program
JP2019106213A5 (en)
JP7450195B2 (en) Position analysis device and method, and camera system
CN119810091B (en) Titanium alloy forging flow optimization method and system based on image processing
JP2024010860A (en) Structure damage indicator
TWI850888B (en) A measurement assistance system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230710

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241105

R150 Certificate of patent or registration of utility model

Ref document number: 7589911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150