JP2019215698A - Image inspection support apparatus and method - Google Patents
Image inspection support apparatus and method Download PDFInfo
- Publication number
- JP2019215698A JP2019215698A JP2018112516A JP2018112516A JP2019215698A JP 2019215698 A JP2019215698 A JP 2019215698A JP 2018112516 A JP2018112516 A JP 2018112516A JP 2018112516 A JP2018112516 A JP 2018112516A JP 2019215698 A JP2019215698 A JP 2019215698A
- Authority
- JP
- Japan
- Prior art keywords
- image
- determination
- unit
- learning
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims description 49
- 238000012790 confirmation Methods 0.000 claims abstract description 39
- 238000013528 artificial neural network Methods 0.000 claims abstract description 33
- 238000010586 diagram Methods 0.000 claims abstract description 25
- 239000000284 extract Substances 0.000 claims abstract description 12
- 238000002372 labelling Methods 0.000 claims description 56
- 238000004458 analytical method Methods 0.000 claims description 50
- 238000012937 correction Methods 0.000 claims description 42
- 238000004364 calculation method Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 36
- 230000006835 compression Effects 0.000 claims description 17
- 238000007906 compression Methods 0.000 claims description 17
- 238000012800 visualization Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 description 29
- 230000008859 change Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 9
- 238000000513 principal component analysis Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 5
- 230000002950 deficient Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 102220536512 THAP domain-containing protein 1_S52A_mutation Human genes 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 102220352372 c.148T>G Human genes 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 102220576448 Alpha-(1,3)-fucosyltransferase 7_S56A_mutation Human genes 0.000 description 1
- 102220479871 Protein FAM180A_S53A_mutation Human genes 0.000 description 1
- 102220536494 THAP domain-containing protein 1_S55A_mutation Human genes 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 102220313179 rs1553259785 Human genes 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
【課題】画像に付されたラベルの誤りを確認する作業を省力化し、その確認に必要な工数と労力を削減することができる画像検査支援装置を提供する。【解決手段】画像検査支援装置1は、製品の良否を判別する画像検査装置の学習に用いられた画像を学習してニューラルネットワークを構築し、学習済みのニューラルネットワークを用いて判定用の画像の特徴量を抽出する。画像検査支援装置1は、抽出された判定用の画像の特徴量に基づき画像間の相関性を示す指標値である類似度を算出する。そして、画像検査支援装置1は、算出された類似度と判定用の画像に付されたラベルとに基づいて、対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定する。【選択図】 図3PROBLEM TO BE SOLVED: To provide an image inspection support device capable of saving labor for confirming an error in a label attached to an image and reducing man-hours and labor required for the confirmation. An image inspection support apparatus 1 constructs a neural network by learning an image used for learning of an image inspection apparatus that determines the quality of a product, and uses a learned neural network to generate an image for determination. Extract feature quantities. The image inspection support device 1 calculates the degree of similarity, which is an index value indicating the correlation between the images, based on the feature amount of the extracted determination images. Then, the image inspection support apparatus 1 determines whether or not confirmation is required to correct the label attached to the target determination image based on the calculated similarity and the label attached to the determination image. To judge. [Selection diagram]
Description
本発明は、画像検査支援装置および方法に関し、特に画像検査に用いる画像に付されたラベルの確認を支援する技術に関する。 The present invention relates to an image inspection support apparatus and method, and more particularly, to a technique for supporting confirmation of a label attached to an image used for image inspection.
従来より、人が目視で行っていた製品の検査を自動化する手法として、検査対象の画像を用いて製品が良品であるか不良品であるかを判別する画像検査が知られている。 2. Description of the Related Art Conventionally, as a technique for automating inspection of a product visually performed by a person, an image inspection for determining whether a product is a non-defective product or a non-defective product using an image to be inspected is known.
近年、ディープラーニングに代表される機械学習の進展により、学習型の画像検査手法が開発されている。これは、事前に良品、不良品の区別がラベル付けされた画像を用いて良品と不良品との特徴の違いを学習し、学習した結果を用いて製品の検査を行うものである。この手法は、検査対象や画像処理に関する深い知識がなくても、学習用の画像を用意すれば画像検査が可能という長所がある。 In recent years, with the progress of machine learning represented by deep learning, a learning-type image inspection technique has been developed. In this method, the difference between the characteristics of a good product and a bad product is learned using an image in which the distinction between the good product and the bad product is labeled in advance, and a product inspection is performed using the learned result. This method has an advantage that an image inspection can be performed if an image for learning is prepared without deep knowledge about an inspection object and image processing.
学習には、良品または不良品の区別がラベル付けされた画像が必要である。このようなデータは自動で生成できないことも多く、人が目視で検査した結果を用いて画像にラベル付けしなければならないことも多い。 Learning requires images labeled with good or bad discrimination. In many cases, such data cannot be automatically generated, and it is often necessary to label images using the result of a visual inspection by a person.
画像を用いて製品が良品か不良品であるかを判別する画像検査システムにおいて、アルゴリズムに機械学習を用いる場合、画像に付されたラベルの正確さは判別性能に大きく影響する。しかし、前述のように画像に対するラベル付けを人手で行う場合、ラベル付けにミスが生じやすい。また、一度画像にラベル付けをしてしまうと、その後の工程で直接ラベル付けされた画像を確認することはほとんどない。そのため、そのミスに気付かずに学習に使用してしまい、判別性能に大きく影響を与えてしまうことがある。 When machine learning is used for an algorithm in an image inspection system that determines whether a product is a good product or a defective product using an image, the accuracy of the label attached to the image greatly affects the determination performance. However, when labeling images is performed manually as described above, errors in labeling are likely to occur. Also, once an image has been labeled, it is unlikely that the directly labeled image will be confirmed in subsequent steps. For this reason, the user may use the information for learning without noticing the mistake, which may greatly affect the discrimination performance.
従来の学習型の画像検査システムにおいて、ラベル付けの誤りに起因した判別精度の低下を抑制するためには、そのようなラベル付けの誤りを確認する作業が必要となる。一般にディープラーニングを用いた機械学習には大量のデータが必要である。学習型の画像検査システムにおいても大量の画像データが用意されることから、これらの画像の全てを一枚一枚確認する必要がある。しかし、この大量の画像を作業者が目視で確認するには、多大な工数と労力が必要となる問題があった。 In a conventional learning-type image inspection system, in order to suppress a decrease in discrimination accuracy due to a labeling error, an operation of confirming such labeling error is required. Generally, machine learning using deep learning requires a large amount of data. Since a large amount of image data is prepared even in a learning type image inspection system, it is necessary to check all of these images one by one. However, there is a problem that a large number of man-hours and labor are required for an operator to visually check this large amount of images.
本発明は、上述した課題を解決するためになされたものであり、画像に付されたラベルの誤りを確認する作業を省力化し、その確認に必要な工数と労力を削減することができる画像検査支援装置を提供する。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and can reduce the labor required to confirm an error of a label attached to an image, and can reduce the man-hour and labor required for the confirmation. Provide a support device.
上述した課題を解決するために、本発明に係る画像検査支援装置は、学習型の画像検査装置の学習で用いられる画像に付されたラベルの確認を支援する画像検査支援装置であって、学習および判定に用いられる画像を取得する画像取得部と、取得された学習用の画像に基づいてニューラルネットワークの学習を行い、前記学習用の画像が復元できる特徴量を出力する学習済みのニューラルネットワークを構築する学習部と、前記学習済みのニューラルネットワークを用いて、取得された判定用の画像の特徴量を抽出し、その特徴量から算出された、対象とする判定用の画像と他の判定用の画像のそれぞれとの互いの相関性を示す指標値に基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定して判定結果を出力する判定部とを備え、前記取得された判定用の画像は、予め付与されているラベルを含むことを特徴とする。 In order to solve the above-described problem, an image inspection support device according to the present invention is an image inspection support device that supports confirmation of a label attached to an image used in learning of a learning-type image inspection device. And an image acquisition unit that acquires an image used for determination, and a neural network that performs learning of a neural network based on the acquired learning image, and outputs a feature amount that can restore the learning image. Using the learning unit to be constructed and the learned neural network, the feature amount of the acquired determination image is extracted, and the target determination image and other determination images calculated from the feature amount are extracted. Based on the index value indicating the mutual correlation with each of the images, the necessity of confirmation for correcting the label attached to the target image for determination is determined, and the determination is made. And a determination section for outputting an image for determination of the obtained is characterized in that it comprises a label that has previously been granted.
また、本発明に係る画像検査支援装置において、前記学習部は、前記学習用の画像を入力として、畳み込み層の演算を行い、前記学習用の画像の特徴量を抽出する第1特徴量抽出部と、前記第1特徴量抽出部によって抽出された前記特徴量を入力として、前記畳み込み層に対応する逆構造を有する逆畳み込み層の演算を行い、前記学習用の画像が復元された復元画像を出力する画像復元部と、前記第1特徴量抽出部に入力された前記学習用の画像と、前記復元画像との誤差を算出する誤差算出部と、算出された前記誤差がより小さくなるように、誤差逆伝搬法を用いて前記畳み込み層および前記逆畳み込み層を学習する誤差逆伝搬部と、を備え、前記判定部は、前記判定用の画像を入力として、前記学習部による学習で得られた学習済みの畳み込み層の演算を行い、前記判定用の画像の特徴量を抽出する第2特徴量抽出部と、前記第2特徴量抽出部によって抽出された前記特徴量に基づいて前記指標値を算出する類似度算出部と、前記指標値より、前記対象とする判定用の画像と類似する前記他の判定用の画像が存在し、かつ、その類似する前記他の判定用の画像に付されたラベルと、前記対象とする判定用の画像に付されたラベルとが互いに異なる場合には、前記対象とする判定用の画像に付されたラベルは修正のための確認が必要であると判定する分析部と、前記分析部による判定結果を出力する結果出力部と、を備えていてもよい。 Further, in the image inspection support apparatus according to the present invention, the learning unit receives the learning image as an input, calculates a convolutional layer, and extracts a feature amount of the learning image. And performing an operation of a deconvolution layer having an inverse structure corresponding to the convolution layer, using the feature amount extracted by the first feature amount extraction unit as an input, and obtaining a restored image in which the learning image is restored. An image restoration unit to be output, an error calculation unit that calculates an error between the learning image input to the first feature amount extraction unit, and the restored image, and the calculated error is reduced. An error back-propagation unit that learns the convolutional layer and the deconvolutional layer using an error back-propagation method, wherein the determination unit is obtained by learning by the learning unit using the image for determination as an input. Learned tatami mats A second feature value extraction unit that performs an operation of the embedded layer and extracts a feature value of the image for determination, and a similarity that calculates the index value based on the feature value extracted by the second feature value extraction unit. The degree calculation unit, from the index value, there is the other determination image similar to the target determination image, and a label attached to the similar other determination image. When the label attached to the image for determination as the target is different from the label, the analysis unit determines that the label attached to the image for determination as the target needs confirmation for correction. And a result output unit for outputting a determination result by the analysis unit.
また、本発明に係る画像検査支援装置において、前記分析部は、前記対象とする判定用の画像と類似する前記他の判定用の画像が存在しない場合に、前記対象とする判定用の画像に付されているラベルについて、修正のための確認をしてもよいと判定してもよい。 Further, in the image inspection support device according to the present invention, the analysis unit may include, when there is no other determination image similar to the target determination image, the target determination image. It may be determined that the attached label may be confirmed for correction.
また、本発明に係る画像検査支援装置において、前記分析部は、前記類似度算出部によって算出された前記指標値を前記判定用の画像毎に保存する類似度保存部と、前記指標値に対してしきい値を設定するしきい値設定部と、前記類似度保存部によって保存された前記指標値と、前記しきい値と、前記判定用の画像に付されたラベルとに基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定するラベル付け判定部と、を備え、前記類似度保存部は、前記判定用の画像毎に、前記指標値を用いて、前記対象とする判定用の画像との類似性がより高い前記他の判定用の画像から順に所定の数だけ選択し、選択した前記他の判定用の画像をラベルと共に保存し、前記ラベル付け判定部は、前記対象とする判定用の画像について算出された前記指標値と、前記しきい値とを比較し、比較の結果に基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定してもよい。 Further, in the image inspection support device according to the present invention, the analysis unit is a similarity storage unit that stores the index value calculated by the similarity calculation unit for each image for determination, A threshold value setting unit that sets a threshold value, the index value stored by the similarity storage unit, the threshold value, and a label attached to the image for determination, A labeling determination unit that determines whether confirmation is necessary to correct the label attached to the target determination image, and wherein the similarity storage unit includes, for each of the determination images, the index Using a value, a predetermined number is selected in order from the other determination image having a higher similarity to the target determination image, and the selected other determination image is stored together with a label. The labeling determination unit determines the target The index value calculated for the image is compared with the threshold value, and based on the result of the comparison, it is determined whether or not confirmation for correcting a label attached to the target determination image is necessary. It may be determined.
また、本発明に係る画像検査支援装置において、前記ラベル付け判定部は、前記対象とする判定用の画像に付されたラベルと、前記類似度保存部に保存されている前記他の判定用の画像に付されたラベルとが互いに異なる場合に、前記対象とする判定用の画像に付されたラベルは修正のための確認が必要であると判定してもよい。 Further, in the image inspection support device according to the present invention, the labeling determination unit includes a label attached to the image for determination as the target and the label for another determination stored in the similarity storage unit. When the label attached to the image is different from the label attached to the image, it may be determined that the label attached to the target determination image needs to be confirmed for correction.
また、本発明に係る画像検査支援装置において、前記結果出力部は、前記第2特徴量抽出部によって抽出された前記特徴量の次元を圧縮する特徴量圧縮部と、圧縮された前記特徴量から前記判定用の画像毎の散布図を生成して表示装置に表示させる特徴量可視化部と、前記表示装置に表示された前記対象とする判定用の画像に対するラベルの修正指示を外部から受け付ける操作部と、前記修正指示に基づいて、前記対象とする判定用の画像に付されたラベルを修正して、記憶部に記憶するデータ修正部とを備えていてもよい。 Further, in the image inspection support apparatus according to the present invention, the result output unit may include a feature amount compression unit that compresses a dimension of the feature amount extracted by the second feature amount extraction unit; A feature amount visualization unit that generates a scatter diagram for each image for determination and displays the scatter diagram on a display device, and an operation unit that externally receives a label correction instruction for the target image for determination displayed on the display device And a data correction unit that corrects a label attached to the target image for determination based on the correction instruction and stores the corrected data in a storage unit.
また、本発明に係る画像検査支援方法は、学習型の画像検査装置の学習で用いられる画像に付されたラベルの確認を支援する画像検査支援方法であって、学習および判定に用いられる画像を取得する画像取得ステップと、取得された学習用の画像に基づいてニューラルネットワークの学習を行い、前記学習用の画像が復元できる特徴量を出力する学習済みのニューラルネットワークを構築する学習ステップと、前記学習済みのニューラルネットワークを用いて、取得された判定用の画像の特徴量を抽出し、抽出された特徴量から算出された、対象とする判定用の画像と他の判定用の画像のそれぞれとの互いの相関性を示す指標値に基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定して判定結果を出力する判定ステップとを備え、前記取得された判定用の画像は、予め付与されているラベルを含むことを特徴とする。 Further, an image inspection support method according to the present invention is an image inspection support method for supporting confirmation of a label attached to an image used in learning of a learning-type image inspection apparatus, wherein an image used for learning and determination is determined. Acquiring an image acquiring step, learning a neural network based on the acquired learning image, and constructing a learned neural network that outputs a feature amount that can restore the learning image, Using the trained neural network, the feature amount of the acquired image for determination is extracted, and calculated from the extracted feature amount, each of the target determination image and the other determination image. Based on the index value indicating the correlation between the two, the necessity of confirmation for correcting the label attached to the target image for determination is determined, and a determination result is output. And a determination step of an image for determination of the obtained is characterized in that it comprises a label that has previously been granted.
本発明によれば、画像に基づいて学習したニューラルネットワークで抽出した判定用の画像の特徴量から画像間の相関性を示す指標値を算出し、その指標値に基づいて、判定用の画像に付されたラベルを修正するための確認の要否を判定するので、画像に付されたラベルの誤りを確認する作業を省力化し、その確認に必要な工数と労力を削減することができる。 According to the present invention, an index value indicating the correlation between images is calculated from the feature amount of an image for determination extracted by a neural network learned based on an image, and based on the index value, an index value is calculated based on the index value. Since the necessity of confirmation for correcting the attached label is determined, the work of confirming the error of the label attached to the image can be saved, and the man-hour and labor required for the confirmation can be reduced.
[発明の原理]
はじめに、本発明の原理について説明する。
学習型の画像検査の学習に用いられる画像においては、各画像によく似た別の画像が存在することが多い。そして、このよく似た画像同士でラベル付けが同じならば、それらがラベル付けを誤っている可能性は非常に低い。なぜならば、一枚一枚ではたまたま作業者が画像を誤認する可能性があったとしても、同じ誤りを別の似た画像に対して何枚も繰り返すことはあまりないと考えるからである。
[Principle of the invention]
First, the principle of the present invention will be described.
In an image used for learning-type image inspection learning, there is often another image very similar to each image. If the similar images have the same labeling, it is very unlikely that they are incorrectly labeled. The reason is that, even if an operator might accidentally misidentify an image, it is unlikely that the same error is repeated many times for another similar image.
この考えを利用すると、互いに類似した画像が存在し、かつ、それらの画像に付されたラベルが一定していれば、その全ての画像に付されたラベルを確認する必要はないということになる。一方、この条件に該当しない画像のラベルだけを確認すればよいので、作業者においてラベル付けの誤りを確認する作業が大幅に軽減される。 Using this idea, if images similar to each other exist and the labels attached to those images are constant, it is not necessary to check the labels attached to all the images. . On the other hand, since only the labels of the images that do not satisfy this condition need to be checked, the work of checking the labeling error by the operator is greatly reduced.
図1は上記の本発明の原理をまとめた説明図である。類似画像が何枚か存在し、それらの画像間でラベルが一貫していれば、類似する全ての画像に付されているラベルの確認は不要である。類似画像が存在しており、その画像間でラベルが互いに一定でない場合は、似た画像間で異なるラベル付けをしている恐れがあるので、それらの画像のラベルを確認する必要がある。また、類似画像の数がごく少ない場合は、対象となる画像に付されたラベルの確認の要否について、類似画像に付されているラベルを参考にできないので、ラベル付けの誤りが無いことを保証できない。この場合にも、対象となる画像のラベルを確認する方が望ましいといえる。 FIG. 1 is an explanatory diagram summarizing the principle of the present invention. If there are several similar images and the labels are consistent between the images, it is not necessary to check the labels attached to all similar images. If there are similar images and the labels are not constant among the images, there is a possibility that different labels are assigned between the similar images, and it is necessary to confirm the labels of those images. Also, when the number of similar images is very small, it is not possible to refer to the labels attached to the similar images for the necessity of confirming the labels attached to the target image. We cannot guarantee. Also in this case, it is preferable to check the label of the target image.
ところで、上述したような、画像に付されたラベルの誤りを確認する方法を実現するためには、人による目視で似ていると感じる画像を自動で見つけられるようにする必要がある。そこで、発明者らは、図2に示すような、ラベル情報に依存せず画像だけで学習できるニューラルネットワークに着目した。 By the way, in order to realize the above-described method of confirming an error in a label attached to an image, it is necessary to automatically find an image that is visually similar to a human. Therefore, the inventors have paid attention to a neural network as shown in FIG. 2 that can learn only with images without depending on label information.
図2に示すニューラルネットワークの例としては、入力した画像を復元するように学習するオートエンコーダ、特に畳み込み型自己符号化器や、敵対的生成ネットワーク(GAN)などが挙げられる。これらのニューラルネットワークは、復元画像が入力画像とできるだけ近くなるようにニューラルネットワークを学習する。そのため、これらのニューラルネットワークによって生成される変数は、人による目視で似ているかどうかを反映するような特徴量になっていることが期待できる。この特徴量に基づいて類似画像かどうかを判定することで、人が目視で似ていると感じる画像を抽出することを可能にする。 Examples of the neural network shown in FIG. 2 include an auto-encoder that learns to restore an input image, particularly a convolutional self-encoder and a hostile generation network (GAN). These neural networks learn the neural network so that the restored image is as close as possible to the input image. Therefore, it can be expected that the variables generated by these neural networks are feature amounts that reflect whether or not they are similar to each other visually. By determining whether or not the image is similar based on the feature amount, it is possible to extract an image that a person visually feels similar.
ここで、画像だけで学習したニューラルネットワークによって特徴量が生成されることに意味がある。同様な特徴量は学習型の画像検査システム内部にも存在するが、これらの特徴量はラベル付けされたデータの学習によって生成されるので、ラベルに依存した特徴量となっており、ラベル付けの誤りを見つけるために使うには適さない。 Here, it is significant that the feature amount is generated by the neural network learned only with the image. Similar features exist in the learning-type image inspection system, but since these features are generated by learning the labeled data, they are features dependent on the label. Not suitable for use in finding mistakes.
また、人が経験等によって手動で特徴量を設定するのは、特徴量の開発と調整に時間がかかる可能性があり、工数と労力を削減するという本発明の目的と合わない。本発明は画像だけで学習したニューラルネットワークによって生成された特徴量を用いるので、ラベルに依存せず、かつ、製品の知識が不要である。よって、ラベル付けを誤った画像を自動で発見するのに適している。 In addition, if a person manually sets a feature value based on experience or the like, it may take time to develop and adjust the feature value, which is not compatible with the object of the present invention of reducing man-hours and labor. Since the present invention uses a feature generated by a neural network learned only with images, it does not depend on labels and does not require knowledge of products. Therefore, it is suitable for automatically detecting an image with incorrect labeling.
以上説明した本発明の特徴は、以下の2点にまとめることができる。
(i)個々の学習用の画像について、類似画像の有無と、類似画像に付されたラベルとの一貫性を調べ、確認が必要な画像を絞り込む。
(ii)類似画像かどうかの判断を、ラベルに依存せず画像だけで学習可能なニューラルネットワークにより抽出された特徴量に基づいて行う。
The features of the present invention described above can be summarized in the following two points.
(I) For each learning image, the presence or absence of a similar image and the consistency of the label attached to the similar image are checked, and images that need to be confirmed are narrowed down.
(Ii) Whether or not the image is a similar image is determined based on a feature amount extracted by a neural network that can be learned only by an image without depending on a label.
以下、本発明の好適な実施の形態について、図3から図13を参照して詳細に説明する。 Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to FIGS.
[第1の実施の形態]
図3は、本発明の第1の実施の形態に係る画像検査支援装置1の機能ブロック図である。
画像検査支援装置1は、製品の良否を判別する画像検査装置の学習に用いられた画像を学習してニューラルネットワークを構築し、学習済みのニューラルネットワークを用いて判定用の画像の特徴量を抽出する。画像検査支援装置1は、抽出された判定用の画像の特徴量に基づき画像間の相関性を示す指標値である類似度を算出する。そして、画像検査支援装置1は、算出された類似度と判定用の画像に付されたラベルとに基づいて、対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定する。
[First Embodiment]
FIG. 3 is a functional block diagram of the image inspection support device 1 according to the first embodiment of the present invention.
The image inspection support device 1 learns an image used for learning of the image inspection device that determines the quality of a product, constructs a neural network, and extracts a feature amount of the image for determination using the learned neural network. I do. The image inspection support apparatus 1 calculates a similarity, which is an index value indicating the correlation between the images, based on the extracted feature amount of the image for determination. Then, based on the calculated similarity and the label attached to the image for determination, the image inspection support apparatus 1 determines whether or not confirmation for correcting the label attached to the target image for determination is necessary. Is determined.
[画像検査支援装置の機能ブロック]
画像検査支援装置1は、画像取得部10、前処理部11、記憶部12、学習部13、および判定部14を備える。
[Functional blocks of the image inspection support device]
The image inspection support device 1 includes an image acquisition unit 10, a preprocessing unit 11, a storage unit 12, a learning unit 13, and a determination unit 14.
画像取得部10は、製品の良否を判別する学習型の画像検査装置(図示しない)の学習に用いられた画像を、通信ネットワークを介して画像検査装置や外部の記憶装置から取得する。より詳細には、画像取得部10は、後述する学習部13が学習に用いる学習用の画像を取得する。また、画像取得部10は、後述する判定部14がラベルの確認の要否を判定する対象である判定用の画像を取得する。判定用の画像には、予めラベルが付与されている。 The image acquisition unit 10 acquires an image used for learning by a learning-type image inspection device (not shown) that determines the quality of a product from the image inspection device or an external storage device via a communication network. More specifically, the image acquisition unit 10 acquires a learning image used by the learning unit 13 described later for learning. In addition, the image acquisition unit 10 acquires an image for determination, which is a target for which a determination unit 14 described later determines whether or not label confirmation is necessary. A label is given to the image for determination in advance.
画像取得部10が取得する学習用の画像は、ラベル付けを確認する対象となる全ての画像を含むのが一般的である。なお、画像取得部10は、学習用の画像として、同じ検査対象が撮像されている異なる画像を取得してもよい。例えば、同じ検査対象だがラベル付けされていない画像を加えて、画像検査支援装置1における学習データの量を増やすことも可能である。 The learning images acquired by the image acquiring unit 10 generally include all images to be checked for labeling. Note that the image acquisition unit 10 may acquire, as learning images, different images in which the same inspection target is imaged. For example, it is also possible to increase the amount of learning data in the image inspection support apparatus 1 by adding an unlabeled image to the same inspection target.
前処理部11は、画像取得部10によって取得された画像の前処理を必要に応じて行う。より詳細には、前処理部11は、画像取得部10によって取得された画像に対して、フィルタリングなどによるノイズの除去や画像の明るさの正規化などを行う。 The preprocessing unit 11 performs preprocessing of the image acquired by the image acquisition unit 10 as necessary. More specifically, the pre-processing unit 11 removes noise by filtering or the like and normalizes the brightness of the image acquired by the image acquisition unit 10.
記憶部12は、画像取得部10によって取得され、前処理部11によって前処理が行われた画像を記憶する。また、記憶部12は、後述する学習部13や判定部14によって用いられるニューラルネットワークに関する情報や、抽出された特徴量などの演算結果を記憶する。また、記憶部12は、後述する分析部142によって用いられる予め設定された判定の基準を記憶する。 The storage unit 12 stores the image acquired by the image acquisition unit 10 and subjected to the preprocessing by the preprocessing unit 11. Further, the storage unit 12 stores information on a neural network used by the learning unit 13 and the determination unit 14 described later, and calculation results such as extracted feature amounts. In addition, the storage unit 12 stores preset determination criteria used by the analysis unit 142 described later.
学習部13は、第1特徴量抽出部130、画像復元部131、誤差算出部132、および誤差逆伝搬部133を備える。 The learning unit 13 includes a first feature amount extraction unit 130, an image restoration unit 131, an error calculation unit 132, and an error back propagation unit 133.
学習部13は、学習用の画像の特徴量を学習する。より詳細には、学習部13は、ラベルに依存せず教師なしで学習できるニューラルネットワークであるオートエンコーダ(自己符号化器)、その中でも畳み込み層を有する畳み込み型自己符号化器(非特許文献1参照)を用いて画像の特徴量を学習する。 The learning unit 13 learns a feature amount of a learning image. More specifically, the learning unit 13 is an auto-encoder (self-encoder) that is a neural network capable of learning without supervision without depending on labels, and among them, a convolution-type self-encoder having a convolution layer (Non-patent Document 1) ) Is used to learn the feature amount of the image.
学習部13が用いる自己符号化器とは、入力した画像データを復元するように学習するニューラルネットワークである。自己符号化器は学習にラベルを必要としないという特徴があり、本発明ではこの点に着目している。 The self-encoder used by the learning unit 13 is a neural network that learns to restore input image data. The self-encoder has the feature that no label is required for learning, and the present invention focuses on this point.
第1特徴量抽出部130は、少なくとも1層の畳み込み層により構成され、画像復元部131は、少なくとも1層の逆畳み込み層で構成され、学習部13の畳み込み型自己符号化器を実現する。画像復元部131を構成する逆畳み込み層は、第1特徴量抽出部130を構成する畳み込み層に対応する逆構造を有する。 The first feature extraction unit 130 is configured by at least one convolutional layer, and the image restoration unit 131 is configured by at least one deconvolutional layer, and implements a convolutional self-encoder of the learning unit 13. The deconvolution layer forming the image restoration unit 131 has an inverse structure corresponding to the convolution layer forming the first feature amount extraction unit 130.
第1特徴量抽出部130は、画像取得部10によって取得された学習用の画像を入力として、畳み込み層の演算を行い、入力画像の特徴量を抽出する。第1特徴量抽出部130によって抽出された特徴量は、後に判定部14によって、ラベル付けの確認の要否を判定する際に用いられる。 The first feature amount extraction unit 130 receives the learning image acquired by the image acquisition unit 10 as an input, performs a convolution layer operation, and extracts the feature amount of the input image. The feature amount extracted by the first feature amount extraction unit 130 is used later by the determination unit 14 to determine whether or not labeling confirmation is necessary.
画像復元部131は、第1特徴量抽出部130によって抽出された特徴量を入力として、逆畳み込み層の演算を行い、学習用の画像を復元した復元画像を出力する。 The image restoration unit 131 receives the feature amount extracted by the first feature amount extraction unit 130, performs an operation on the deconvolution layer, and outputs a restored image obtained by restoring a learning image.
誤差算出部132と誤差逆伝搬部133とは、第1特徴量抽出部130および画像復元部131を学習させる。
誤差算出部132は、第1特徴量抽出部130に入力された画像と画像復元部131によって復元された復元画像との誤差を算出する。
The error calculation unit 132 and the error backpropagation unit 133 make the first feature amount extraction unit 130 and the image restoration unit 131 learn.
The error calculating unit 132 calculates an error between the image input to the first feature amount extracting unit 130 and the restored image restored by the image restoring unit 131.
誤差逆伝搬部133は、第1特徴量抽出部130および画像復元部131の学習を行う。より詳細には、誤差逆伝搬部133は、誤差算出部132によって算出された画像の誤差が十分に小さくなるように第1特徴量抽出部130および画像復元部131を構成する畳み込み型自己符号化器のパラメータの値を調整する。誤差逆伝搬部133は、例えば、よく知られている誤差逆伝搬法を用いて学習を行う。 The error back propagation unit 133 performs learning of the first feature amount extraction unit 130 and the image restoration unit 131. More specifically, the error back-propagation unit 133 performs the convolutional self-encoding of the first feature amount extraction unit 130 and the image restoration unit 131 such that the error of the image calculated by the error calculation unit 132 is sufficiently small. Adjust the value of the vessel parameters. The error back-propagation unit 133 performs learning using, for example, a well-known error back-propagation method.
誤差算出部132および誤差逆伝搬部133は、第1特徴量抽出部130に入力された画像と画像復元部131によって復元された画像との誤差が十分に小さくなるまで反復して学習を行い、その誤差が十分に小さくなれば学習は完了とする。 The error calculation unit 132 and the error back-propagation unit 133 repeatedly perform learning until the error between the image input to the first feature amount extraction unit 130 and the image restored by the image restoration unit 131 becomes sufficiently small. If the error becomes sufficiently small, the learning is completed.
判定部14は、第2特徴量抽出部140、類似度算出部141、分析部142、および結果出力部143を備える。
判定部14は、学習部13によって学習された画像の特徴量を用いて、判定用の画像に付されたラベルを修正するための確認が必要か否かを判定する。
The determination unit 14 includes a second feature amount extraction unit 140, a similarity calculation unit 141, an analysis unit 142, and a result output unit 143.
The determination unit 14 determines whether or not confirmation for correcting a label attached to the image for determination is necessary using the feature amount of the image learned by the learning unit 13.
第2特徴量抽出部140は、画像取得部10によって取得されたラベルの確認の要否を判定する対象となる画像を入力とし、画像の特徴量を抽出する。より詳細には、第2特徴量抽出部140は、学習部13によって学習された畳み込み層の演算を行い、判定用の画像の特徴量を抽出する。すなわち、第2特徴量抽出部140は、学習済みの第1特徴量抽出部を利用する。 The second feature amount extraction unit 140 receives as input an image to be determined whether or not to confirm the label acquired by the image acquisition unit 10 and extracts the feature amount of the image. More specifically, the second feature amount extraction unit 140 performs an operation on the convolutional layer learned by the learning unit 13 and extracts the feature amount of the image for determination. That is, the second feature amount extraction unit 140 uses the learned first feature amount extraction unit.
類似度算出部141は、第2特徴量抽出部140によって抽出された画像の特徴量から対象とする判定用の画像と他の判定用の画像それぞれとの相関性を示す指標値である類似度を算出する。 The similarity calculating unit 141 is a similarity that is an index value indicating the correlation between the target determination image and each of the other determination images based on the feature amount of the image extracted by the second feature amount extraction unit 140. Is calculated.
より詳細には、類似度算出部141は、第2特徴量抽出部140によって抽出された特徴量の次元が大きすぎる場合には、特徴量の次元圧縮を行ってから類似度を算出してもよい。これにより、第2特徴量抽出部140によって抽出された特徴量の次元が大きすぎる場合に、この後の処理で膨大な計算時間が必要となることを防止できる。具体的には、類似度算出部141は、主成分分析(PCA:Principal Component Analysis)によって特徴量の次元圧縮を行う。なお、不要であればこの処理は省略してよい。 More specifically, when the dimension of the feature extracted by the second feature extracting unit 140 is too large, the similarity calculating unit 141 may calculate the similarity after compressing the dimension of the feature. Good. Thus, when the dimension of the feature amount extracted by the second feature amount extraction unit 140 is too large, it is possible to prevent the subsequent processing from requiring an enormous amount of calculation time. Specifically, the similarity calculation unit 141 performs dimension compression of the feature amount by Principal Component Analysis (PCA). If unnecessary, this process may be omitted.
類似度算出部141によって算出される類似度は、2つの画像が類似しているかどうかを判断する際に使用される指標である。本実施の形態では、画像間の類似度が高いほど2つの画像が互いに類似しているものとして説明する。 The similarity calculated by the similarity calculator 141 is an index used when determining whether two images are similar. In the present embodiment, a description will be given assuming that two images are more similar to each other as the degree of similarity between the images is higher.
類似度算出部141が算出する画像間の類似度としては、例えば、ユークリッド距離やマハラノビス距離といった、2つのデータ間の相関性を数値化できるものを用いる。類似度算出部141は、画像間の類似度の算出を、画像取得部10によって取得された画像の全てについて予め行って、類似度を記憶部12に記憶してもよい。また、後述する分析部142において類似度の値が必要となる都度、類似度を算出してもよい。なお、類似度算出部141は、上記類似度に相当する指標値を算出してもよい。 As the similarity between the images calculated by the similarity calculation unit 141, for example, one that can quantify the correlation between two data, such as a Euclidean distance and a Mahalanobis distance, is used. The similarity calculation unit 141 may calculate the similarity between images in advance for all of the images acquired by the image acquisition unit 10 and store the similarity in the storage unit 12. Further, the similarity may be calculated each time the value of the similarity is required in the analysis unit 142 described later. Note that the similarity calculation unit 141 may calculate an index value corresponding to the above-described similarity.
分析部142は、類似度算出部141によって算出された判定用の画像間の類似度と、判定用の画像に付されたラベルとに基づいて、対象となる判定用の画像に付されたラベルを修正するための確認の要否を判定する。 The analysis unit 142 determines the label attached to the target determination image based on the similarity between the determination images calculated by the similarity calculation unit 141 and the label attached to the determination image. It is determined whether or not confirmation for correcting is necessary.
分析部142は、算出された類似度に関する所定の条件に基づいて、画像に付されたラベルの確認が不要である、画像に付されたラベルの確認が必要である、または必要に応じて画像に付されたラベルの確認をしてもよい旨の判定を行う。 The analysis unit 142 does not need to confirm the label attached to the image based on the predetermined condition regarding the calculated similarity, needs to confirm the label attached to the image, or performs the image It is determined that the label attached to may be checked.
分析部142は、対象とする判定用の画像について、画像取得部10によって取得された、その対象とする判定用の画像以外の他の判定用の画像のうち、予め設定された基準値を満たした類似度を有する画像が存在するか否かを上記所定の条件として用いる。 The analysis unit 142 satisfies a predetermined reference value among the determination images other than the target determination image acquired by the image acquisition unit 10 with respect to the target determination image. Whether or not there is an image having the similarity is used as the predetermined condition.
より詳細には、予め設定された基準値を満たした類似度を有する他の判定用の画像が存在し、かつ、それらの他の判定用の画像には全て同じラベルが付されている場合、分析部142は、対象とする判定用の画像に付されたラベルは誤っている可能性は低いため、対象とする判定用の画像におけるラベルの確認は不要であると判定する。すなわち、互いに類似する画像に対して同一のラベルが付されている場合には、対象とする判定用の画像のラベルの再確認は不要とする。 More specifically, if there are other determination images having similarities that satisfy a preset reference value, and if all the other determination images have the same label, The analysis unit 142 determines that it is unnecessary to confirm the label in the target determination image because the label attached to the target determination image is unlikely to be incorrect. That is, when the same label is assigned to images similar to each other, it is not necessary to reconfirm the label of the target determination image.
また、予め設定された基準値を満たした類似度を有する他の判定用の画像が存在し、かつ、それらの他の判定用の画像の中に、対象とする判定用の画像のラベルとは異なるラベルが付された画像が存在する場合、分析部142は、対象とする判定用の画像に付されたラベルは誤っている可能性が高いため、その画像のラベルの確認が必要であると判定する。すなわち、互いに類似する画像に対して異なるラベルが付されている場合には、対象とする判定用の画像のラベルの再確認を必要とする。 In addition, there are other determination images having a similarity satisfying a preset reference value, and among those other determination images, the label of the target determination image is If there is an image with a different label, the analysis unit 142 determines that it is necessary to check the label of the image because the label attached to the target determination image is likely to be incorrect. judge. That is, when different labels are attached to images similar to each other, it is necessary to reconfirm the label of the target determination image.
また、予め設定された基準値を満たした類似度を有する他の判定用の画像が存在し、かつ、他の判定用の画像数が所定の枚数以下しか存在しない場合、分析部142は、対象とする判定用の画像に類似する画像が十分に存在しないため、ラベル付けの確認の要否の判定はできない状態であると分析する。この場合、分析部142は、対象とする判定用の画像について付されたラベルの再確認は強く推奨される状態ではないが、潜在的なラベル付けの誤りが含まれる恐れを否定できないため、必要に応じたラベルの確認をしてもよいとの判定を行う。なお、基準値を満たした類似度を有する他の判定用の画像が1枚も存在しない場合についても同様に判定の対象となる。 If there is another image for determination having a similarity that satisfies a preset reference value and the number of other images for determination is less than or equal to a predetermined number, the analysis unit 142 Since there are not enough images similar to the determination image, it is analyzed that it is not possible to determine whether or not to confirm the labeling. In this case, the analysis unit 142 does not strongly recommend reconfirmation of the label attached to the target determination image, but cannot reject the possibility that a potential labeling error is included. It is determined that the label may be confirmed in accordance with. It should be noted that even when there is no other image for determination having the similarity satisfying the reference value, the image is similarly determined.
結果出力部143は、分析部142による判定結果を出力する。より具体的には、結果出力部143は、少なくとも分析部142によってラベルの確認が必要であると判定された画像に関する情報を、後述する表示装置107の所定の画面に表示する。結果出力部143は、必要に応じてラベルの確認をしてもよいと分析部142により判定された画像に関する情報ついても、表示装置107の所定の画面に表示してもよい。結果出力部143は、表示装置107の画面に判定結果を表示する他、記憶部12の所定の領域においてファイルやデータベースとして記録してもよい。 The result output unit 143 outputs the determination result by the analysis unit 142. More specifically, the result output unit 143 displays, on a predetermined screen of the display device 107, which will be described later, at least information on the image for which the analysis unit 142 has determined that the label needs to be confirmed. The result output unit 143 may display on a predetermined screen of the display device 107 information on the image determined by the analysis unit 142 to be able to confirm the label as necessary. The result output unit 143 may display the determination result on the screen of the display device 107, or may record it as a file or a database in a predetermined area of the storage unit 12.
[画像検査支援装置のハードウェア構成]
次に、上述した機能を有する画像検査支援装置1のハードウェア構成について図4を参照して説明する。
画像検査支援装置1は、バス101を介して接続されるCPU103と主記憶装置104とを有する演算装置102、通信制御装置105、外部記憶装置106、表示装置107、入力装置108等を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。
[Hardware configuration of image inspection support device]
Next, a hardware configuration of the image inspection support device 1 having the above-described functions will be described with reference to FIG.
The image inspection support apparatus 1 includes a computer including a computing device 102 having a CPU 103 and a main storage device 104 connected via a bus 101, a communication control device 105, an external storage device 106, a display device 107, an input device 108, and the like. , Can be realized by a program that controls these hardware resources.
CPU103と主記憶装置104とは、演算装置102を構成する。主記憶装置104には、CPU103が各種制御や演算を行うためのプログラムが予め格納されている。なお、演算装置102は、CPU103の他、必要に応じてGPU(Graphics Processing Unit)を用いてもよい。 The CPU 103 and the main storage device 104 constitute the arithmetic unit 102. A program for the CPU 103 to perform various controls and calculations is stored in the main storage device 104 in advance. Note that the arithmetic device 102 may use a GPU (Graphics Processing Unit) as necessary, in addition to the CPU 103.
通信制御装置105は、画像検査支援装置1と各種外部電子機器との間を通信ネットワークNWを介して接続するための制御装置である。通信制御装置105は、通信ネットワークNWを介して外部に設置された画像検査装置やサーバなどからラベル付けされた画像を受信してもよい。また、通信制御装置105は、画像検査支援装置1によって得られた判定用の画像に付されたラベルの確認についての要否を示す判定結果を、通信ネットワークNWを介して外部の機器などに送信してもよい。 The communication control device 105 is a control device for connecting the image inspection support device 1 and various external electronic devices via a communication network NW. The communication control device 105 may receive a labeled image from an image inspection device, a server, or the like installed outside via the communication network NW. In addition, the communication control device 105 transmits a determination result indicating whether or not it is necessary to confirm the label attached to the determination image obtained by the image inspection support device 1 to an external device or the like via the communication network NW. May be.
外部記憶装置106は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。外部記憶装置106には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。外部記憶装置106は、画像データ記憶部106a、設定情報記憶部106b、学習情報記憶部106c、判定情報記憶部106d、プログラム格納部106e、図示しないその他の格納装置で、例えば、この外部記憶装置106内に格納されているプログラムやデータなどをバックアップするための格納装置などを有することができる。 The external storage device 106 includes a readable and writable storage medium, and a drive device for reading and writing various information such as programs and data on the storage medium. For the external storage device 106, a semiconductor memory such as a hard disk or a flash memory can be used as a storage medium. The external storage device 106 is an image data storage unit 106a, a setting information storage unit 106b, a learning information storage unit 106c, a determination information storage unit 106d, a program storage unit 106e, and other storage devices (not shown). Storage device for backing up programs, data, and the like stored therein.
画像データ記憶部106aは、図3で説明した画像取得部10によって外部の画像検査装置や記憶装置などから取得された画像を記憶する。画像データ記憶部106aは、画像とその画像に付与されたラベルと画像のタイトルを含む画像データを記憶する。 The image data storage unit 106a stores an image acquired by the image acquisition unit 10 described with reference to FIG. 3 from an external image inspection device, a storage device, or the like. The image data storage unit 106a stores image data including an image, a label assigned to the image, and a title of the image.
設定情報記憶部106bは、図3で説明した学習部13および判定部14が用いるニューラルネットワークに関する設定情報や、判定部14の分析部142が用いる基準や所定の条件など画像検査支援装置1における各種設定情報を記憶する。 The setting information storage unit 106b stores various kinds of information on the neural network used by the learning unit 13 and the determination unit 14 described with reference to FIG. The setting information is stored.
学習情報記憶部106cは、図3で説明した学習部13によって抽出された特徴量などの情報を記憶する。
判定情報記憶部106dは、図3で説明した判定部14による判定結果などを記憶する。
なお、画像データ記憶部106a、設定情報記憶部106b、学習情報記憶部106c、および判定情報記憶部106dは、図3で説明した記憶部12に対応する。
The learning information storage unit 106c stores information such as feature amounts extracted by the learning unit 13 described with reference to FIG.
The determination information storage unit 106d stores the determination result by the determination unit 14 described with reference to FIG.
Note that the image data storage unit 106a, the setting information storage unit 106b, the learning information storage unit 106c, and the determination information storage unit 106d correspond to the storage unit 12 described with reference to FIG.
プログラム格納部106eには、本実施の形態における画像の取得処理、学習処理、類似度算出処理、判定処理など画像検査支援装置1が画像検査の支援に必要な演算処理を実行するための各種プログラムが格納されている。 The program storage unit 106e stores various programs for the image inspection support apparatus 1 to execute arithmetic processing necessary for image inspection support, such as image acquisition processing, learning processing, similarity calculation processing, and determination processing in the present embodiment. Is stored.
表示装置107は、例えば、図3で説明した結果出力部143の表示画面を構成する。表示装置107は液晶ディスプレイなどによって実現される。 The display device 107 constitutes, for example, a display screen of the result output unit 143 described with reference to FIG. The display device 107 is realized by a liquid crystal display or the like.
入力装置108は、キーボード、マウス、タッチパネルなどにより構成される。入力装置108は、作業者のキー入力、アイコンなどのクリック、タッチパネルのタッチ位置に対応した機能や操作入力を受け付ける。 The input device 108 includes a keyboard, a mouse, a touch panel, and the like. The input device 108 receives a key input by an operator, a click of an icon or the like, a function or an operation input corresponding to a touch position on the touch panel.
[画像検査支援装置の動作]
上述した構成を有する画像検査支援装置1の動作について図5から図7のフローチャートを参照して説明する。
[Operation of image inspection support device]
The operation of the image inspection support device 1 having the above-described configuration will be described with reference to the flowcharts of FIGS.
まず、画像検査支援装置1の動作の全体について図5を用いて説明する。
画像取得部10は、外部の画像検査装置や記憶装置などから検査対象の画像を複数取得する(ステップS1)。次に、前処理部11は、画像取得部10によって取得された画像のフィルタリングや正規化などを行い、必要に応じた画像の前処理を行う(ステップS2)。前処理がなされた画像は記憶部12に記憶される。
First, the entire operation of the image inspection support device 1 will be described with reference to FIG.
The image acquisition unit 10 acquires a plurality of images to be inspected from an external image inspection device, a storage device, or the like (Step S1). Next, the preprocessing unit 11 performs filtering, normalization, and the like of the image acquired by the image acquisition unit 10, and performs preprocessing of the image as needed (step S2). The preprocessed image is stored in the storage unit 12.
なお、画像取得部10が取得する学習用の画像は、ラベル付けを確認する対象となる全ての判定用の画像を含む。以下、学習用および判定用には予め付与されたラベル情報が含まれており、学習用の画像および判定用の画像を単に「画像」と称することがある。 Note that the learning images acquired by the image acquisition unit 10 include all determination images to be checked for labeling. Hereinafter, label information given in advance is included for learning and for determination, and the image for learning and the image for determination may be simply referred to as “image”.
次に、画像検査支援装置1の演算装置102は、学習部13によって既に画像の特徴量を抽出する特徴量抽出器が学習済みである場合には(ステップS3:YES)、判定部14による判定処理に移行する(ステップS5)。一方、特徴量抽出器を未だ学習していない場合には(ステップS3:NO)、学習部13による学習処理に移行する(ステップS4)。 Next, when the learning unit 13 has already learned the feature amount extractor for extracting the feature amount of the image (step S3: YES), the arithmetic unit 102 of the image inspection support device 1 makes the determination by the determination unit 14. The process proceeds to Step S5. On the other hand, if the feature amount extractor has not been learned yet (step S3: NO), the process proceeds to the learning process by the learning unit 13 (step S4).
学習部13によって学習処理が実行されると(ステップS4)、判定部14により判定用の画像に付されたラベルを修正するための確認が必要であるか否かを判定する判定処理が実行され(ステップS5)、処理は終了する。 When the learning process is performed by the learning unit 13 (step S4), a determination process is performed by the determination unit 14 to determine whether confirmation for correcting the label attached to the image for determination is necessary. (Step S5), the process ends.
[学習処理]
次に、学習部13による学習処理(ステップS4)について図6を参照してより詳細に説明する。
まず、第1特徴量抽出部130は、画像取得部10によって取得された学習用の画像を入力として、画像の特徴量を抽出する(ステップS40)。次に、画像復元部131は、ステップS40で抽出された画像の特徴量を入力として、画像を復元する(ステップS41)。
[Learning process]
Next, the learning process (step S4) by the learning unit 13 will be described in more detail with reference to FIG.
First, the first feature value extraction unit 130 extracts a feature value of an image using the learning image acquired by the image acquisition unit 10 as an input (step S40). Next, the image restoration unit 131 restores the image using the feature amount of the image extracted in step S40 as an input (step S41).
その後、誤差算出部132は、第1特徴量抽出部130に入力された画像と、画像復元部131から出力された復元画像との誤差を算出する(ステップS42)。次に、誤差逆伝搬部133は、誤差算出部132によって算出された入力画像と復元画像との誤差が減少するように、よく知られている誤差逆伝搬法を用いて第1特徴量抽出部130および画像復元部131を構成する畳み込み層および逆畳み込み層の学習を行う(ステップS44)。 After that, the error calculation unit 132 calculates an error between the image input to the first feature amount extraction unit 130 and the restored image output from the image restoration unit 131 (Step S42). Next, the error back-propagation unit 133 uses a well-known error back-propagation method to reduce the error between the input image calculated by the error calculation unit 132 and the restored image. Learning of the convolutional layer and the deconvolutional layer constituting the image restoration unit 130 and the image restoration unit 131 is performed (step S44).
誤差逆伝搬部133によって畳み込み層および逆畳み込み層が学習されてパラメータの値が更新されると、再び、ステップS40からステップS44までの処理が繰り返えし実行される。その後、誤差算出部132は、再度算出された、入力画像と復元画像との誤差が十分に小さくなると(ステップS45:YES)、学習は完了し、判定部14による判定処理(ステップS5)に移行する。 When the convolution layer and the deconvolution layer are learned by the error back propagation unit 133 and the parameter values are updated, the processing from step S40 to step S44 is repeated and executed again. After that, when the error between the input image and the restored image, which has been calculated again, is sufficiently small (step S45: YES), the learning is completed, and the error calculating unit 132 proceeds to the determining process by the determining unit 14 (step S5). I do.
なお、誤差逆伝搬部133によって入力画像と復元画像との誤差が小さくなるように更新され最終的に決定された畳み込み層および逆畳み込み層を含むニューラルネットワークのパラメータの値は、特徴量を示す情報として記憶部12に記憶される。 The values of the parameters of the neural network including the convolution layer and the deconvolution layer that are updated and finally determined by the error back propagation unit 133 so as to reduce the error between the input image and the restored image are information indicating the feature amount. Is stored in the storage unit 12.
[判定処理]
次に、判定部14によって実行される判定処理(ステップS5)について図7を参照してより詳細に説明する。
まず、第2特徴量抽出部140は、ステップS1で画像取得部10が取得した判定用の画像を入力とし、学習部13による学習で得られた畳み込み層の演算を行い、判定用の画像の特徴量を抽出する(ステップS50)。
[Determination process]
Next, the determination process (step S5) executed by the determination unit 14 will be described in more detail with reference to FIG.
First, the second feature amount extraction unit 140 receives the image for determination acquired by the image acquisition unit 10 in step S1, performs an operation on the convolutional layer obtained by learning by the learning unit 13, and performs processing on the image for determination. A feature amount is extracted (step S50).
次に、類似度算出部141は、類似度を算出する前に、必要に応じてステップS50で抽出された判定用の画像の特徴量についての次元圧縮を行う(ステップS51)。類似度算出部141は、PCAにより特徴量の次元圧縮を行えばよい。 Next, before calculating the similarity, the similarity calculation unit 141 performs dimensional compression on the feature amount of the image for determination extracted in step S50 as needed (step S51). The similarity calculation unit 141 may perform dimension reduction of the feature amount by PCA.
次に、類似度算出部141は、ステップS51で次元が圧縮された特徴量に基づいて、判定用の画像間の類似度を算出する(ステップS52)。類似度算出部141は、例えば、ユークリッド距離を用いて判定用の画像同士の相関関係を示す指標である類似度を判定用の画像ごとに算出する。より詳細には、類似度算出部141は、ステップS50で抽出され、ステップS51で次元圧縮された判定用の画像の特徴量の類似度を算出する。 Next, the similarity calculation unit 141 calculates the similarity between the images for determination based on the feature amount whose dimensions have been compressed in step S51 (step S52). The similarity calculating unit 141 calculates, for each image for determination, a similarity, which is an index indicating a correlation between the images for determination, using the Euclidean distance, for example. More specifically, the similarity calculation unit 141 calculates the similarity of the feature amount of the image for determination that is extracted in step S50 and dimensionally compressed in step S51.
次に、分析部142は、ステップS52で算出された、判定用の画像の類似度に基づいて、対象とする判定用の画像に付されたラベルの確認の要否を判定する(ステップS53)。より詳細には、分析部142は、ステップS52で算出された、判定用の画像の類似度に関する所定の条件に基づいて、対象とする判定用の画像に付されたラベルの確認が不要である、画像に付されたラベルの確認が必要である、または必要に応じて画像に付されたラベルの確認をしてもよい旨の判定を行う。 Next, the analysis unit 142 determines whether it is necessary to confirm the label attached to the target determination image based on the similarity of the determination image calculated in step S52 (step S53). . More specifically, the analysis unit 142 does not need to confirm the label attached to the target determination image based on the predetermined condition regarding the similarity of the determination image calculated in step S52. It is determined that the label attached to the image needs to be confirmed, or the label attached to the image may be confirmed as necessary.
具体的には、分析部142は、判定に用いる所定の条件を記憶部12から読み出す。所定の条件とは、対象とする判定用の画像について算出された類似度に対して予め設定された基準値を満たす類似度を有する他の判定用の画像が存在するか、あるいは一定の枚数以下しか存在しないことである。 Specifically, the analysis unit 142 reads out a predetermined condition used for the determination from the storage unit 12. The predetermined condition is that there is another determination image having a similarity satisfying a preset reference value with respect to the similarity calculated for the target determination image, or a certain number of images or less. Only exists.
そして、ステップS52で算出された、対象とする判定用の画像の類似度に対して予め設定された基準値を満たした類似度を有する他の判定用の画像が記憶部12に存在し、かつ、それらの他の判定用の画像に全て同じラベルが付されている場合、分析部142は、対象とする判定用の画像に付されたラベルは誤っている可能性が低いと分析する。この場合、分析部142は、対象とする判定用の画像のラベルの確認は不要であると判定する。 Then, another determination image having a similarity that satisfies a preset reference value with respect to the similarity of the target determination image calculated in step S52 exists in the storage unit 12, and If all the other determination images have the same label, the analysis unit 142 analyzes that the label attached to the target determination image is unlikely to be incorrect. In this case, the analysis unit 142 determines that it is not necessary to check the label of the target determination image.
また、ステップS52で算出された、対象とする判定用の画像の類似度に対して予め設定された基準値を満たした類似度を有する他の判定用の画像が記憶部12に存在し、かつ、それらの他の判定用の画像の中に異なるラベルが付された画像が存在する場合、分析部142は、対象とする判定用の画像に付されたラベルは誤っている可能性が高いと分析する。この場合、分析部142は、対象とする判定用の画像のラベルの確認が必要であると判定する。 Further, another determination image having a similarity that satisfies a preset reference value with respect to the similarity of the target determination image calculated in step S52 exists in the storage unit 12, and In the case where an image with a different label is present in these other determination images, the analysis unit 142 determines that the label attached to the target determination image is likely to be incorrect. analyse. In this case, the analysis unit 142 determines that it is necessary to confirm the label of the target determination image.
また、ステップS52で算出された、対象とする判定用の画像の類似度に対して予め設定された基準値を満たした類似度を有する他の判定用の画像が記憶部12に存在するが、それらの他の判定用の画像数が所定の枚数以下しか存在しない場合、分析部142は、対象とする判定用の画像に類似する画像が十分に存在しないため、ラベル付けの確認の要否の判定はできない状態にあると分析する。この場合、分析部142は、必要に応じたラベル付けの確認をしてもよいとの判定を行う。 In addition, another image for determination having a similarity that satisfies a preset reference value with respect to the similarity of the target image for determination calculated in step S52 exists in the storage unit 12, If the number of other determination images is less than or equal to the predetermined number, the analysis unit 142 determines whether or not it is necessary to confirm labeling because there are not enough images similar to the target determination image. Analyze that it is not possible to judge. In this case, the analysis unit 142 determines that the labeling may be confirmed as necessary.
分析部142による判定結果は、記憶部12に記憶される。
その後、結果出力部143は、分析部142による判定結果を出力する(ステップS54)。結果出力部143は、例えば、表示装置107の所定の画面に、ラベルの確認が必要であると判定された画像に関する情報を表示してもよい。
The determination result by the analysis unit 142 is stored in the storage unit 12.
Thereafter, the result output unit 143 outputs the determination result by the analysis unit 142 (Step S54). The result output unit 143 may, for example, display, on a predetermined screen of the display device 107, information on an image for which it has been determined that label confirmation is necessary.
以上説明したように、第1の実施の形態によれば、画像検査支援装置1は、ラベル付けされた画像の特徴量を画像のみに基づいて学習し、学習により構築されたニューラルネットワークを用いて判定用の画像の特徴量を抽出する。さらに、画像検査支援装置1は、抽出された判定用の画像の特徴量に基づいて、画像間の類似度を算出し、判定用の画像の類似度に基づいて、対象とする判定用の画像に付されたラベルの確認の要否を判定し、判定結果を出力する。 As described above, according to the first embodiment, the image inspection support device 1 learns the feature amount of the labeled image based on only the image, and uses the neural network constructed by the learning. The feature amount of the image for determination is extracted. Further, the image inspection support device 1 calculates the similarity between the images based on the extracted feature amount of the determination image, and determines the target determination image based on the similarity of the determination image. It is determined whether or not it is necessary to check the label attached to, and the result of the determination is output.
そのため、ラベル付けが誤っている画像についてのラベルの確認作業が省力化され、その確認に必要な工数と労力を削減することができる。また、画像検査支援装置1は、ラベル付けされている画像を入力画像として用いることで、ラベル付けの確認の要否を示す判定結果の出力まで自動化することが可能となる。したがって、作業者におけるラベル付けの確認作業に要する労力を大幅に削減できる。 Therefore, the work of checking the label of an image with incorrect labeling can be saved, and the number of steps and labor required for the check can be reduced. Further, by using the labeled image as the input image, the image inspection support apparatus 1 can automate the output of the determination result indicating whether the confirmation of the labeling is necessary. Therefore, the labor required for the operator to confirm the labeling can be significantly reduced.
また、本実施の形態に係る画像検査支援装置1は、ユークリッド距離をはじめとしたアルゴリズムを用いて画像間の類似度を算出する。このような類似度の計算はアルゴリズムとしても単純なものであり、判定部14の実装が容易となる。 Further, the image inspection support apparatus 1 according to the present embodiment calculates the similarity between images using an algorithm including the Euclidean distance. The calculation of the similarity is simple as an algorithm, and the mounting of the determination unit 14 is facilitated.
また、本実施の形態に係る画像検査支援装置1は、画像間の類似度に基づいて、対象とする判定用の画像に付されたラベルの確認の要否を判定するので、潜在的なラベル付けの誤りも含めて情報を提示することが可能となる。 Further, the image inspection support apparatus 1 according to the present embodiment determines whether it is necessary to confirm the label attached to the target image for determination based on the similarity between the images, It is possible to present information including an error in attachment.
また、本実施の形態に係る画像検査支援装置1は、学習部13によって入力画像の学習を少なくとも1回は行うことが必要であるが、いったん学習用の画像により特徴量抽出器を学習すれば、学習済みの特徴量抽出器による判定用の画像の特徴量抽出と、類似度の計算のみを実行すればよい。そのため、作業者が全て目視により行うラベルの確認作業よりも高速な確認作業が実現される。 Further, the image inspection support apparatus 1 according to the present embodiment needs to perform learning of the input image at least once by the learning unit 13, but once the feature amount extractor is learned from the learning image. Only the feature amount extraction of the image for determination by the learned feature amount extractor and the calculation of the similarity need be performed. Therefore, a check operation that is faster than a label check operation that is performed by all the operators visually is realized.
なお、説明した実施の形態では、分析部142は、対象とする判定用の画像に付されたラベルの確認が不要である旨の判定、対象とする判定用の画像に付されたラベルの確認が必要である旨の判定、または、必要に応じてラベルを確認してもよい旨の判定を行う場合について説明した。しかし、分析部142は、対象とする判定用の画像に付されたラベルの確認が必要である場合だけを検出する構成を採用してもよい。 In the embodiment described above, the analysis unit 142 determines that it is unnecessary to check the label attached to the target determination image, and checks the label attached to the target determination image. Has been described above, or the determination that the label may be confirmed as necessary has been described. However, the analysis unit 142 may adopt a configuration that detects only when it is necessary to confirm the label attached to the target determination image.
この場合、分析部142は、画像取得部10によって取得された画像のうち、例えば、「不良品」とのラベル付けがされた画像だけを記憶部12から読み出して、互いに類似する画像の中に「良品」とラベル付けされた他の画像の存在を検出して、ラベルの確認が必要な画像として判定すればよい。この構成では、分析部142は、画像取得部10によって取得された画像の全てに対して分析や判定を行う必要がなく、不良品の割合が低いような場合に計算量がより少なくなる利点がある。 In this case, the analysis unit 142 reads, for example, only images labeled as “defective” from the images acquired by the image acquisition unit 10 from the storage unit 12, and reads the images among images similar to each other. What is necessary is just to detect the presence of another image labeled as "good" and determine that the image needs to be checked for the label. In this configuration, the analysis unit 142 does not need to perform analysis or determination on all of the images acquired by the image acquisition unit 10, and has an advantage that the amount of calculation is smaller when the proportion of defective products is low. is there.
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the same components as those in the above-described first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
第1の実施の形態では、分析部142が記憶部12に記憶されている所定の条件に基づいて、対象とする判定用の画像に付されたラベルの確認の要否を判定する場合について説明した。これに対し、第2の実施の形態では、分析部142Aはしきい値処理により対象とする判定用の画像に付されたラベルの確認の要否を判定する。第2の実施の形態に係る画像検査支援装置1Aにおいて、分析部142A以外の構成は、第1の実施の形態に係る画像検査支援装置1の構成と同様である。以下、第1の実施の形態と異なる構成を中心に説明する。 In the first embodiment, a case will be described in which the analysis unit 142 determines whether it is necessary to confirm a label attached to a target determination image based on a predetermined condition stored in the storage unit 12. did. On the other hand, in the second embodiment, the analysis unit 142A determines whether it is necessary to check the label attached to the target determination image by the threshold processing. In the image inspection support device 1A according to the second embodiment, the configuration other than the analysis unit 142A is the same as the configuration of the image inspection support device 1 according to the first embodiment. Hereinafter, a description will be given mainly of a configuration different from the first embodiment.
[分析部の機能ブロック]
分析部142Aは、類似度保存部420、しきい値設定部421、およびラベル付け判定部422を備える。
[Functional block of analysis unit]
The analysis unit 142A includes a similarity storage unit 420, a threshold setting unit 421, and a labeling determination unit 422.
類似度保存部420は、類似度算出部141によって算出された各画像の特徴量に基づく画像同士の類似度について、類似度の高い画像から順に、予め設定された任意の画像数だけ選択し、選択された画像のラベルと類似度とを関連付けて保存する。類似度保存部420が選択する画像の数は最小で1枚、最大でサンプル数−1だけ選択することが可能だが、3−5枚程度の画像を選択することで十分実用できる。 The similarity storage unit 420 selects a predetermined arbitrary number of images in the order of similarity between images based on the feature amount of each image calculated by the similarity calculation unit 141, in descending order of similarity, The label of the selected image and the similarity are stored in association with each other. Although the number of images selected by the similarity storage unit 420 can be selected as small as one and as many as the number of samples -1 at maximum, it can be practically used by selecting about 3 to 5 images.
しきい値設定部421は、2つの画像が互いに類似しているとする特徴量のしきい値を設定する。しきい値設定部421は、類似度保存部420によって保存された類似度の分布やその統計量などに基づいて、画像の類似度がより低いと判断する値をしきい値として設定してもよい。 The threshold value setting unit 421 sets a threshold value of a feature amount that the two images are similar to each other. The threshold setting unit 421 may set a value that determines that the similarity of an image is lower based on the similarity distribution stored by the similarity storage unit 420 and the statistics thereof, as the threshold. Good.
しきい値設定部421は、設計に応じて適したしきい値を設定すればよく、例えば、類似度の高い画像からソートして、その順位が全画像データの1%に相当する類似度をしきい値に設定してもよい。その他、しきい値設定部421は、類似度保存部420に保存されている類似度に関する情報に基づいて生成される分布グラフや画像の表示に基づいて、作業者が設定したしきい値を入力装置108を介して受け付けてもよい。 The threshold value setting unit 421 may set a threshold value suitable for the design. For example, the threshold value setting unit 421 sorts images having high similarities and determines the similarity having a rank corresponding to 1% of all image data. The threshold may be set. In addition, the threshold value setting unit 421 inputs a threshold value set by the operator based on a distribution graph or image display generated based on the similarity information stored in the similarity storage unit 420. It may be received via the device 108.
ラベル付け判定部422は、類似度保存部420に保存されている類似度と、しきい値設定部421によって設定されたしきい値と、判定用の画像に付されたラベルとに基づいて、対象とする判定用の画像に付されたラベルの確認の要否を判定する。 The labeling determination unit 422 determines the similarity stored in the similarity storage unit 420, the threshold set by the threshold setting unit 421, and the label attached to the image for determination. It is determined whether it is necessary to confirm the label attached to the target determination image.
より詳細には、ラベル付け判定部422は、対象とする判定用の画像と類似度が高いとされる画像のラベルが、対象とする判定用の画像に付されたラベルと異なる場合には、対象とする判定用の画像のラベル付けの誤りが疑われると分析し、対象とする判定用の画像のラベルの確認が必要であると判定する。 More specifically, the labeling determination unit 422 determines that the label of the image having a high similarity to the target determination image is different from the label attached to the target determination image. It is analyzed that the labeling error of the target determination image is suspected, and it is determined that the label of the target determination image needs to be confirmed.
また、ラベル付け判定部422は、類似度算出部141によって算出された類似度がしきい値設定部421により設定されたしきい値を下回っていれば、対象とする判定用の画像はどの他の判定用の画像とも類似度が低いため、対象とする判定用の画像におけるラベル付けには潜在的な誤りがあると分析する。この場合、ラベル付け判定部422は、対象とする判定用の画像については、必要に応じてラベルの確認をしてもよい旨の判定をする。なお、ラベル付け判定部422は、設計に応じて適切な手法を加え、また不要な手法を削除した構成を用いればよい。 If the similarity calculated by the similarity calculation unit 141 is lower than the threshold set by the threshold setting unit 421, the labeling determination unit 422 determines which other Since the similarity is low with the image for determination of, it is analyzed that there is a potential error in labeling in the target image for determination. In this case, the labeling determination unit 422 determines that the label may be checked as needed for the target determination image. Note that the labeling determination unit 422 may use a configuration in which an appropriate method is added according to the design and unnecessary methods are deleted.
また、ラベル付け判定部422は、ラベルの確認が必要であると判定した画像のうち、優先的にラベルの確認をすべき画像を選定して出力してもよい。より詳細に説明すると、もしも、対象とする判定用の画像の特徴量と類似度が高いとされる特徴量を有する少なくとも2枚以上の判定用の画像のラベルが、その対象とする判定用の画像のラベルとは異なる場合には、対象とする判定用の画像のラベルの方が誤っている可能性が高い。 Further, the labeling determination unit 422 may select and output an image for which label confirmation should be preferentially selected from among images determined to require label confirmation. More specifically, if the labels of at least two or more determination images having a feature amount that is considered to have a high similarity to the feature amount of the target determination image, the label of the target determination image is used. When the label is different from the label of the image, there is a high possibility that the label of the target image for determination is wrong.
なぜならば、個々のラベル付けを間違える確率が同じであれば、複数ある他の画像のラベルを全て間違えるよりも、対象とする判定用の画像1枚だけが誤っている可能性の方がより高いと考えられるからである。よって、上記条件に該当する画像を選定して優先的に出力することで、より効率的なラベルの確認や修正が可能となる。 Because, if the probability of making a mistake in individual labeling is the same, there is a higher possibility that only one image for determination as a target is wrong than that in which all labels of a plurality of other images are wrong. It is considered that. Therefore, by selecting and preferentially outputting an image that satisfies the above conditions, it is possible to check and correct the label more efficiently.
また、ラベル付け判定部422は、ラベルの確認が必要である画像として優先的に出力した画像について、ラベルが修正された後に、再び判定を行うと、誤っていたラベルは修正されているため、より効率的なラベルの確認や修正が実施されることになる。 In addition, the labeling determination unit 422 performs the determination again after the label is corrected for the image that is preferentially output as the image that needs to be checked for a label. If the label is determined again, the incorrect label is corrected. More efficient label confirmation and correction will be implemented.
[判定処理]
次に、判定部14Aによって実行される判定処理について図9のフローチャートを参照して説明する。なお、画像検査支援装置1Aの全体のフローおよび学習処理は、第1の実施の形態と同様である。そのため、以下においては、判定部14Aによって実行される判定処理について詳細に説明する。
[Determination process]
Next, a determination process performed by the determination unit 14A will be described with reference to a flowchart of FIG. Note that the overall flow and the learning process of the image inspection support device 1A are the same as in the first embodiment. Therefore, the determination process performed by the determination unit 14A will be described in detail below.
まず、第2特徴量抽出部140は、学習部13が学習用の画像を入力として学習した画像の特徴量、すなわち学習済みのニューラルネットワークを用いて、判定用の画像の特徴量を抽出する(ステップS50A)。 First, the second feature amount extraction unit 140 extracts the feature amount of the image for determination using the learned neural network, that is, the feature amount of the image learned by the learning unit 13 using the learning image as an input ( Step S50A).
次に、類似度算出部141は、類似度を算出する前に、必要に応じてステップS50Aで抽出された判定用の画像の特徴量についての次元圧縮を行う(ステップS51A)。類似度算出部141は、PCAにより特徴量の次元圧縮を行えばよい。 Next, before calculating the similarity, the similarity calculating unit 141 performs dimensional compression on the feature amount of the image for determination extracted in step S50A as needed (step S51A). The similarity calculation unit 141 may perform dimension reduction of the feature amount by PCA.
次に、類似度算出部141は、ステップS51Aで次元が圧縮された判定対象の画像の特徴量に基づいて画像間の類似度を算出する(ステップS52A)。次に、類似度保存部420は、ステップS52Aで算出された画像間の類似度のうち、類似度が高い画像から順に、予め定められた任意の画像数に対応する特徴量を選択し、その特徴量の元データである画像に付されたラベルと類似度とを関連付けて保存する(ステップS53A)。より詳細には、類似度保存部420は、画像の識別情報と、その画像に付されたラベルと、類似度とを互いに関連付けて保存する。 Next, the similarity calculation unit 141 calculates the similarity between the images based on the feature amount of the image to be determined whose dimensions have been compressed in step S51A (step S52A). Next, the similarity storage unit 420 selects, from among the similarities between the images calculated in step S52A, a feature amount corresponding to a predetermined arbitrary number of images in order from the image having the highest similarity, The label attached to the image, which is the original data of the feature, and the similarity are stored in association with each other (step S53A). More specifically, the similarity storage unit 420 stores the identification information of the image, the label attached to the image, and the similarity in association with each other.
次に、しきい値設定部421は、類似度保存部420によって保存された判定用の画像の類似度に対するしきい値を設定する(ステップS54A)。その後、ラベル付け判定部422は、類似度保存部420によって保存されている判定用の画像各々の類似度についてしきい値処理を行い、対象とする判定用の画像に付されたラベルの確認の要否を判定する(ステップS55A)。 Next, the threshold value setting unit 421 sets a threshold value for the similarity of the image for determination stored by the similarity storage unit 420 (Step S54A). Thereafter, the labeling determination unit 422 performs threshold processing on the similarity of each of the determination images stored by the similarity storage unit 420, and checks the label attached to the target determination image. The necessity is determined (step S55A).
より詳細には、ラベル付け判定部422は、潜在的なラベル付けの誤りを含めたラベル付けの誤りを検出するため、対象とする判定用の画像について算出された類似度の値がしきい値より小さい場合には、その対象とする判定用の画像に付されたラベルの確認が必要であると判定する。これにより、ラベル付けの潜在的な誤りを検出することができる。 More specifically, the labeling determination unit 422 detects a labeling error including a potential labeling error, and sets the similarity value calculated for the target determination image to a threshold value. If it is smaller, it is determined that it is necessary to check the label attached to the target determination image. Thereby, potential labeling errors can be detected.
また、対象とする判定用の画像について算出された類似度の値がしきい値以上である場合において、対象とする判定用の画像のラベルと、他の判定用の画像に付されたラベルとが一致している場合を考える。この場合、ラベル付け判定部422は、対象とする判定用の画像に付されたラベルの確認は不要であると判定する。 Further, when the value of the similarity calculated for the target determination image is equal to or greater than the threshold, the label of the target determination image and the label attached to another determination image Are matched. In this case, the labeling determination unit 422 determines that it is not necessary to check the label attached to the target determination image.
一方、ラベル付け判定部422は、類似度の値がしきい値以上である場合において、対象とする判定用の画像のラベルと、他の判定用の画像のラベルとが互いに異なっている場合には、対象とする判定用の画像に付されたラベルの確認が必要であると判定する。 On the other hand, when the value of the similarity is equal to or larger than the threshold, the labeling determination unit 422 determines that the label of the target determination image is different from the label of another determination image. Determines that it is necessary to confirm the label attached to the target determination image.
これにより、類似度の値がしきい値以上である、すなわち潜在的な誤り以外のラベル付けの誤りを検出することができる。ラベル付け判定部422による判定結果は記憶部12に記憶される。 As a result, it is possible to detect labeling errors other than potential errors where the value of the similarity is equal to or greater than the threshold value. The determination result by the labeling determination unit 422 is stored in the storage unit 12.
その後、結果出力部143は、ラベル付け判定部422による判定結果を出力する(ステップS56A)。 After that, the result output unit 143 outputs the result of the determination by the labeling determination unit 422 (Step S56A).
以上説明したように、第2の実施の形態によれば、画像検査支援装置1Aは、判定用の画像間の類似度を算出し、算出された類似度に対してしきい値を設定する。そして、判定用の画像の特徴量における類似度と、しきい値と、判定用の画像に付されたラベルとに基づいて、対象とする判定用の画像に付されたラベルの確認の要否を判定する。そのため、画像検査支援装置1Aは、ラベル付けを誤った画像の確認作業を省力化し、その確認に必要な工数と労力を削減することができる。 As described above, according to the second embodiment, the image inspection support device 1A calculates the similarity between the images for determination, and sets a threshold value for the calculated similarity. Then, based on the similarity in the feature amount of the determination image, the threshold value, and the label attached to the determination image, whether or not it is necessary to confirm the label attached to the target determination image is determined. Is determined. Therefore, the image inspection support apparatus 1A can save labor of checking an image with incorrect labeling, and can reduce man-hours and labor required for the check.
なお、説明した実施の形態において、ラベル付け判定部422は、ラベル付けの確認が必要である旨の判定を行った画像のうち、優先的にラベルの確認をすべき画像を選定する場合について説明した。この場合、例えば入力装置108を介して作業者から受け付けた、ラベルの修正指示に基づいて、画像検査支援装置1の演算装置102は対象とする判定用の画像のラベルを修正し、記憶部12に記憶されている画像データを更新する。その後、再び図9に示す判定処理を繰り返し実行してもよい。これにより、より効率的なラベルの確認や修正が実現される。 Note that, in the embodiment described above, the case where the labeling determination unit 422 selects an image for which label confirmation is to be preferentially selected from among images for which labeling confirmation is necessary is described. did. In this case, for example, based on a label correction instruction received from a worker via the input device 108, the arithmetic unit 102 of the image inspection support device 1 corrects the label of the target image for determination, and Update the image data stored in. Thereafter, the determination process shown in FIG. 9 may be repeatedly executed. This realizes more efficient label confirmation and correction.
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the following description, the same components as those in the above-described first embodiment are denoted by the same reference numerals, and description thereof will be omitted.
第1および第2の実施の形態では、対象とする判定用の画像に付されたラベルの確認の要否を示す判定部14、14Aによる判定結果は、結果出力部143から出力される場合について説明した。これに対し、第3の実施の形態では、ユーザインターフェース(以下「UI」という。)で構成される結果出力部143Bを備え、結果出力部143Bは判定結果を表示し、作業者による修正指示を受け付ける。 In the first and second embodiments, the determination results by the determination units 14 and 14A indicating the necessity of confirming the label attached to the target determination image are output from the result output unit 143. explained. On the other hand, in the third embodiment, a result output unit 143B including a user interface (hereinafter, referred to as “UI”) is provided, and the result output unit 143B displays the determination result, and issues a correction instruction by the operator. Accept.
第3の実施の形態に係る画像検査支援装置1Bの結果出力部143B以外の構成は、第1および第2の実施の形態に係る画像検査支援装置1、1Aと同様である。以下において、第1および第2の実施の形態と異なる構成を中心に説明する。 The configuration other than the result output unit 143B of the image inspection support device 1B according to the third embodiment is the same as that of the image inspection support devices 1 and 1A according to the first and second embodiments. In the following, a description will be given focusing on a configuration different from the first and second embodiments.
[結果出力部の機能ブロック]
図10に示すように、結果出力部143Bは、特徴量圧縮部430、特徴量可視化部431、結果詳細表示部432、選択画像表示部433、操作部434、およびデータ修正部435を備える。
[Function block of result output unit]
As shown in FIG. 10, the result output unit 143B includes a feature amount compression unit 430, a feature amount visualization unit 431, a result detail display unit 432, a selection image display unit 433, an operation unit 434, and a data correction unit 435.
特徴量圧縮部430は、記憶部12に記憶されている第2特徴量抽出部140によって抽出された判定用の画像の特徴量を1次元から3次元のデータに圧縮する。通常、画像の特徴量は高次元であり、表示装置107の画面上において、人が識別できる程度に特徴量の類似関係を表示することは難しい。そのため、特徴量圧縮部430は、画面上で表示可能で、かつ、人が識別可能な1次元から3次元のデータに特徴量を圧縮する。なお、第2特徴量抽出部140によって抽出された特徴量の次元が大きすぎる場合、特徴量圧縮に膨大な時間を要することがあるため、特徴量圧縮前にPCAによる次元圧縮を行ってもよい。 The feature amount compression unit 430 compresses the feature amount of the image for determination extracted by the second feature amount extraction unit 140 stored in the storage unit 12 into one-dimensional to three-dimensional data. Usually, the feature amount of an image is high-dimensional, and it is difficult to display the similarity relationship of the feature amount on the screen of the display device 107 to the extent that a person can be identified. Therefore, the feature amount compression unit 430 compresses the feature amount into one-dimensional to three-dimensional data that can be displayed on a screen and can be identified by a person. If the dimension of the feature extracted by the second feature extractor 140 is too large, it may take an enormous amount of time to compress the feature. Therefore, dimension compression by PCA may be performed before the feature is compressed. .
特徴量圧縮部430による特徴量の圧縮の手法はいくつか存在するが、より好適には多様体学習(t−Distributed Stochastic Neighbor Embedding:t−SNE)を用いて圧縮する(非特許文献2参照)。特徴量圧縮部430によって圧縮された画像の特徴量は記憶部12に記憶される。 There are several methods for compressing the feature amount by the feature amount compression unit 430. More preferably, the feature amount is compressed using manifold learning (t-Distributed Stochastic Neighbor Embedding: t-SNE) (see Non-Patent Document 2). . The feature amount of the image compressed by the feature amount compression unit 430 is stored in the storage unit 12.
特徴量可視化部431は、特徴量圧縮部430によって1次元から3次元に圧縮された画像の特徴量の散布図を生成し、特徴量の可視化を行う。より具体的には、特徴量可視化部431は、圧縮された特徴量のデータに基づいて生成した散布図において、各プロットは分析部142Aによる分析結果を反映させ、色や形などで区別可能なデータを作成する。 The feature amount visualization unit 431 generates a scatter diagram of the feature amount of the image compressed from one-dimensional to three-dimensional by the feature amount compression unit 430, and visualizes the feature amount. More specifically, in the scatter diagram generated based on the data of the compressed feature amount, the feature amount visualizing unit 431 can distinguish each of the plots by reflecting the analysis result by the analyzing unit 142A and by color, shape, or the like. Create data.
また、特徴量可視化部431は、生成した画像の特徴量の散布図において、各プロットを対応する画像とリンクさせる。特徴量可視化部431は、散布図におけるプロットの選択操作に応じて、選択されたプロットに対応する画像およびその画像と類似度が高い画像を表示装置107の所定の画面領域に表示させる。これにより、作業者によるラベルの確認作業がより効率化される。 In addition, the feature amount visualization unit 431 links each plot with the corresponding image in the scatter diagram of the feature amount of the generated image. The feature amount visualization unit 431 displays an image corresponding to the selected plot and an image having a high degree of similarity to the selected plot in a predetermined screen area of the display device 107 in accordance with a plot selection operation in the scatter diagram. Thereby, the work of checking the label by the operator is made more efficient.
結果詳細表示部432は、記憶部12に記憶されている画像のタイトルとラベルとを含む画像データ、分析部142Aによる判定結果、および類似度保存部420によって保存されている画像の類似度とその画像に付されているラベルの一覧表を作成して表示装置107の所定の画面領域に表示する。 The result detail display unit 432 displays image data including the title and label of the image stored in the storage unit 12, the determination result by the analysis unit 142A, and the similarity of the image stored by the similarity storage unit 420 and the similarity. A list of labels attached to the images is created and displayed in a predetermined screen area of the display device 107.
結果詳細表示部432は、分析部142Aによる判定結果として、例えば、ラベル付けの確認の要否について段階的に数値化した情報を表示する。例えば、画像に付されたラベルの誤りが疑われ、確認が必要であると判定された画像については「2」、潜在的なラベル付けの誤りの可能性があり必要に応じた確認をしてもよいと判定された画像については「1」と表示する。また、結果詳細表示部432は、ラベル付けが正しく、確認は不要であると判定された画像については「0」と表示する。 The result detail display unit 432 displays, for example, information quantified in a stepwise manner as to the necessity of confirming the labeling as the determination result by the analysis unit 142A. For example, if the label on the image is suspected of being in error, and the image is determined to be required to be checked, "2", there is a possibility of a potential labeling error and check as necessary. The image determined to be acceptable is displayed as “1”. In addition, the result detail display unit 432 displays “0” for an image for which labeling is determined to be correct and confirmation is unnecessary.
結果詳細表示部432は、上記のような分析結果を表す数値の降順で全ての画像に対する情報を表示装置107に表示させることで、作業者は修正すべき画像を容易に確認できるようになる。 The result detail display unit 432 causes the display device 107 to display information on all images in descending order of numerical values representing the analysis results as described above, so that the operator can easily confirm an image to be corrected.
選択画像表示部433は、特徴量可視化部431で生成された画像の特徴量の散布図に含まれるプロットの選択操作を受け付け、選択されたプロットに応じた画像およびその画像と類似度が高い画像を表示装置107の所定の画面領域に表示させる。 The selected image display unit 433 receives a selection operation of a plot included in the scatter diagram of the feature amount of the image generated by the feature amount visualization unit 431, and an image corresponding to the selected plot and an image having a high degree of similarity to the image. Is displayed in a predetermined screen area of the display device 107.
操作部434は、表示装置107の画面上に表示されるアイコンやテキストボックスなどによって構成される。操作部434は、しきい値設定部421によって設定されたしきい値の変更、類似度保存部420によって保存された画像数の変更、およびラベルの修正を、入力装置108を介して受け付ける。 The operation unit 434 includes an icon, a text box, and the like displayed on the screen of the display device 107. The operation unit 434 receives, via the input device 108, a change in the threshold value set by the threshold value setting unit 421, a change in the number of images stored by the similarity storage unit 420, and a correction of a label.
データ修正部435は、操作部434によって受け付けられた修正や変更操作に基づいて、情報を修正または変更して記憶部12や類似度保存部420の情報を更新する。データ修正部435は、表示装置107の画面上に表示される修正ボタン、変更ボタンや終了ボタンで実現される。 The data correction unit 435 corrects or changes information based on the correction or change operation received by the operation unit 434, and updates the information in the storage unit 12 or the similarity storage unit 420. The data correction unit 435 is realized by a correction button, a change button, and an end button displayed on the screen of the display device 107.
具体的には、操作部434から、しきい値やラベルの修正や変更を指示する操作信号の入力があると、データ修正部435は記憶部12に記憶されているしきい値やラベル情報を更新する。また、類似度保存部420に保存されているデータ数の変更があると、データ修正部435は類似度保存部420の情報を更新する。 Specifically, when an operation signal for instructing correction or change of the threshold value or the label is input from the operation unit 434, the data correction unit 435 reads the threshold value or the label information stored in the storage unit 12. Update. When the number of data stored in the similarity storage unit 420 is changed, the data correction unit 435 updates information in the similarity storage unit 420.
[判定処理]
次に、上述した構成を有する画像検査支援装置1の動作について説明する。なお、画像検査支援装置1の全体のフローおよび学習処理については、第1および第2の実施の形態と同様であるため説明を省略する。以下においては、判定部14Bによる判定処理について詳細に説明する。
[Determination process]
Next, the operation of the image inspection support device 1 having the above-described configuration will be described. Note that the entire flow and the learning process of the image inspection support device 1 are the same as those in the first and second embodiments, and a description thereof will be omitted. Hereinafter, the determination process by the determination unit 14B will be described in detail.
図11は、本実施の形態に係る判定処理を説明するフローチャートである。図12は、表示処理を説明するフローチャートである。また、図13は、結果出力部143Bによる表示例を説明する図である。 FIG. 11 is a flowchart illustrating a determination process according to the present embodiment. FIG. 12 is a flowchart illustrating the display processing. FIG. 13 is a diagram illustrating a display example by the result output unit 143B.
まず、第2特徴量抽出部140は、学習部13によって得られた学習済みのニューラルネットワークを用いて、判定用の画像の特徴量を抽出する(ステップS50B)。 First, the second feature amount extraction unit 140 extracts the feature amount of the image for determination using the learned neural network obtained by the learning unit 13 (step S50B).
次に、類似度算出部141は、類似度を算出する前に、必要に応じてステップS50Bで抽出された判定用の画像の特徴量について次元圧縮を行う(ステップS51B)。類似度算出部141は、PCAにより特徴量の次元圧縮を行えばよい。 Next, before calculating the similarity, the similarity calculation unit 141 performs dimensional compression on the feature amount of the image for determination extracted in step S50B as needed (step S51B). The similarity calculation unit 141 may perform dimension reduction of the feature amount by PCA.
次に、類似度算出部141は、ステップS51Bで次元が圧縮された判定用の画像の特徴量の類似度を算出する(ステップS52B)。次に、類似度保存部420は、ステップS52Bで算出された類似度のうち、類似度が高い画像から順に、予め定められた任意の画像数に対応する特徴量を選択し、その特徴量の元データである判定用の画像に付されたラベルと類似度とを関連付けて保存する(ステップS53B)。 Next, the similarity calculation unit 141 calculates the similarity of the feature amounts of the image for determination whose dimensions have been compressed in step S51B (step S52B). Next, among the similarities calculated in step S52B, the similarity storage unit 420 selects a feature amount corresponding to a predetermined arbitrary number of images in order from the image having the highest similarity, and The label attached to the image for determination as the original data and the similarity are stored in association with each other (step S53B).
次に、しきい値設定部421は、類似度保存部420によって保存された判定用の画像の類似度に対するしきい値を設定する(ステップS54B)。その後、ラベル付け判定部422は、類似度保存部420によって保存されている画像の類似度に基づいて、判定用の画像についてのしきい値処理を行い、対象とする判定用の画像に付されたラベルの確認の要否を判定する(ステップS55B)。 Next, the threshold value setting unit 421 sets a threshold value for the similarity of the image for determination stored by the similarity storage unit 420 (Step S54B). Thereafter, the labeling determination unit 422 performs a threshold process on the image for determination based on the similarity of the image stored by the similarity storage unit 420, and attaches it to the image for determination to be targeted. It is determined whether it is necessary to check the label (step S55B).
次に、結果出力部143Bは、ラベル付け判定部422による判定結果に関する情報を表示装置107の画面に表示する(ステップS56B) Next, the result output unit 143B displays information on the determination result by the labeling determination unit 422 on the screen of the display device 107 (Step S56B).
ここで、結果出力部143Bによる表示処理について図12を参照してより詳細に説明する。
まず、特徴量圧縮部430は、必要に応じて記憶部12に記憶されている画像の特徴量をPCAにより次元圧縮する(ステップS560)。
Here, the display processing by the result output unit 143B will be described in more detail with reference to FIG.
First, the feature amount compression unit 430 performs dimension compression of the feature amount of the image stored in the storage unit 12 by PCA as necessary (step S560).
次に、特徴量圧縮部430は、ステップS560で次元圧縮された画像の特徴量を1次元から3次元のデータに圧縮する(ステップS561)。具体的には、特徴量圧縮部430は、t−SNEを用いて特徴量を圧縮する(非特許文献2参照)。次に、特徴量可視化部431は、ステップS561で圧縮された特徴量のデータの散布図を生成し、表示装置107の所定の画面領域に表示させる(ステップS562)。 Next, the feature compression unit 430 compresses the feature of the image that has been dimensionally compressed in step S560 into one-dimensional to three-dimensional data (step S561). Specifically, the feature compression unit 430 compresses the feature using the t-SNE (see Non-Patent Document 2). Next, the feature amount visualization unit 431 generates a scatter diagram of the feature amount data compressed in step S561, and displays the scatter diagram in a predetermined screen area of the display device 107 (step S562).
具体的には、特徴量可視化部431は、図13に示すように、表示装置107の画面領域a1に、生成した散布図を表示する。また、特徴量可視化部431は、散布図において、各プロットには分析部142Aによる判定の結果を反映させて表示する。 Specifically, the feature amount visualization unit 431 displays the generated scatter diagram in the screen area a1 of the display device 107, as shown in FIG. In addition, the feature amount visualization unit 431 displays each plot in the scatter diagram by reflecting the result of the determination by the analysis unit 142A.
例えば、特徴量可視化部431は、スタイルシート(CSS)において、分析部142Aによりラベルの確認が必要であると判定された画像を示すプロットについては「赤色」の表示色の指定をする。また、特徴量可視化部431は、潜在的なラベル付けの誤りの可能性があり、必要に応じたラベルの確認を勧める判定がされた画像を示すプロットについては「オレンジ色」の表示色の指定をする。また、特徴量可視化部431は、ラベル付けが正しく、確認が不要であると判定された画像を示すプロットについては「緑色」の表示色の指定をする。 For example, the feature amount visualization unit 431 specifies a display color of “red” in a style sheet (CSS) for a plot indicating an image determined to require label confirmation by the analysis unit 142A. In addition, the feature amount visualization unit 431 may specify a display color of “orange” for a plot indicating an image in which there is a possibility of a potential labeling error and recommendation of a label as necessary is recommended. do. In addition, the feature amount visualization unit 431 specifies a display color of “green” for a plot indicating an image for which labeling is correct and determination is not necessary.
次に、結果詳細表示部432は、類似度保存部420により保存された画像のタイトル、ラベル、類似度、およびラベル付け判定部422による判定結果を含む情報の一覧表を作成して所定の画面領域に表示する(ステップS563)。具体的には、結果詳細表示部432は、図13に示すように、画面領域a2に一覧表を表示する。 Next, the result detail display unit 432 creates a list of information including the title, label, similarity of the image stored by the similarity storage unit 420, and the determination result by the labeling determination unit 422, and generates a predetermined screen. It is displayed in the area (step S563). Specifically, the result detail display unit 432 displays a list in the screen area a2 as shown in FIG.
次に、選択画像表示部433は、ステップS562で表示された散布図において、外部からの所定のプロットの選択を受け付けると、選択された画像を表示装置107の所定の画面領域に表示させる(ステップS564)。 Next, when receiving the selection of a predetermined plot from the outside in the scatter diagram displayed in step S562, the selected image display unit 433 displays the selected image in a predetermined screen area of the display device 107 (step S562). S564).
具体的には、選択画像表示部433は、図13に示すように、作業者が入力装置108を介して選択したプロットに対応する画像を、画面領域a3の上段に表示する。選択画像表示部433は、画面領域a3の上段において、画像のタイトルとそのサムネイルを表示する。また、選択画像表示部433は、画面領域a3の下段に、選択された画像と類似度が高いとされる画像のタイトルとサムネイルを表示する。 Specifically, as shown in FIG. 13, the selected image display unit 433 displays an image corresponding to the plot selected by the operator via the input device 108 in the upper part of the screen area a3. The selected image display unit 433 displays the title of the image and its thumbnail in the upper part of the screen area a3. In addition, the selected image display unit 433 displays a title and a thumbnail of an image having a high similarity to the selected image in the lower part of the screen area a3.
図11の判定処理に戻り、操作部434は、外部から表示装置107に表示された、対象とする判定用の画像(選択画像)の判定結果に関する情報に対する操作を受け付ける(ステップS57B)。操作部434は、例えば、作業者が入力装置108から入力した操作指示を受け付ける。 Returning to the determination process of FIG. 11, the operation unit 434 receives an operation on information about the determination result of the target determination image (selected image) displayed on the display device 107 from the outside (step S57B). The operation unit 434 receives, for example, an operation instruction input by the operator from the input device 108.
次に、操作部434が受け付けた操作指示が、しきい値設定部421により設定された画像の類似度に対するしきい値を変更する指示、または類似度保存部420により保存されたデータの数の変更指示である場合には(ステップS58B:YES)、データ修正部435は、それらの指示に応じてしきい値またはデータ数を変更する(ステップS59B)。 Next, the operation instruction received by the operation unit 434 is an instruction to change the threshold for the similarity of the image set by the threshold setting unit 421, or the number of data stored by the similarity storage 420. If the instruction is a change instruction (step S58B: YES), the data correction unit 435 changes the threshold value or the number of data according to the instruction (step S59B).
より詳細には、データ修正部435は、記憶部12に記憶されている画像の類似度に対するしきい値を変更して記憶する。また、データ修正部435は、類似度保存部420によって保存されている画像の枚数を変更指示に応じた枚数とする指示を類似度保存部420に送る。データ修正部435によるデータの修正または修正指示に基づいて、ステップS53BからステップS57Bが繰り返して実行される。 More specifically, the data correction unit 435 changes and stores the threshold value for the similarity of the image stored in the storage unit 12. Further, the data correction unit 435 sends an instruction to the similarity storage unit 420 to set the number of images stored by the similarity storage unit 420 to the number according to the change instruction. Steps S53B to S57B are repeatedly executed based on the data correction or correction instruction by the data correction unit 435.
一方、操作部434が受け付けた操作指示が、選択された画像に付されたラベルを修正する操作指示である場合(ステップS58B:NO、ステップS60B:YES)、データ修正部435は、選択された画像のラベルを修正して記憶部12に記憶する(ステップS61B)。データ修正部435によるラベルの修正の後、結果出力部143Bによる表示処理が実行される。 On the other hand, when the operation instruction received by the operation unit 434 is an operation instruction to correct the label attached to the selected image (Step S58B: NO, Step S60B: YES), the data correction unit 435 selects the selected image. The label of the image is corrected and stored in the storage unit 12 (Step S61B). After the data correction unit 435 corrects the label, a display process is performed by the result output unit 143B.
ここで、図13に示す表示装置107における表示例を参照して、上述したステップS57BからステップS61Bまでの処理についての画像検査支援装置1Bの使用例を説明する。
図13に示すように、操作部434は、しきい値変更入力部I1、保存数変更入力部I2、およびラベル修正入力部I3で構成される。操作部434は、画面領域a4に設けられたテキストボックスにより実現される。
Here, with reference to a display example on the display device 107 shown in FIG. 13, an example of use of the image inspection support device 1B for the processing from step S57B to step S61B will be described.
As shown in FIG. 13, the operation unit 434 includes a threshold value change input unit I1, a storage number change input unit I2, and a label correction input unit I3. The operation unit 434 is realized by a text box provided in the screen area a4.
データ修正部435は、変更ボタンI4、修正ボタンI5、および終了ボタンI6で構成される。データ修正部435は、画面領域a4に設けられたボタン実現される。 The data correction unit 435 includes a change button I4, a correction button I5, and an end button I6. The data correction unit 435 is realized by a button provided in the screen area a4.
作業者は、表示装置107の画面領域a3に表示されている選択画像および選択画像と類似度が高い画像と、画面領域a2に表示されている分析の結果とを画面上で確認する。そして、作業者は、画像の類似度に対するしきい値、または類似度保存部420で保存する画像数の変更を必要に応じて行う。この場合に、作業者は、入力装置108を介して、画面領域a4に表示されているしきい値変更入力部I1、または保存数変更入力部I2に、変更するしきい値、および新たな画像数を入力する。 The operator checks on the screen the selected image displayed on the screen area a3 of the display device 107, the image having a high degree of similarity to the selected image, and the analysis result displayed on the screen area a2. Then, the worker changes the threshold value for the similarity of the images or the number of images stored in the similarity storage unit 420 as necessary. In this case, the operator inputs a threshold value to be changed and a new image to the threshold value change input unit I1 or the storage number change input unit I2 displayed on the screen area a4 via the input device 108. Enter a number.
その後、作業者は入力装置108を介して、画面領域a4に表示されている変更ボタンI4をクリックすることで、変更を確定することができる。 Thereafter, the operator can confirm the change by clicking the change button I4 displayed on the screen area a4 via the input device 108.
また、画面領域a3に表示されている選択画像のラベルを修正する場合には、作業者は、入力装置108を介して画面領域a4に表示されているラベル修正入力部I3に修正するラベル情報を入力する。その後、作業者は入力装置108を介して修正ボタンI5をクリックすることで、ラベルの修正を確定させることができる。 When correcting the label of the selected image displayed on the screen area a3, the operator inputs the label information to be corrected to the label correction input unit I3 displayed on the screen area a4 via the input device 108. input. Thereafter, the operator can fix the label correction by clicking the correction button I5 via the input device 108.
また、ラベルの修正を確定させた後、終了ボタンI6がクリックされることで、ラベルの修正作業が終了する。 After the label modification is confirmed, the end button I6 is clicked, thereby completing the label modification operation.
以上説明したように、第3の実施の形態に係る画像検査支援装置1Bによれば、結果出力部143Bを備えるので、作業者は、UIを通してラベルの確認の要否を示す判定結果を確認し、ラベルの修正を行うことができる。このようなUIを用いることで、膨大な画像データが含まれるディレクトリやデータベースなどから修正すべき画像データを探してラベルの修正作業を行う必要がなくなり、作業者におけるラベルの確認および修正作業が容易となる。 As described above, according to the image inspection support device 1B according to the third embodiment, since the result output unit 143B is provided, the operator checks the determination result indicating whether the label check is necessary through the UI. , The label can be modified. By using such a UI, there is no need to search for image data to be corrected from a directory or a database containing a large amount of image data and perform label correction work, thereby facilitating label confirmation and correction work by an operator. It becomes.
また、画像検査支援装置1Bは、操作部434を備え、画像に付されたラベルの確認の要否判定に用いる条件を必要に応じて変更することができるので、容易に試行錯誤ができる。その結果として、ラベル付けを誤った画像の確認を省力化し、その確認に必要な工数と労力を削減することができる。 Further, since the image inspection support device 1B includes the operation unit 434 and can change the conditions used to determine whether or not it is necessary to confirm the label attached to the image as necessary, it is possible to easily perform trial and error. As a result, it is possible to save labor for confirming an image with incorrect labeling, and to reduce the man-hour and labor required for the confirmation.
以上、本発明の画像検査支援装置および画像検査支援方法における実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。 As described above, the embodiments of the image inspection support apparatus and the image inspection support method of the present invention have been described. However, the present invention is not limited to the above-described embodiments, and those skilled in the art will be within the scope of the appended claims. It is possible to perform various deformations that can be assumed.
例えば、説明した実施の形態では、学習部13と判定部14とは同一の計算機に実装されている場合について説明したが、学習部13と判定部14とはそれぞれ別々の計算機に実装されていてもよい。 For example, in the above-described embodiment, the case has been described where the learning unit 13 and the determination unit 14 are mounted on the same computer. However, the learning unit 13 and the determination unit 14 are mounted on separate computers. Is also good.
1、1A、1B…画像検査支援装置、10…画像取得部、11…前処理部、12…記憶部、13…学習部、14…判定部、130…第1特徴量抽出部、131…画像復元部、132…誤差算出部、133…誤差逆伝搬部、140…第2特徴量抽出部、141…類似度算出部、142…分析部、143…結果出力部、101…バス、102…演算装置、103…CPU、104…主記憶装置、105…通信制御装置、106…外部記憶装置、107…表示装置、108…入力装置、106a…画像データ記憶部、106b…設定情報記憶部、106c…学習情報記憶部、106d…判定情報記憶部、106e…プログラム格納部。 1, 1A, 1B: Image inspection support device, 10: Image acquisition unit, 11: Preprocessing unit, 12: Storage unit, 13: Learning unit, 14: Judgment unit, 130: First feature amount extraction unit, 131: Image Restoring unit, 132 error calculating unit, 133 error back-propagating unit, 140 second feature amount extracting unit, 141 similarity calculating unit, 142 analyzing unit, 143 result output unit, 101 bus, 102 arithmetic Device, 103 CPU, 104 main storage device, 105 communication control device, 106 external storage device, 107 display device, 108 input device, 106a image data storage unit, 106b setting information storage unit, 106c Learning information storage unit, 106d: determination information storage unit, 106e: program storage unit.
Claims (7)
学習および判定に用いられる画像を取得する画像取得部と、
取得された学習用の画像に基づいてニューラルネットワークの学習を行い、前記学習用の画像が復元できる特徴量を出力する学習済みのニューラルネットワークを構築する学習部と、
前記学習済みのニューラルネットワークを用いて、取得された判定用の画像の特徴量を抽出し、その特徴量から算出された、対象とする判定用の画像と他の判定用の画像のそれぞれとの互いの相関性を示す指標値に基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定して判定結果を出力する判定部と
を備え、
前記取得された判定用の画像は、予め付与されているラベルを含む
ことを特徴とする画像検査支援装置。 An image inspection support device that supports confirmation of a label attached to an image used in learning of a learning type image inspection device,
An image acquisition unit that acquires an image used for learning and determination,
A learning unit that performs learning of the neural network based on the acquired learning image and constructs a learned neural network that outputs a feature amount that can restore the learning image;
Using the learned neural network, the feature amount of the acquired determination image is extracted and calculated from the feature amount, and the target determination image and each of the other determination images are calculated. A determination unit that determines whether or not confirmation is necessary to correct the label attached to the target determination image based on the index values indicating the mutual correlation, and outputs a determination result.
The acquired image for determination includes a label given in advance. The image inspection support apparatus.
前記学習部は、
前記学習用の画像を入力として、畳み込み層の演算を行い、前記学習用の画像の特徴量を抽出する第1特徴量抽出部と、
前記第1特徴量抽出部によって抽出された前記特徴量を入力として、前記畳み込み層に対応する逆構造を有する逆畳み込み層の演算を行い、前記学習用の画像が復元された復元画像を出力する画像復元部と、
前記第1特徴量抽出部に入力された前記学習用の画像と、前記復元画像との誤差を算出する誤差算出部と、
算出された前記誤差がより小さくなるように、誤差逆伝搬法を用いて前記畳み込み層および前記逆畳み込み層を学習する誤差逆伝搬部と、
を備え、
前記判定部は、
前記判定用の画像を入力として、前記学習部による学習で得られた学習済みの畳み込み層の演算を行い、前記判定用の画像の特徴量を抽出する第2特徴量抽出部と、
前記第2特徴量抽出部によって抽出された前記特徴量に基づいて前記指標値を算出する類似度算出部と、
前記指標値より、前記対象とする判定用の画像と類似する前記他の判定用の画像が存在し、かつ、その類似する前記他の判定用の画像に付されたラベルと、前記対象とする判定用の画像に付されたラベルとが互いに異なる場合には、前記対象とする判定用の画像に付されたラベルは修正のための確認が必要であると判定する分析部と、
前記分析部による判定結果を出力する結果出力部と、
を備える
ことを特徴とする画像検査支援装置。 The image inspection support device according to claim 1,
The learning unit includes:
A first feature amount extraction unit that performs a convolution layer operation with the learning image as an input and extracts a feature amount of the learning image;
With the feature amount extracted by the first feature amount extraction unit as input, a deconvolution layer having an inverse structure corresponding to the convolution layer is calculated, and a restored image in which the learning image is restored is output. An image restoration unit;
An error calculation unit that calculates an error between the learning image input to the first feature amount extraction unit and the restored image,
An error back propagation unit that learns the convolution layer and the deconvolution layer using an error back propagation method so that the calculated error is smaller,
With
The determination unit includes:
A second feature value extraction unit that performs an operation on a learned convolutional layer obtained by learning by the learning unit and receives a feature value of the determination image, using the determination image as an input;
A similarity calculation unit that calculates the index value based on the feature amount extracted by the second feature amount extraction unit;
From the index value, the other determination image similar to the target determination image exists, and the label attached to the similar another determination image and the target When the label attached to the image for determination is different from each other, an analysis unit that determines that the label attached to the image for determination as the target needs confirmation for correction,
A result output unit that outputs a determination result by the analysis unit,
An image inspection support device, comprising:
前記分析部は、前記対象とする判定用の画像と類似する前記他の判定用の画像が存在しない場合に、前記対象とする判定用の画像に付されているラベルについて、修正のための確認をしてもよいと判定することを特徴とする画像検査支援装置。 The image inspection support device according to claim 2,
The analysis unit, when there is no other image for determination similar to the image for determination as the target, confirms a label attached to the image for determination as the target for correction. An image inspection support apparatus characterized in that it is determined that the image inspection may be performed.
前記分析部は、
前記類似度算出部によって算出された前記指標値を前記判定用の画像毎に保存する類似度保存部と、
前記指標値に対してしきい値を設定するしきい値設定部と、
前記類似度保存部によって保存された前記指標値と、前記しきい値と、前記判定用の画像に付されたラベルとに基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定するラベル付け判定部と、
を備え、
前記類似度保存部は、前記判定用の画像毎に、前記指標値を用いて、前記対象とする判定用の画像との類似性がより高い前記他の判定用の画像から順に所定の数だけ選択し、選択した前記他の判定用の画像をラベルと共に保存し、
前記ラベル付け判定部は、前記対象とする判定用の画像について算出された前記指標値と、前記しきい値とを比較し、比較の結果に基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定する
ことを特徴とする画像検査支援装置。 The image inspection support device according to claim 2 or 3,
The analysis unit includes:
A similarity storage unit that stores the index value calculated by the similarity calculation unit for each image for determination,
A threshold value setting unit that sets a threshold value for the index value;
Based on the index value stored by the similarity storage unit, the threshold value, and the label attached to the image for determination, modify the label attached to the image for determination as the target. A labeling determination unit that determines whether confirmation is necessary
With
The similarity storage unit uses the index value for each of the images for determination, and uses the index value to determine a predetermined number of images in order from the other image for determination having higher similarity with the image for determination to be targeted. Selecting, saving the selected other image for determination together with a label,
The labeling determination unit compares the index value calculated for the target determination image with the threshold value, and attaches the label to the target determination image based on the comparison result. An image inspection support device, which determines whether or not confirmation for correcting a label is required.
前記ラベル付け判定部は、前記対象とする判定用の画像に付されたラベルと、前記類似度保存部に保存されている前記他の判定用の画像に付されたラベルとが互いに異なる場合に、前記対象とする判定用の画像に付されたラベルは修正のための確認が必要であると判定することを特徴とする画像検査支援装置。 The image inspection support device according to claim 4,
The labeling determination unit, when the label attached to the target image for determination and the label attached to the other determination image stored in the similarity storage unit are different from each other An image inspection support apparatus for determining that a label attached to the target determination image needs confirmation for correction.
前記結果出力部は、
前記第2特徴量抽出部によって抽出された前記特徴量の次元を圧縮する特徴量圧縮部と、
圧縮された前記特徴量から前記判定用の画像毎の散布図を生成して表示装置に表示させる特徴量可視化部と、
前記表示装置に表示された前記対象とする判定用の画像に対するラベルの修正指示を外部から受け付ける操作部と、
前記修正指示に基づいて、前記対象とする判定用の画像に付されたラベルを修正して、記憶部に記憶するデータ修正部と
を備えることを特徴とする画像検査支援装置。 The image inspection support device according to any one of claims 2 to 5,
The result output unit includes:
A feature amount compression unit that compresses a dimension of the feature amount extracted by the second feature amount extraction unit;
A feature amount visualization unit that generates a scatter diagram for each image for determination from the compressed feature amount and displays the scatter diagram on a display device,
An operation unit configured to externally receive a label correction instruction for the target determination image displayed on the display device,
A data correction unit that corrects a label attached to the target image for determination based on the correction instruction and stores the corrected data in a storage unit.
学習および判定に用いられる画像を取得する画像取得ステップと、
取得された学習用の画像に基づいてニューラルネットワークの学習を行い、前記学習用の画像が復元できる特徴量を出力する学習済みのニューラルネットワークを構築する学習ステップと、
前記学習済みのニューラルネットワークを用いて、取得された判定用の画像の特徴量を抽出し、抽出された特徴量から算出された、対象とする判定用の画像と他の判定用の画像のそれぞれとの互いの相関性を示す指標値に基づいて、前記対象とする判定用の画像に付されたラベルを修正するための確認の要否を判定して判定結果を出力する判定ステップと
を備え、
前記取得された判定用の画像は、予め付与されているラベルを含む
ことを特徴とする画像検査支援方法。 An image inspection support method for supporting confirmation of a label attached to an image used in learning of a learning-type image inspection device,
An image acquisition step of acquiring an image used for learning and determination;
Learning step of learning the neural network based on the acquired learning image, and constructing a learned neural network that outputs a feature amount that can restore the learning image,
Using the learned neural network, extract the feature amount of the acquired determination image, calculated from the extracted feature amount, each of the target determination image and the other determination image A determination step of determining whether or not confirmation for correcting a label attached to the target determination image is necessary and outputting a determination result based on an index value indicating a mutual correlation with ,
The acquired image for determination includes a label assigned in advance, The image inspection support method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112516A JP2019215698A (en) | 2018-06-13 | 2018-06-13 | Image inspection support apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112516A JP2019215698A (en) | 2018-06-13 | 2018-06-13 | Image inspection support apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019215698A true JP2019215698A (en) | 2019-12-19 |
Family
ID=68918716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112516A Pending JP2019215698A (en) | 2018-06-13 | 2018-06-13 | Image inspection support apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019215698A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021105928A (en) * | 2019-12-27 | 2021-07-26 | 富士通株式会社 | Learning data generation method, learning data generation program, and information processing apparatus |
JP2021111279A (en) * | 2020-01-15 | 2021-08-02 | 京セラ株式会社 | Label noise detection program, label noise detection method and label noise detection device |
CN113408578A (en) * | 2021-05-13 | 2021-09-17 | 华南理工大学 | Harmonic reducer fault diagnosis method and system based on generative countermeasure network |
CN113436182A (en) * | 2021-07-08 | 2021-09-24 | 揭阳市汇宝昌电器有限公司 | Rapid visual detection and identification method for end cover assembly quality of miniature direct current motor |
WO2024089897A1 (en) * | 2022-10-28 | 2024-05-02 | 日本電信電話株式会社 | Detection estimation device, detection estimation method, and detection estimation program |
JP7577814B2 (en) | 2023-03-30 | 2024-11-05 | ウーブン・バイ・トヨタ株式会社 | SYSTEM AND METHOD FOR AUDITING IMAGE INSPECTION QUALITY - Patent application |
JP7619056B2 (en) | 2021-01-28 | 2025-01-22 | 東レ株式会社 | Data classification device, data classification method, and labeling method |
-
2018
- 2018-06-13 JP JP2018112516A patent/JP2019215698A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021105928A (en) * | 2019-12-27 | 2021-07-26 | 富士通株式会社 | Learning data generation method, learning data generation program, and information processing apparatus |
JP7409080B2 (en) | 2019-12-27 | 2024-01-09 | 富士通株式会社 | Learning data generation method, learning data generation program, and information processing device |
JP2021111279A (en) * | 2020-01-15 | 2021-08-02 | 京セラ株式会社 | Label noise detection program, label noise detection method and label noise detection device |
JP7422548B2 (en) | 2020-01-15 | 2024-01-26 | 京セラ株式会社 | Label noise detection program, label noise detection method, and label noise detection device |
JP7619056B2 (en) | 2021-01-28 | 2025-01-22 | 東レ株式会社 | Data classification device, data classification method, and labeling method |
CN113408578A (en) * | 2021-05-13 | 2021-09-17 | 华南理工大学 | Harmonic reducer fault diagnosis method and system based on generative countermeasure network |
CN113408578B (en) * | 2021-05-13 | 2022-10-25 | 华南理工大学 | Fault diagnosis method and system of harmonic reducer based on generative countermeasure network |
CN113436182A (en) * | 2021-07-08 | 2021-09-24 | 揭阳市汇宝昌电器有限公司 | Rapid visual detection and identification method for end cover assembly quality of miniature direct current motor |
WO2024089897A1 (en) * | 2022-10-28 | 2024-05-02 | 日本電信電話株式会社 | Detection estimation device, detection estimation method, and detection estimation program |
JP7577814B2 (en) | 2023-03-30 | 2024-11-05 | ウーブン・バイ・トヨタ株式会社 | SYSTEM AND METHOD FOR AUDITING IMAGE INSPECTION QUALITY - Patent application |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019215698A (en) | Image inspection support apparatus and method | |
US20200349466A1 (en) | Providing performance views associated with performance of a machine learning system | |
WO2020062702A1 (en) | Method and device for sending text messages, computer device and storage medium | |
CN109446061B (en) | Page detection method, computer readable storage medium and terminal device | |
JP2018142097A (en) | Information processing device, information processing method, and program | |
US20160147796A1 (en) | Automatic schema mismatch detection | |
CN110471945B (en) | Active data processing method, system, computer equipment and storage medium | |
US20230144809A1 (en) | Model operation support system and method | |
CN110909868A (en) | Node representation method and device based on graph neural network model | |
CN110889437B (en) | Image processing method and device, electronic equipment and storage medium | |
US20220405299A1 (en) | Visualizing feature variation effects on computer model prediction | |
CN110780965A (en) | Vision-based process automation method, device and readable storage medium | |
JP2018195231A (en) | Learning model creation device, learning model creation method, and learning model creation program | |
CN113641525A (en) | Variable anomaly repair method, apparatus, medium and computer program product | |
CN119810080A (en) | A stainless steel surface defect detection method based on machine vision | |
CN111798376A (en) | Image recognition method and device, electronic equipment and storage medium | |
Boillet et al. | Confidence estimation for object detection in document images | |
CN117313863A (en) | Construction and related device of causal inference model based on gradient lifting tree | |
CN117408936A (en) | Deviation detection in image data with interpretability in machine learning | |
CN115081716A (en) | Enterprise default risk prediction method, computer equipment and storage medium | |
CN114185624A (en) | Report loading update detection method, device, equipment and storage medium | |
EP3693888A2 (en) | Using transformations to verify computer vision quality | |
US20250037455A1 (en) | Image analysis systems and methods for determining building roof age | |
CA3128561C (en) | App package size optimization method, device, computer equipment, and storage medium | |
CN115629831B (en) | Device interface data collection method, device, equipment and storage medium |