JP5637373B2 - Image classification method, appearance inspection method, and appearance inspection apparatus - Google Patents
Image classification method, appearance inspection method, and appearance inspection apparatus Download PDFInfo
- Publication number
- JP5637373B2 JP5637373B2 JP2010217308A JP2010217308A JP5637373B2 JP 5637373 B2 JP5637373 B2 JP 5637373B2 JP 2010217308 A JP2010217308 A JP 2010217308A JP 2010217308 A JP2010217308 A JP 2010217308A JP 5637373 B2 JP5637373 B2 JP 5637373B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- image
- feature amount
- classification
- effective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000007689 inspection Methods 0.000 title claims description 49
- 230000008569 process Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000012706 support-vector machine Methods 0.000 claims description 15
- 230000001186 cumulative effect Effects 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 8
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000007547 defect Effects 0.000 description 73
- 238000012545 processing Methods 0.000 description 19
- 239000000758 substrate Substances 0.000 description 15
- 230000000694 effects Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000010187 selection method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000010827 pathological analysis Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
この発明は、例えば画像をその特徴量に基づいて分類する技術に関するものである。 The present invention relates to a technique for classifying images based on their feature amounts, for example.
例えば画像をその内容に応じていくつかの分類グループに分類する方法として、分類対象となる画像から特徴量を算出し、該特徴量に基づき分類器による分類を行う方法が知られている。この技術においては、分類対象をどのような特徴量に基づいて分類するかが分類精度に大きく影響する。しかしながら、特徴量としては数多くのものが知られており、そのような多くの特徴量に基づく分類は処理時間の点で現実的でないことから、多くの特徴量の中から当該分類対象の分類に適合したものを選出するための技術が従来より提案されている。 For example, as a method of classifying an image into several classification groups according to the contents, a method is known in which feature amounts are calculated from images to be classified, and classification is performed by a classifier based on the feature amounts. In this technology, the classification accuracy of the classification target greatly affects the classification accuracy. However, many feature quantities are known, and classification based on such many feature quantities is not realistic in terms of processing time. Techniques for selecting a suitable one have been conventionally proposed.
例えば、特許文献1に記載の技術では、各特徴量の有意性を、SVM(サポート・ベクタ・マシン)2次計画形式に対応する最小化問題を解くことにより定量的に求め、その値が予め定めた閾値よりも大きいものを有効な特徴量とし、有効とされた特徴量のみを用いて学習および分類を行うようにしている。
For example, in the technique described in
上記従来技術においては、特徴量が有効であるか否かを区別する閾値をどのように設定するかが分類精度の上で重要となる。しかしながら、その設定の方法に関して特許文献1には具体的な記載がない。仮にこれを例えば経験に基づき人為的に設定するとしても、その設定の仕方により有効とされる特徴量の種類や数が変わってくることがあり、後の分類の結果の安定性に悪影響を及ぼすおそれが残されている。
In the above prior art, how to set a threshold value for distinguishing whether or not a feature amount is effective is important for classification accuracy. However, there is no specific description in
この発明は上記課題に鑑みなされたものであり、特徴量に基づく分類技術において、分類に有効な特徴量のみを効率よく、かつばらつきなく選出し、こうして選出された有効特徴量を使用することにより、短い処理時間で安定した分類結果を得ることを可能とする技術を提供することを目的とする。 The present invention has been made in view of the above problems, and in the classification technique based on the feature amount, only the feature amount effective for classification is selected efficiently and without variation, and the effective feature amount thus selected is used. An object of the present invention is to provide a technique that makes it possible to obtain a stable classification result in a short processing time.
この発明の一の態様は、特徴量に基づき画像を分類する画像の分類方法であって、上記目的を達成するため、教師データとなる画像の複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、前記指標値に基づいて、前記複数種の特徴量の中から有効特徴量を選出する有効特徴量選出工程と、選出された前記有効特徴量に基づき前記教師データの再学習を行う再学習工程と、分類対象となる画像について、前記有効特徴量を算出する特徴量算出工程と、前記再学習の結果および前記有効特徴量に基づき前記画像を分類する分類工程とを備え、前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから第N番目(Nは自然数)のものまでを前記有効特徴量として選出し、しかも、前記複数種の特徴量全ての前記指標値の総和に対する前記N個の有効特徴量それぞれの前記指標値の和の割合が、予め定められた規定割合となるようにすることを特徴としている。 One aspect of this inventions is a method of classifying images of classifying an image based on feature amount, in order to achieve the above object, the machine learning based on a plurality of kinds of feature amounts of the image to be teaching data From the result, a learning step for obtaining an index value for each feature quantity as an index of the effect on the classification result among the plurality of feature quantities, and based on the index value, the plurality of kinds and effective feature quantity selection step of selecting RaYu effective characteristic quantity or in the feature amount, a re-learning step of performing re-learning of the teacher data based on the effective characteristic quantity elected, the image to be classified, the A feature amount calculating step of calculating an effective feature amount; and a classification step of classifying the image based on the result of the relearning and the effective feature amount. In the effective feature amount selecting step, the plurality of types of feature amounts Of which, the index value is the best To N-th (N is a natural number) are selected as the effective feature quantities, and the indices for each of the N effective feature quantities with respect to the sum of the index values of all the plurality of feature quantities It is characterized in that the ratio of the sum of the values becomes a predetermined specified ratio.
また、この発明の他の態様は、特徴量に基づき画像を分類する画像の分類方法であって、教師データとなる画像の複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、前記指標値に基づいて、前記複数種の特徴量の中から前記有効特徴量を選出する有効特徴量選出工程と、選出された前記有効特徴量に基づき前記教師データの再学習を行う再学習工程と、分類対象となる画像について、前記有効特徴量を算出する特徴量算出工程と、前記再学習の結果および前記有効特徴量に基づき前記画像を分類する分類工程とを備え、前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから順に当該特徴量に対応する前記指標値を累積加算し、該累積加算値が前記複数種の特徴量全ての前記指標値の総和に対して占める割合が予め定められた規定割合に達すると、それまで累積加算した前記指標値に対応する特徴量を前記有効特徴量とすることを特徴としている。 Another aspect of this inventions is a method of classifying images of classifying an image based on feature amounts performs machine learning based on a plurality of kinds of feature amounts of the image to be teacher data, from the result A learning step for obtaining, for each feature quantity, an index value indicating the magnitude of the effect on the classification result among the plurality of feature quantities, and based on the index value, from among the plurality of feature quantities The effective feature amount is calculated for an effective feature amount selecting step for selecting the effective feature amount , a re-learning step for re-learning the teacher data based on the selected effective feature amount, and an image to be classified. A feature amount calculating step; and a classification step for classifying the image based on the result of the relearning and the effective feature amount. In the effective feature amount selecting step, the index value of the plurality of feature amounts is large. From top to bottom When the index value corresponding to the feature amount is cumulatively added, and the ratio of the cumulative added value to the sum of the index values of all the plurality of types of feature amounts reaches a predetermined specified ratio, A feature amount corresponding to the index value cumulatively added is set as the effective feature amount.
これらの発明では、教師データとなる画像を用いた機械学習の結果、分類結果に与える影響が大きいという結果が得られた特徴量が有効特徴量として選出される。しかも、有効特徴量とする特徴量の数や指標値の閾値を一義的に決めるのではなく、これらは機械学習によって得られる各特徴量ごとの有効性を表す指標値の値に応じて動的にかつ客観的に決定され、それに基づいて有効特徴量が選出される。そのため、選出される有効特徴量の数や種類についてのばらつきが生じない。したがって、本発明によれば、多くの特徴量の中から、分類に有効な特徴量を効率よく選出することができ、その結果にばらつきが生じない。そして、こうして選出された有効特徴量を用いて分類を行うことで、短い処理時間で安定した分類結果を得ることが可能となる。また、上記のようにして選出された有効特徴量に基づき教師データを用いて再学習を行い、該再学習結果に基づき分類を行うことで、分類対象となる画像の分類精度をより向上させることが可能である。 In these inventions, feature quantities that are obtained as a result of machine learning using images serving as teacher data and that have a large effect on the classification result are selected as effective feature quantities. In addition, the number of feature values to be used as effective feature values and the threshold value of the index value are not uniquely determined, but these are dynamically determined according to the value of the index value representing the effectiveness of each feature value obtained by machine learning. And an effective feature amount is selected based on the objective decision. Therefore, there is no variation in the number and type of effective feature quantities to be selected. Therefore, according to the present invention, a feature amount effective for classification can be efficiently selected from many feature amounts, and the result does not vary. Then, by performing classification using the effective feature amount selected in this way, it is possible to obtain a stable classification result in a short processing time. Further, by performing relearning using teacher data based on the effective feature amount selected as described above, and performing classification based on the relearning result, the classification accuracy of the images to be classified can be further improved. Is possible.
この発明において、学習工程では、例えば複数種の特徴量についてのSVM(サポート・ベクタ・マシン)に対応する最適化問題を解き、その最適解の値を指標値とすることができる。SVMの理論によれば、最適化問題の最適解の値が直接的に各特徴量の有効性を指標する値となることが知られており、これを本発明の「指標値」とすることで効率よく有効特徴量を選出することができる。 In the present invention, in the learning step, for example, an optimization problem corresponding to SVM (support vector machine) for a plurality of types of feature quantities can be solved, and the value of the optimum solution can be used as an index value. According to the theory of SVM, it is known that the value of the optimal solution of the optimization problem directly becomes a value indicating the effectiveness of each feature quantity, and this is set as the “index value” of the present invention. Can effectively select effective features.
また、これに代えて、複数種の特徴量についてニューラルネットワークを構築し、当該ニューラルネットワークにおける各ニューロンの枝の重みに基づく値を指標値とするようにしてもよい。学習により構築されたニューラルネットワークでは、ある特徴量に対応するニューロンの枝の重みに基づく値、例えば枝の重みの絶対値の和が当該特徴量の有効性を表す指標値となる。これを本発明の「指標値」とすることによっても、有効特徴量を効率よく選出することが可能である。 Alternatively, a neural network may be constructed for a plurality of types of feature values, and a value based on the weight of each neuron branch in the neural network may be used as the index value. In a neural network constructed by learning, a value based on the weight of a neuron branch corresponding to a certain feature value, for example, the sum of the absolute values of the branch weights becomes an index value representing the effectiveness of the feature value. By making this an “index value” of the present invention, it is possible to efficiently select an effective feature amount.
また、この発明にかかる外観検査方法は、検査対象物の外観を検査する外観検査方法であって、上記目的を達成するため、前記検査対象物の外観を撮像した画像を取得する画像取得工程と、取得した前記画像を、上記した分類方法により分類する工程とを備えることを特徴としている。さらに、この発明にかかる外観検査装置は、上記目的を達成するため、検査対象物の外観を撮像した画像を取得する画像取得手段と、取得した前記画像を上記した分類方法により分類する分類手段とを備えることを特徴としている。これらの発明によれば、多くの特徴量の中から上記のようにばらつきのない選出方法で選出された有効特徴量に基づいて検査対象物の画像を分類することができるので、検査対象物の外観検査を短い処理時間で安定的に行うことができる。 Further, an appearance inspection method according to the present invention is an appearance inspection method for inspecting the appearance of an inspection object, and in order to achieve the above object, an image acquisition step of acquiring an image obtained by imaging the appearance of the inspection object; And the step of classifying the acquired image by the above-described classification method. Furthermore, in order to achieve the above object, the appearance inspection apparatus according to the present invention acquires an image obtained by capturing an image of the appearance of the inspection object, and classifying means for classifying the acquired image by the classification method described above. It is characterized by having. According to these inventions, since the image of the inspection object can be classified based on the effective feature quantity selected by the selection method having no variation as described above from among many feature quantities, Appearance inspection can be performed stably in a short processing time.
この発明によれば、機械学習の結果に基づいて、分類に有効な有効特徴量を効率よく、かつばらつきなく客観的に求めることができるので、特徴量に基づく分類を短い処理時間で、しかも安定して行うことができる。 According to the present invention, effective feature quantities effective for classification can be obtained efficiently and objectively based on the results of machine learning, so that classification based on feature quantities can be performed stably in a short processing time. Can be done.
図1はこの発明にかかる外観検査装置の一実施形態としての検査システムの概略構成を示す図である。この検査システム1は、検査対象である半導体基板(以下「基板」という。)Sの外観に現れたピンホールや異物等の欠陥検査を行い、検出された欠陥の自動分類を行う検査システムである。検査システム1は、基板S上の検査対象領域を撮像する撮像装置2と、撮像装置2からの画像データに基づいて欠陥検査を行うとともに欠陥が検出された場合に欠陥が属すべきカテゴリへと欠陥を自動分類(ADC;automatic defect classification)する検査・分類機能および検査システム1の全体動作を制御する機能を有するホストコンピュータ5を有する。撮像装置2は基板Sの製造ラインに組み込まれ、検査システム1はいわゆるインライン型のシステムとなっている。
FIG. 1 is a diagram showing a schematic configuration of an inspection system as an embodiment of an appearance inspection apparatus according to the present invention. This
撮像装置2は、基板S上の検査対象領域を撮像することにより画像データを取得する撮像部21、基板Sを保持するステージ22、および、撮像部21に対してステージ22を相対的に移動させるステージ駆動部23を有し、撮像部21は、照明光を出射する照明部211、基板Sに照明光を導くとともに基板Sからの光が入射する光学系212、および、光学系212により結像された基板Sの像を電気信号に変換する撮像デバイス213を有する。ステージ駆動部23はボールねじ、ガイドレールおよびモータにより構成され、ホストコンピュータ5に設けられた装置制御部501がステージ駆動部23および撮像部21を制御することにより、基板S上の検査対象領域が撮像される。
The
ホストコンピュータ5は、予め読み込まれた制御プログラムを実行することにより、図1に示す各機能ブロックをソフトウェアにより実現する。ホストコンピュータ5は、上記の装置制御部501のほか、欠陥検出部502、欠陥分類部(ADC)503、有効特徴量特定部504、教示部505、特徴量算出器506などの各機能ブロックを備えている。さらに、ホストコンピュータ5は、各種データを記憶するための記憶装置510、ユーザからの操作入力を受け付けるキーボードおよびマウスなどの入力受付部511および操作手順や処理結果等のユーザ向け視覚情報を表示する表示部512などを備えている。また、図示を省略しているが、光ディスク、磁気ディスク、光磁気ディスク等のコンピュータ読み取り可能な記録媒体から情報の読み取りを行う読取装置を有し、検査システム1の他の構成との間で信号を送受信する通信部が、適宜、インターフェイス(I/F)を介する等して接続される。
The
各機能ブロックの詳細については後に説明するが、ここでは各機能ブロックの機能について簡単に説明しておく。欠陥検出部502は、検査対象領域の画像データを処理しつつ、検査対象領域中の特異な領域を見出すことで欠陥検出を行う。欠陥検出部502が検査対象領域から欠陥を検出すると、欠陥の画像データや検査に利用された各種データが記憶装置510に一時的に保存される。
The details of each functional block will be described later, but here, the function of each functional block will be briefly described. The
一方、欠陥分類部503は、検出された欠陥をSVM(サポート・ベクタ・マシン;Support Vector Machine)、ニューラルネットワーク、決定木、判別分析等の学習アルゴリズムを利用して分類する処理をソフトウェア的に実行する。教示部505は欠陥分類部503に上記アルゴリズムを機械学習させるための教示データを与える。特徴量算出器506は、検出された欠陥の画像データに基づいて、当該欠陥を特徴付ける特徴量を算出する。有効特徴量特定部504は、多くの特徴量のうち欠陥分類に適したいくつかの特徴量を有効特徴量として特定し、その情報を教示部505に与える。
On the other hand, the
図2はこの検査システムにおける自動欠陥分類処理を示すフローチャートである。この処理は本発明の「外観検査方法」の一実施形態であり、まず検査対象物の画像を取得する(ステップS101)。具体的には、撮像装置2が検査対象となる基板S表面を撮像する。そして、欠陥検出部502は撮像された画像について欠陥検出を行う(ステップS102)。以下では、欠陥を含むとみなされる画像を「欠陥画像」と称することとする。
FIG. 2 is a flowchart showing an automatic defect classification process in this inspection system. This process is an embodiment of the “appearance inspection method” of the present invention. First, an image of the inspection object is acquired (step S101). Specifically, the
欠陥画像が検出されると、欠陥検出部502は検査対象領域の画像(欠陥画像)や検査処理の際に求められたデータ(当該検査対象領域の座標情報、差分画像、参照画像等のデータ)を出力し、これらのデータは欠陥分類部503に送られるほか、記憶装置510にも書き込まれる。記憶装置510に記憶された画像データに基づいて、特徴量算出器506が当該欠陥画像の特徴量を算出する(ステップS103)。
When the defect image is detected, the
続いて、検出された欠陥の自動分類が欠陥分類部503により行われる(ステップS104)。欠陥分類部503は、機械学習アルゴリズムを実行可能となっており、教示部505から与えられる教師データに基づいて予め行った学習結果に基づいて、欠陥画像の分類を行う。具体的には、特徴量算出器506により求められた欠陥画像の特徴量に基づいて、欠陥の特徴に応じて予め設定されている複数の分類カテゴリのいずれに当該欠陥画像が該当するかを決定する。なお、特徴量とは、画素値を所定の規則にて演算処理することにより得られる値を指し、特徴量の多くは、画像に何らかのフィルタを作用させることにより得られる。例えば、画像の平均輝度、テクスチャ情報、所定の条件を満たす領域の大きさ、抽出されるエッジの量等のように画像の何らかの特徴を示す指標値が特徴量とされる。複数の自己相関フィルタを用いた高次局所自己相関に基づく特徴量を用いてもよい。
Subsequently, the automatic classification of the detected defect is performed by the defect classification unit 503 (step S104). The
分類の結果は適宜の表示方法により表示部512に表示され(ステップS105)、ユーザに提示される。検査システム1では、欠陥検出部502にて欠陥が検出される毎に図2のステップS103ないしS105に示す動作がリアルタイムにて行われ、欠陥を示す多量の画像の分類が高速に行われる。こうして検出された欠陥画像は対応する分類カテゴリに分類されてゆく。
The classification result is displayed on the
次に、欠陥分類部503による学習処理について説明する。この実施形態では、図2の欠陥分類処理に先立って、欠陥分類部503等が以下に説明する学習処理を行う。学習処理では、欠陥の種類に対応する分類カテゴリごとの典型的な欠陥画像についてユーザから教示を受け、そのような欠陥画像の典型例を教師データとして学習を行うことによって、新たに検出された未知の欠陥画像をその特徴に基づいていくつかの分類カテゴリに分類することが可能となっている。
Next, the learning process by the
図3はこの実施形態における学習処理を示すフローチャートである。まず教師データとなる画像を取得する(ステップS201)。この画像は、撮像装置2によって例えばサンプル基板を撮像することで新たに取得してもよく、また欠陥画像の典型例としてライブラリ化された画像を外部装置から取り込むものであってもよい。そして、こうして取得した画像から欠陥部分を検出するとともに(ステップS202)、その画像データの特徴量を、特徴量算出器506により算出する(ステップS203)。この時点では、欠陥を的確に分類するためにどのような特徴量を用いるべきかが不明であるため、算出する特徴量としてはできるだけ種類が豊富であることが望ましい。
FIG. 3 is a flowchart showing the learning process in this embodiment. First, an image serving as teacher data is acquired (step S201). This image may be newly acquired by, for example, imaging a sample substrate by the
次に、欠陥画像を何通りの、またどのような分類カテゴリに分類するかをユーザに設定入力させ、教示部505はそれらに対応する分類カテゴリを作成する(ステップS204)。そして、検出された欠陥画像を順次表示部512に表示させて、表示された欠陥がどの分類カテゴリに分類されるべきものかについてのユーザの教示入力を受け付ける(ステップS205)。教示入力により各分類カテゴリごとに少なくとも1つの欠陥画像が指定されると、教示部505は、その教示入力結果と各欠陥画像の特徴量とを欠陥分類部503に与え、欠陥分類部503はこれらに基づく学習作業を行う(ステップS206)。この際の学習プロセスとしては、例えばSVM(Support Vector Machine)や判別分析法、ニューラルネットワークによるものなど、公知のものを適用することができる。こうして得られた学習データを符号S1により表す。
Next, the user is allowed to set and input how many and what classification categories the defect image is classified into, and the
ここでの学習では多くの特徴量を用いているため分類の精度は高いが演算処理に時間を要する。そのため、このままリアルタイムでの欠陥分類に適用するには処理時間の点で問題がある。一方、学習作業の結果、それぞれの特徴量が分類結果にどの程度寄与しているのかが明らかになる。このことから、多くの特徴量のうち、分類結果に与える影響の大きいものを有効特徴量として選出し、以後の学習・分類処理はこの有効特徴量のみを用いて行う。こうすることで、演算に用いる特徴量の種類を少なくして処理時間を短縮することができる。 In this learning, since many feature quantities are used, classification accuracy is high, but calculation processing takes time. For this reason, there is a problem in terms of processing time when applied to defect classification in real time as it is. On the other hand, as a result of the learning work, it becomes clear how much each feature amount contributes to the classification result. From this, among the many feature quantities, those having a large influence on the classification result are selected as effective feature quantities, and the subsequent learning / classification process is performed using only these effective feature quantities. In this way, the processing time can be shortened by reducing the types of feature values used in the calculation.
その一方で、使用する特徴量を削減することは分類精度の低下につながるおそれがあるので、分類精度を維持するためには、有効特徴量をどのようにして選出するかが重要である。この実施形態では次のようにしている。すなわち、学習作業の結果S1から各特徴量ごとの有効度を定量的に求め(ステップS207)、有効度の値Wに基づき有効特徴量を特定する(ステップS208)。具体的には、有効度の値Wが高いものが有効特徴量となるようにする。 On the other hand, reducing feature quantities to be used may lead to a decrease in classification accuracy, so how to select effective feature quantities is important to maintain classification accuracy. In this embodiment, the following is performed. That is, the effectiveness for each feature amount is quantitatively obtained from the result S1 of the learning work (step S207), and the effective feature amount is specified based on the value W of the effectiveness (step S208). Specifically, an effective feature amount having a high effectiveness value W is set.
図4はこの実施形態における有効特徴量の選出方法の基本概念を示す図である。図4に丸印で示すように、こうして得られた各特徴量に対応する有効度をその値Wの大きいものから順に並べた場合を考える。ここでは、m個(mは自然数)の特徴量が学習に用いられたものとし、それらの特徴量に対し有効度Wが最も大きいものから順に符号X1,X2,…,Xmを付すものとする。また、特徴量X1,X2,…,Xmに対応する有効度の値Wをそれぞれ符号W1,W2,…,Wmで表す。さらに、各特徴量の有効度Wの総和を符号Swで表す。すなわち、
Sw=W1+W2+…+Wm
である。
FIG. 4 is a diagram showing the basic concept of the effective feature amount selection method in this embodiment. Consider the case where the effectiveness corresponding to each feature quantity obtained in this way is arranged in descending order of the value W, as indicated by a circle in FIG. Here, m feature values (m is a natural number) are assumed to be used for learning, and X1, X2,..., Xm are assigned in order from those having the highest effectiveness W to the feature values. . Also, the effectiveness values W corresponding to the feature amounts X1, X2,..., Xm are represented by symbols W1, W2,. Furthermore, the sum of the effectiveness W of each feature amount is represented by a symbol Sw. That is,
Sw = W1 + W2 + ... + Wm
It is.
各特徴量X1,X2,…,Xmの間では、有効度Wの値が大きい特徴量ほど当然に分類結果に与える影響が大きく、分類作業においては無視することができないものである。一方、有効度Wの小さな特徴量については分類結果に与える影響も小さく、これらを分類作業から除外しても分類精度の低下は小さいと考えられる。このような影響の小さい特徴量を除外し、影響の大きい、つまり有効度Wの大きい特徴力のみを用いて分類を行うようにすれば、特徴量の算出およびそれに基づく分類作業に要する処理時間を大きく短縮することが可能である。 Among the feature amounts X1, X2,..., Xm, the feature amount having a larger value of the effectiveness W naturally has a larger influence on the classification result, and cannot be ignored in the classification operation. On the other hand, a feature amount having a low effectiveness W has little influence on the classification result, and even if these are excluded from the classification work, it is considered that the degradation of classification accuracy is small. If such a feature quantity having a small influence is excluded and classification is performed using only a feature power having a large influence, that is, a high effectiveness W, the processing time required for the calculation of the feature quantity and the classification work based thereon is reduced. It can be greatly shortened.
したがって、有効度Wの大きい特徴量を有効特徴量として選出すればよいのであるが、m個の特徴量のうちいくつを有効特徴量とするかが問題となる。前述の特許文献1に記載の技術思想では、有効度Wに閾値を定めて該閾値より有効度の大きい特徴量を有効特徴量とすることになる。しかしながら、閾値の定め方によって選出される有効特徴量の数は大きく変動し、しかも、それによる分類精度への影響は不明である。実際に、特許文献1には閾値をどのように定めるかについて明記されていない。
Therefore, a feature quantity having a large effectiveness W may be selected as an effective feature quantity. However, there is a problem of how many of m feature quantities are effective feature quantities. According to the technical idea described in
一方、この実施形態では次のようにして有効特徴量を選出する。上記のようにして得られた有効度Wの配列W1,W2,…,Wmにおいて、その値の大きいものから順に有効度の値Wを累積加算してゆく。この累積加算値を符号Σwで表す。図4に示すように、累積加算値Σwが有効度の総和Swに対して規定の割合、例えば50%に達する有効度の順位をnとする。言い換えれば、有効度の値Wの大きさが最上位から第n番目のものまで(図4では白丸印で示す)についてその値Wを累積加算したとき、その累積加算値Σw:
Σw=W1+W2+…+Wn
が、有効度の総和Swの50%以上となっている。
On the other hand, in this embodiment, an effective feature amount is selected as follows. In the array W1, W2,..., Wm of the effectiveness W obtained as described above, the effectiveness values W are cumulatively added in descending order. This cumulative addition value is represented by symbol Σw. As shown in FIG. 4, it is assumed that the order of effectiveness at which the cumulative added value Σw reaches a specified ratio, for example, 50%, with respect to the total sum Sw of effectiveness is n. In other words, when the value W is cumulatively added from the highest value to the nth value (indicated by white circles in FIG. 4), the cumulative added value Σw:
Σw = W1 + W2 + ... + Wn
However, it is 50% or more of the total sum Sw of effectiveness.
このとき、有効度の値Wの大きさが最上位のものから第n番目のものまでに対応する特徴量、すなわち特徴量X1,X2,…,Xnを、当該分類のための有効特徴量とし、これ以降の特徴量(図4にハッチング付きの丸印で示す)については処理対象から除外する。詳しくは後述するが、こうすることにより、分類精度を低下させることなく、分類に使用する特徴量をm個からn個に削減することが可能となる。使用する特徴量の種類が削減されることにより、分類作業に要する処理時間を短縮することができる。 At this time, the feature values corresponding to the value of the effectiveness value W from the highest to the nth, that is, feature values X1, X2,..., Xn are used as effective feature values for the classification. The subsequent feature quantities (indicated by hatched circles in FIG. 4) are excluded from the processing target. As will be described in detail later, this makes it possible to reduce the number of feature quantities used for classification from m to n without reducing the classification accuracy. By reducing the types of feature values to be used, the processing time required for the classification work can be shortened.
このように、この実施形態では、各特徴量の有効度Wを大きいものから順に累積加算し、その累積加算値Σwが有効度の総和Swに対して占める割合が規定割合に達するまでに加算されたn個の有効度(W1,W2,…,Wn)に対応するn個の特徴量(X1,X2,…,Xn)を有効特徴量とする。そのため、有効特徴量とみなされる特徴量に対応する有効度の値や選出される有効特徴量の数は予め決まっておらず、これらは各特徴量が有する有効度の分布の程度によって動的に決まるものである。このように、各特徴量の有効度の分布状態に応じて有効特徴量が選出されるため、この実施形態では分類の精度を低下させることなく、分類に必要な特徴量の数を削減することができる。この原理に基づく有効特徴量の選出については、種々のアルゴリズムにより実現可能であるが、例えば以下のようなソフトウェア処理によって実現することができる。 As described above, in this embodiment, the effectiveness W of each feature amount is cumulatively added in order from the largest, and the cumulative addition value Σw is added until the proportion of the total sum Sw of the effectiveness reaches a specified proportion. Further, n feature amounts (X1, X2,..., Xn) corresponding to the n effectiveness levels (W1, W2,..., Wn) are set as effective feature amounts. For this reason, the value of the effectiveness corresponding to the feature amount regarded as the effective feature amount and the number of effective feature amounts to be selected are not determined in advance, and these values are dynamically determined depending on the distribution of the effectiveness level of each feature amount. It is determined. As described above, since the effective feature amount is selected according to the distribution state of the effectiveness level of each feature amount, in this embodiment, the number of feature amounts necessary for the classification is reduced without reducing the accuracy of the classification. Can do. The selection of the effective feature amount based on this principle can be realized by various algorithms. For example, it can be realized by the following software processing.
図5は有効特徴量を選出するための処理の一例を示すフローチャートである。最初に、m個の特徴量の有効度W(W1,W2,…,Wm)の総和Swを算出するとともに(ステップS301)、有効度の累積値Σwをリセットして0にする(ステップS302)。次に、m個の特徴量のうち、まだ以下の処理のために選出されていない未選出の特徴量の中から、特徴量に対応する有効度Wの値が最も大きいものを選出する(ステップS303)。第1回目の処理では当然に、最も大きな有効度W1を有する特徴量X1が選出されることになる。 FIG. 5 is a flowchart showing an example of processing for selecting an effective feature amount. First, the sum Sw of m feature quantity effectiveness W (W1, W2,..., Wm) is calculated (step S301), and the cumulative effectiveness value Σw is reset to 0 (step S302). . Next, among the m feature quantities, the one having the largest value of the effectiveness W corresponding to the feature quantity is selected from unselected feature quantities not yet selected for the following processing (step S303). Naturally, in the first process, the feature amount X1 having the largest effectiveness W1 is selected.
こうして選出された特徴量に対応する有効度Wを累積加算してゆき(ステップS304)、累積加算値Σwが有効度の総和Swの50%以上となるまで(ステップS305)、特徴量の選出と有効度の累積加算を繰り返す。累積加算値Σwが有効度の総和Swの50%以上になれば、そのときまでに選出されている特徴量を有効特徴量とすることができる(ステップS306)。このように、有効特徴量を求めるに際しては、図4の原理図に示すような有効度に応じて特徴量を並べ替える工程を必須とするものではない。 The effectiveness W corresponding to the selected feature quantity is cumulatively added (step S304), and the feature quantity is selected until the cumulative addition value Σw becomes 50% or more of the total sum Sw of the effectiveness (step S305). Repeat cumulative addition of effectiveness. If the cumulative addition value Σw becomes 50% or more of the total sum Sw of the effectiveness, the feature quantity selected so far can be set as the effective feature quantity (step S306). As described above, when the effective feature amount is obtained, the step of rearranging the feature amount according to the effectiveness as shown in the principle diagram of FIG. 4 is not essential.
ここで、欠陥分類部503の学習アルゴリズムがSVMである場合、多数の特徴量についての最適化問題を解くと、その最適解がそのまま各特徴量の有効度Wを示す指標となる。したがって、この場合には最適解の値を用いて簡単に有効特徴量を選出することが可能である。一方、学習アルゴリズムが例えばニューラルネットワークを利用したものである場合には、有効度Wに相当する値を例えば次のようにして求めることができる。
Here, when the learning algorithm of the
図6はニューラルネットワークの一例を示す図である。特徴量X1,X2,X3に対して分類カテゴリY1,Y2,Y3が与えられて学習を行った結果、図5に示すニューラルネットワークが構築され、各枝の重み(W111〜W223)が与えられる。こうして得られた枝の重みのうち、入力層側の第1層における枝の重みの絶対値を各特徴量ごとに加算した値を、有効度を指標する値として用いることができる。例えば、特徴量X1に対しては、第1層の各枝の重みW111、W112の絶対値の和:
W1=|W111|+|W112|
を当該特徴量X1の有効度を示す値とすることができる。そして、図4または図5の手法を適用することにより、同様に有効特徴量を選出することができる。その他の学習アルゴリズムでも同様に、分類結果に対する各特徴量の影響の度合いを相対的にあるいは絶対的に、かつ定量的に示す適当な値を有効度を指標する値として使用することができる。
FIG. 6 is a diagram illustrating an example of a neural network. As a result of learning with the classification categories Y1, Y2, and Y3 given to the feature quantities X1, X2, and X3, the neural network shown in FIG. 5 is constructed, and the weights (W111 to W223) of the branches are given. Of the branch weights thus obtained, a value obtained by adding the absolute values of the branch weights in the first layer on the input layer side for each feature amount can be used as a value indicating the effectiveness. For example, for the feature quantity X1, the sum of the absolute values of the weights W111 and W112 of each branch of the first layer:
W1 = | W111 | + | W112 |
Can be a value indicating the effectiveness of the feature amount X1. Then, by applying the method of FIG. 4 or FIG. 5, an effective feature amount can be selected similarly. Similarly, in other learning algorithms, an appropriate value that indicates the degree of influence of each feature amount on the classification result in a relative or absolute and quantitative manner can be used as a value indicating the effectiveness.
図3に戻って、こうしてm個の特徴量の中からn個の有効特徴量が特定されると、先に取得した欠陥画像について、特定されたn個の有効特徴量に基づいて再学習を行う(ステップS209)。このとき得られた学習データを符号S2により表す。学習データS2については記憶装置510に記憶しておき(ステップS210)、前述した自動欠陥分類処理(図2)において欠陥画像を分類(ステップS104)する際には、記憶装置510に記憶された学習データS2が用いられる。したがって、自動欠陥分類処理における特徴量の算出時(ステップS103)には、n個の有効特徴量のみを算出すればよい。このため、特徴量の算出およびそれに基づく分類作業において使用される特徴量の数が少なくなっており、自動欠陥分類を短時間で効率よく行うことが可能となる。
Returning to FIG. 3, when n effective feature amounts are specified from among the m feature amounts, the re-learning is performed on the previously acquired defect image based on the specified n effective feature amounts. This is performed (step S209). The learning data obtained at this time is represented by reference numeral S2. The learning data S2 is stored in the storage device 510 (step S210), and when the defect image is classified (step S104) in the automatic defect classification process (FIG. 2) described above, the learning data stored in the
次に、この実施形態において、有効特徴量を求める際の「規定割合」を50%に設定した理由について説明する。本願発明者らは、多数の画像サンプルを収集し、それらについて種々の特徴量を算出するとともに、規定割合を多段階に変更設定しながら上記手法により有効特徴量を選出し、特徴量の削減効果および分類精度を検証する実験を行った。 Next, the reason why the “specified ratio” for obtaining the effective feature amount is set to 50% in this embodiment will be described. The inventors of the present application collect a large number of image samples, calculate various feature amounts for them, select effective feature amounts by the above method while changing and setting the specified ratio in multiple stages, and reduce the feature amount An experiment was conducted to verify the classification accuracy.
サンプル画像としては、生物顕微鏡により撮像された生体の組織画像のセットと、半導体検査装置により撮像された欠陥画像のセットとの2種類を用いた。また、特徴量セットとしては、3×3マトリクスを用いた高次局所自己相関特徴量(Texture)、欠陥領域の面積、周囲長、円形度などの欠陥の構造を示す特徴量(Structure)、上記特徴量Textureの3×3マトリクスを用いた高次局所自己相関特徴量を回転等して同じになるものをマージした特徴量(Rotationally Symmetric Texture)、上記特徴量Textureの5×5マトリクスを用いた高次局所自己相関特徴量(Coarse Texture)、および、画像内のオブジェクトの平行移動や回転移動、スケール変化に影響を受けない量であるHuモーメントを特徴量として用意し、これらの中から画像内容に応じて適宜選択した特徴量を用いた。また、学習アルゴリズムとしてはSVM(線形カーネル法)および3層ニューラルネットワークの2種類を使用した。 Two types of sample images were used: a set of biological tissue images captured by a biological microscope and a set of defect images captured by a semiconductor inspection apparatus. In addition, as the feature quantity set, a high-order local autocorrelation feature quantity (Texture) using a 3 × 3 matrix, a feature quantity (Structure) indicating a defect structure such as an area of a defect region, a perimeter, and a circularity, Rotationally Symmetric Texture, which is the result of merging the same high-order local autocorrelation features using a 3 × 3 matrix of feature texture, and a 5 × 5 matrix of the above feature texture Prepare high-order local autocorrelation features (Coarse Texture) and Hu moment, which is an amount that is not affected by parallel movement, rotational movement, and scale change of objects in the image. The feature amount appropriately selected according to the above was used. Two types of learning algorithms, SVM (linear kernel method) and three-layer neural network, were used.
実験では、用意したサンプル画像および特徴量セットを用いて図3に示す処理を実行することで有効特徴量を選出し、有効特徴量に基づく学習により得られた学習データS2からCross-Validationにより分類性能を予測するとともに、選出された有効特徴量の数から特徴量の削減効果を求めた。種々の画像データについて行った実験では概ね類似した結果が見られたので、以下では実験結果の一部の例のみを示す。 In the experiment, the effective feature quantity is selected by executing the processing shown in FIG. 3 using the prepared sample image and feature quantity set, and classified by the Cross-Validation from the learning data S2 obtained by learning based on the effective feature quantity. In addition to predicting performance, the feature reduction effect was determined from the number of selected effective features. Since almost similar results were found in experiments performed on various image data, only a part of the experimental results are shown below.
図7は学習アルゴリズムとしてSVMを用いた場合の実験結果の一例を示す図である。また、図8は学習アルゴリズムとしてニューラルネットワークを用いた場合の実験結果の一例を示す図である。これらの図においては、有効特徴量選出後の分類性能および選出された有効特徴量の数を、特徴量の削減を行わない場合の分類性能および特徴量数を1としてそれぞれ正規化して表示している。 FIG. 7 is a diagram showing an example of an experimental result when SVM is used as a learning algorithm. FIG. 8 is a diagram showing an example of an experimental result when a neural network is used as a learning algorithm. In these figures, the classification performance after the selection of effective features and the number of selected effective features are normalized and displayed with the classification performance and the number of features when the feature amount is not reduced as 1, respectively. Yes.
図7(a)および図8(a)に示すように、いずれの学習アルゴリズムにおいても、規定割合を20%とした場合には分類性能のばらつきが大きくなってしまい、規定割合を50%、80%と大きくするにつれてばらつきは小さくなっている。この点においては、規定割合が大きいほど分類性能は良好であると言える。しかしながら、規定割合が50%の場合と80%の場合とでは、いずれも約100%近い性能が得られており、分類性能およびそのばらつきに大きな差異はないと言うことができる。なお、分類性能が1を超える場合があるが、これは、使用する特徴量の数が増えると分類性能が低下する「次元の呪い」として知られるように、特徴量の削減を行わず全ての特徴量を用いることが必ずしも最良ではなく、影響の少ない特徴量を除外した方が却って分類性能が上がるケースがあることを示唆するものである。 As shown in FIG. 7A and FIG. 8A, in any learning algorithm, when the specified ratio is set to 20%, the variation in the classification performance becomes large, and the specified ratio is set to 50% and 80%. As the percentage increases, the variation decreases. In this respect, it can be said that the larger the specified ratio, the better the classification performance. However, in the cases where the specified ratio is 50% and 80%, the performance is nearly 100%, and it can be said that there is no great difference in the classification performance and its variation. The classification performance may exceed 1, but this is known as a “dimensional curse” in which the classification performance decreases as the number of feature quantities used increases. The use of feature quantities is not necessarily the best, and it is suggested that there are cases where the classification performance is improved by excluding feature quantities with little influence.
一方、図7(b)および図8(b)に示す有効特徴量の数について見ると、規定割合を50%とした場合、これを80%とした場合に比べて有効特徴量の数をさらに半分程度まで削減することが可能となっている。このように、分類性能を維持しつつ、大きな特徴量数の削減効果を得るには、規定割合を50%程度とすることが望ましい。実験条件を種々に変更して実験を行ったが、ほぼ同様の傾向が見られた。 On the other hand, looking at the number of effective feature amounts shown in FIGS. 7B and 8B, when the specified ratio is 50%, the number of effective feature amounts is further increased as compared to the case where the specified ratio is 80%. It is possible to reduce to about half. Thus, in order to obtain a large feature quantity reduction effect while maintaining the classification performance, it is desirable to set the specified ratio to about 50%. Experiments were performed with various experimental conditions changed, and almost the same tendency was observed.
以上より、この実施形態では規定割合を50%として有効特徴量を算出することとしている。こうすることで、この実施形態では、実用上の分類性能を十分に維持しながら、分類に用いる特徴量の数を大きく削減することが可能となっている。そして、このようにして選出された有効特徴量を用いて分類を行うことにより、画像の分類を短時間で効率よく、しかも優れた分類精度で分類することができる。 As described above, in this embodiment, the effective feature amount is calculated with the specified ratio being 50%. In this way, in this embodiment, it is possible to greatly reduce the number of feature quantities used for classification while sufficiently maintaining practical classification performance. Then, by classifying using the effective feature quantity selected in this way, it is possible to classify the image efficiently in a short time and with excellent classification accuracy.
以上説明したように、この実施形態では、図3のステップS206およびS207が本発明の「学習工程」に相当しており、ステップS208および図5の各ステップがいずれも本発明の「有効特徴量選出工程」に相当している。また、上記実施形態では、有効度W(W1,W2等)が本発明の「指標値」に相当している。また、上記実施形態の自動欠陥分類処理(図2)では、ステップS101、S103およびS104がそれぞれ本発明の「画像取得工程」、「特徴量算出工程」および「分類工程」に相当している。また、図1に示す検査システム1においては、撮像装置2が本発明の「画像取得手段」として機能する一方、欠陥分類部503が本発明の「分類手段」として機能している。
As described above, in this embodiment, steps S206 and S207 in FIG. 3 correspond to the “learning process” of the present invention, and each step in step S208 and FIG. This corresponds to the “selection process”. In the above embodiment, the effectiveness W (W1, W2, etc.) corresponds to the “index value” of the present invention. In the automatic defect classification process (FIG. 2) of the above embodiment, steps S101, S103, and S104 correspond to the “image acquisition step”, “feature amount calculation step”, and “classification step” of the present invention, respectively. In the
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態では学習アルゴリズムの例としてSVMおよびニューラルネットワークを示しているが、学習アルゴリズムはこれらに限定されるものでなく、公知の各種のアルゴリズムを適用することが可能である。 The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. For example, although the SVM and the neural network are shown as examples of the learning algorithm in the above embodiment, the learning algorithm is not limited to these, and various known algorithms can be applied.
また、上記実施形態では、ホストコンピュータ5上で実行される制御プログラムによりソフトウェア上で各機能ブロックを実現しているが、これらの機能ブロックの少なくとも一部を専用ハードウェアにより実現するようにしてもよい。
In the above embodiment, each functional block is realized on software by a control program executed on the
また、上記実施形態では、本発明における「規定割合」を50%としているが、この数値に限定されるものではなく、分類対象となる画像の性質やシステムの処理能力に応じて、この値を適宜変更しても構わない。規定割合を小さくすると、特徴量の削減効果は大きいが分類性能が低くなる傾向がある。また、規定割合を大きくすると、特徴量の削減効果は小さくなるが、分類性能は高くなる。ただし、前記したように、特徴量の数を多くすることが必ずしも精度の向上にはつながらないため、特徴量数の削減効果と分類性能とのトレードオフを判断して規定割合を定めることが望ましい。 In the above embodiment, the “specified ratio” in the present invention is 50%. However, the value is not limited to this value, and this value is set according to the property of the image to be classified and the processing capability of the system. You may change suitably. When the specified ratio is reduced, the feature amount reduction effect is large, but the classification performance tends to be low. Also, if the specified ratio is increased, the feature amount reduction effect is reduced, but the classification performance is improved. However, as described above, increasing the number of feature quantities does not necessarily improve the accuracy, so it is desirable to determine the prescribed ratio by judging the trade-off between the feature quantity reduction effect and the classification performance.
また、上記実施形態では、インライン型の検査システムに本発明を適用しているが、リアルタイムの検査機能と、欠陥分類部を学習させるための教示作業を行う機能とを分離させた、いわゆるオフライン型の分類装置にも本発明を適用することが可能である。また、上記検査システム1では「画像取得手段」としての撮像装置2を備えているが、撮像装置を備えず、外部装置や外部記録媒体から画像データを受信して分類を行う検査装置および検査方法にも本発明を適用することが可能である。この場合、外部装置から画像データを受信するインターフェース部やディスクドライブ等が本発明の「画像取得手段」として機能することになる。
In the above embodiment, the present invention is applied to an in-line type inspection system, but a so-called offline type in which a real-time inspection function and a function for performing a teaching operation for learning a defect classification unit are separated. The present invention can also be applied to other classification devices. The
また、上記実施形態は、半導体の表面外観に現れる欠陥を検査するための装置に本発明を適用しているが、本発明の適用対象はこれに限定されるものではなく、対象物の画像を処理して分類を行う種々の技術に本発明を適用することが可能である。例えば、患者の生体組織から取得した組織画像を画像処理して病理診断支援を行う技術分野にも、本発明を適用することができる。 Moreover, although the said embodiment has applied this invention to the apparatus for inspecting the defect which appears on the surface appearance of a semiconductor, the application object of this invention is not limited to this, The image of a target object is taken. The present invention can be applied to various techniques for processing and classification. For example, the present invention can also be applied to a technical field in which a tissue image acquired from a living tissue of a patient is image-processed to support pathological diagnosis.
この発明は、半導体基板やプリント配線基板などの各種基板の欠陥を検出し分類する技術や病理診断支援技術のような、画像をその特徴量に応じて分類する技術を応用する種々の技術分野に好適に適用することができる。 The present invention is applied to various technical fields to which a technique for classifying images according to their feature quantities, such as a technique for detecting and classifying defects in various substrates such as a semiconductor substrate and a printed wiring board and a pathological diagnosis support technique. It can be suitably applied.
1 検査システム(外観検査装置)
2 撮像装置(画像取得手段)
5 ホストコンピュータ
503 欠陥分類部(分類手段)
S 基板
S101 画像取得工程
S103 特徴量算出工程
S104 分類工程
S206,S207 学習工程
S208 有効特徴量選出工程
Sw (有効度の)総和
Σw (有効度の)累積加算値
W 有効度(指標値)
1 Inspection system (Appearance inspection device)
2 Imaging device (image acquisition means)
5
S substrate S101 image acquisition step S103 feature amount calculation step S104 classification step S206, S207 learning step S208 effective feature amount selection step Sw (effectiveness) sum Σw (effectiveness) cumulative addition value W effectiveness (index value)
Claims (8)
教師データとなる画像の複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、
前記指標値に基づいて、前記複数種の特徴量の中から有効特徴量を選出する有効特徴量選出工程と、
選出された前記有効特徴量に基づき前記教師データの再学習を行う再学習工程と、
分類対象となる画像について、前記有効特徴量を算出する特徴量算出工程と、
前記再学習の結果および前記有効特徴量に基づき前記画像を分類する分類工程と
を備え、
前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから第N番目(Nは自然数)のものまでを前記有効特徴量として選出し、しかも、前記複数種の特徴量全ての前記指標値の総和に対する前記N個の有効特徴量それぞれの前記指標値の和の割合が、予め定められた規定割合となるようにする
ことを特徴とする、画像の分類方法。 A method of classifying images of classifying an image based on feature amounts,
Machine learning is performed based on a plurality of types of feature values of the image serving as the teacher data, and from the result, an index value that uses the magnitude of the influence on the classification result as an index between the plurality of types of feature values is determined for each feature amount. Learning process
Based on the index value, the effective characteristic quantity selection step of selecting RaYu effective characteristic quantity or among the plurality of kinds of feature quantities,
A re-learning step of re-learning the teacher data based on the selected effective feature amount;
A feature amount calculating step for calculating the effective feature amount for images to be classified;
A classification step of classifying the image based on the result of the relearning and the effective feature amount ,
In the effective feature quantity selection step, the index values of the plurality of types of feature quantities from the highest to the Nth (N is a natural number) are selected as the effective feature quantities, the proportion of the sum of the N effective feature amounts respectively of the index value to the sum of said plurality of kinds of characteristic amounts of all of the index value, characterized in that to ensure a defined predetermined proportion, image Classification method.
教師データとなる画像の複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、
前記指標値に基づいて、前記複数種の特徴量の中から前記有効特徴量を選出する有効特徴量選出工程と、
選出された前記有効特徴量に基づき前記教師データの再学習を行う再学習工程と、
分類対象となる画像について、前記有効特徴量を算出する特徴量算出工程と、
前記再学習の結果および前記有効特徴量に基づき前記画像を分類する分類工程と
を備え、
前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから順に当該特徴量に対応する前記指標値を累積加算し、該累積加算値が前記複数種の特徴量全ての前記指標値の総和に対して占める割合が予め定められた規定割合に達すると、それまで累積加算した前記指標値に対応する特徴量を前記有効特徴量とする
ことを特徴とする、画像の分類方法。 A method of classifying images of classifying an image based on feature amounts,
Machine learning is performed based on a plurality of types of feature values of the image serving as the teacher data, and from the result, an index value that uses the magnitude of the influence on the classification result as an index between the plurality of types of feature values is determined for each feature amount. Learning process
An effective feature amount selection step of selecting the effective feature amount from the plurality of types of feature amounts based on the index value ;
A re-learning step of re-learning the teacher data based on the selected effective feature amount;
A feature amount calculating step for calculating the effective feature amount for images to be classified;
A classification step of classifying the image based on the result of the relearning and the effective feature amount ,
In the effective feature quantity selection step, the index values corresponding to the feature quantities are cumulatively added in order from the highest-order index value among the plurality of types of feature quantities, and the cumulative addition values When the proportion of all the feature values of the seeds with respect to the sum of the index values reaches a predetermined specified ratio, the feature amount corresponding to the index value that has been cumulatively added is used as the effective feature amount. And image classification method.
前記検査対象物の外観を撮像した画像を取得する画像取得工程と、
取得した前記画像を、請求項1ないし6のいずれかに記載の分類方法により分類する工程と
を備えることを特徴とする外観検査方法。 In an appearance inspection method for inspecting the appearance of an inspection object,
An image acquisition step of acquiring an image obtained by imaging the appearance of the inspection object;
A step of classifying the acquired image by the classification method according to claim 1 .
取得した前記画像を、請求項1ないし6のいずれかに記載の分類方法により分類する分類手段と
を備えることを特徴とする外観検査装置。 Image acquisition means for acquiring an image obtained by imaging the appearance of the inspection object;
An appearance inspection apparatus comprising: a classifying unit that classifies the acquired image by the classification method according to claim 1 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010217308A JP5637373B2 (en) | 2010-09-28 | 2010-09-28 | Image classification method, appearance inspection method, and appearance inspection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010217308A JP5637373B2 (en) | 2010-09-28 | 2010-09-28 | Image classification method, appearance inspection method, and appearance inspection apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012073761A JP2012073761A (en) | 2012-04-12 |
JP5637373B2 true JP5637373B2 (en) | 2014-12-10 |
Family
ID=46169878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010217308A Active JP5637373B2 (en) | 2010-09-28 | 2010-09-28 | Image classification method, appearance inspection method, and appearance inspection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5637373B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6403261B2 (en) * | 2014-12-03 | 2018-10-10 | タカノ株式会社 | Classifier generation device, visual inspection device, classifier generation method, and program |
US10650508B2 (en) * | 2014-12-03 | 2020-05-12 | Kla-Tencor Corporation | Automatic defect classification without sampling and feature selection |
JP2017010255A (en) * | 2015-06-22 | 2017-01-12 | オリンパス株式会社 | Image recognition apparatus and image recognition method |
JP6679086B2 (en) * | 2015-11-11 | 2020-04-15 | 国立研究開発法人情報通信研究機構 | Learning device, prediction device, learning method, prediction method, and program |
JP6280997B1 (en) * | 2016-10-31 | 2018-02-14 | 株式会社Preferred Networks | Disease onset determination device, disease onset determination method, disease feature extraction device, and disease feature extraction method |
US20180268258A1 (en) * | 2017-03-14 | 2018-09-20 | TUPL, Inc. | Automated decision making using staged machine learning |
JP7427328B2 (en) * | 2020-01-24 | 2024-02-05 | Jrcモビリティ株式会社 | Feature evaluation device and evaluation device method |
JP7396478B2 (en) * | 2020-05-26 | 2023-12-12 | 富士通株式会社 | Model training program, model training method, and information processing device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04222064A (en) * | 1990-12-25 | 1992-08-12 | Matsushita Electric Ind Co Ltd | Method for inspecting appearance |
JPH08314880A (en) * | 1995-05-15 | 1996-11-29 | Omron Corp | Method for learning neural network and neural network system |
JP2002174603A (en) * | 2000-12-08 | 2002-06-21 | Olympus Optical Co Ltd | Defect classifying method |
WO2006063395A1 (en) * | 2004-12-17 | 2006-06-22 | The University Of Queensland | Feature reduction method for decision machines |
-
2010
- 2010-09-28 JP JP2010217308A patent/JP5637373B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012073761A (en) | 2012-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5637373B2 (en) | Image classification method, appearance inspection method, and appearance inspection apparatus | |
US11580640B2 (en) | Identifying the quality of the cell images acquired with digital holographic microscopy using convolutional neural networks | |
JP5174040B2 (en) | Computer-implemented method for distinguishing between image components and background and system for distinguishing between image components and background | |
CN110245657B (en) | Pathological image similarity detection method and detection device | |
JP5783043B2 (en) | Cell mass state discrimination technique, image processing program and image processing apparatus using the technique, and cell mass production method | |
CN108596046A (en) | A kind of cell detection method of counting and system based on deep learning | |
JP2021503666A (en) | Systems and methods for single-channel whole-cell segmentation | |
WO2010146802A1 (en) | State determination method for cell cluster, image processing program and imaging processing device using said method, and method for producing cell cluster | |
CN112116957B (en) | Disease subtype prediction method, system, device and medium based on small sample | |
JP2011158373A (en) | Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification | |
JP5718781B2 (en) | Image classification apparatus and image classification method | |
CN112308854B (en) | Automatic detection method and system for chip surface flaws and electronic equipment | |
CN111047609A (en) | Pneumonia focus segmentation method and device | |
KR102580419B1 (en) | Method and system for detecting region of interest in pathological slide image | |
WO2019181072A1 (en) | Image processing method, computer program, and recording medium | |
WO2020037573A1 (en) | Method and device for detecting bright spots on image, and computer program product | |
JP2023513022A (en) | Systematic Characterization of Objects in Biological Samples | |
CN112862706A (en) | Pavement crack image preprocessing method and device, electronic equipment and storage medium | |
CN112215217B (en) | Digital image recognition method and device for simulating doctor to read film | |
JP2014137284A (en) | Teacher data creation support device, teacher data creation device, image classification device, teacher data creation support method, teacher data creation method and image classification method | |
CN115546536B (en) | Ivory product identification method and system | |
JP7065422B2 (en) | Display control device, display control method and program | |
KR20230135033A (en) | Method and system for detecting region of interest in pathological slide image | |
CN117836821A (en) | Digital Image Analysis Methods | |
Ji et al. | Considerations for data acquisition and modeling strategies: Mitosis detection in computational pathology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140930 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5637373 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |