JP2017107541A - Information processing apparatus, information processing method, program, and inspection system - Google Patents
Information processing apparatus, information processing method, program, and inspection system Download PDFInfo
- Publication number
- JP2017107541A JP2017107541A JP2016185440A JP2016185440A JP2017107541A JP 2017107541 A JP2017107541 A JP 2017107541A JP 2016185440 A JP2016185440 A JP 2016185440A JP 2016185440 A JP2016185440 A JP 2016185440A JP 2017107541 A JP2017107541 A JP 2017107541A
- Authority
- JP
- Japan
- Prior art keywords
- image
- outlier
- region
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007689 inspection Methods 0.000 title claims abstract description 96
- 230000010365 information processing Effects 0.000 title claims abstract description 29
- 238000003672 processing method Methods 0.000 title abstract description 10
- 230000007547 defect Effects 0.000 claims abstract description 35
- 230000002093 peripheral effect Effects 0.000 claims abstract description 28
- 238000007781 pre-processing Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 29
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 239000003086 colorant Substances 0.000 abstract description 2
- 230000002950 deficient Effects 0.000 description 31
- 239000000047 product Substances 0.000 description 24
- 238000004364 calculation method Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 17
- 238000003860 storage Methods 0.000 description 11
- 230000005856 abnormality Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 102100028971 HLA class I histocompatibility antigen, C alpha chain Human genes 0.000 description 4
- 101100395312 Homo sapiens HLA-C gene Proteins 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000011425 standardization method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、プログラムおよび検査システムに関する。 The present invention relates to an information processing apparatus, an information processing method, a program, and an inspection system.
製品の外観検査工程や監視カメラでの異常検出など、画像中の特徴的な点(画素)および領域を検出する技術はすでに知られている。画像中の特徴的な画素や領域を検出する従来技術では、予め正常な参照画像群を用意しておく。そして、検査対象画像中の参照画像での対応画素の輝度値などの特徴量を用いてその差を計算することで画像の変化を識別することが多く用いられている。 Techniques for detecting characteristic points (pixels) and regions in an image, such as a product appearance inspection process and an abnormality detection by a monitoring camera, are already known. In the conventional technique for detecting characteristic pixels and regions in an image, a normal reference image group is prepared in advance. And it is often used to identify changes in the image by calculating the difference using the feature amount such as the luminance value of the corresponding pixel in the reference image in the inspection target image.
例えば、特開2005−265661号公報(特許文献1)では、製品の外観検査において、検査対象画像の輝度値の正常範囲を統計的に決定することで、検査する作業者に依存しない画像検査を提案する。また、特開2013−160629号公報(特許文献2)では、参照画像について画素ごとの輝度値の平均と標準偏差とを予め決定する。そして検査時には、検査対象画像の輝度値について、平均値を減算した値を標準偏差で除算した偏差値を計算し、画素ごとの偏差値が設定したしきい値よりも大きい画素を異常画素として識別する方法を提案する。 For example, in Japanese Patent Laid-Open No. 2005-265661 (Patent Document 1), in the appearance inspection of a product, an image inspection that does not depend on the operator to be inspected is performed by statistically determining the normal range of the luminance value of the inspection target image. suggest. In JP 2013-160629 A (Patent Document 2), the average and standard deviation of luminance values for each pixel are determined in advance for a reference image. At the time of inspection, the deviation value obtained by subtracting the average value from the luminance value of the image to be inspected and dividing by the standard deviation is calculated, and pixels whose deviation value for each pixel is larger than the set threshold are identified as abnormal pixels. Suggest a way to do it.
しかしながら、従来方法では、検査対象の位置決めに誤差がある場合や、検査対象の形状がわずかに変化する場合、充分に異常を検出することができないという問題点があった。さらに、画像全体の平均を使用して偏差値を得る方法では、局所的に存在する異常が、画像全体にわたり逆にノイズ成分として作用し、局所異常を検出できない場合もあるという問題点があった。 However, the conventional method has a problem that an abnormality cannot be sufficiently detected when there is an error in positioning of the inspection object or when the shape of the inspection object slightly changes. Furthermore, in the method of obtaining the deviation value by using the average of the entire image, there is a problem that an abnormality that exists locally acts as a noise component on the entire image and cannot detect the local abnormality. .
本発明は、上記従来技術の問題点に鑑みてなされたものであり、効率的に画像中の異常を検出することを可能とする技術を提供することを目的とする。 The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide a technique capable of efficiently detecting an abnormality in an image.
すなわち、本発明によれば、検査対象の画像を含む対象画像を検査するための情報処理装置であって、
前記対象画像を参照画像と対比するための前処理を行う手段と、
前記対象画像に注目領域および前記注目領域を取り囲む周辺領域を規定し、各領域について前記注目領域および前記周辺領域の特徴量をそれぞれ計算する手段と、
前記各領域について、複数の前記参照画像の対応する領域との比較から前記注目領域における画像の特異性を数値的に示す外れ値を計算する手段と、
前記外れ値に基づき検査に使用する指標を与える手段と
を含む情報処理装置が提供される。
That is, according to the present invention, an information processing apparatus for inspecting a target image including an image to be inspected,
Means for performing preprocessing for comparing the target image with a reference image;
Means for defining a target region and a peripheral region surrounding the target region in the target image, and calculating a feature amount of the target region and the peripheral region for each region;
Means for calculating an outlier that numerically indicates the specificity of the image in the region of interest from comparison with corresponding regions of the plurality of reference images for each region;
And an information processing apparatus including means for providing an index to be used for an inspection based on the outlier.
本発明によれば、効率的に画像中の異常を検出することを可能とする、情報処理装置、情報処理方法、プログラムおよび検査システムを提供することが可能となる。 According to the present invention, it is possible to provide an information processing apparatus, an information processing method, a program, and an inspection system that can efficiently detect an abnormality in an image.
以下、本発明について実施形態を以て説明するが本発明は、後述する実施形態に限定されるものではない。図1は、本実施形態および比較例として挙げる従来技術の検査方法における良否判断の概念図を示す。 Hereinafter, although this invention is demonstrated with embodiment, this invention is not limited to embodiment mentioned later. FIG. 1 is a conceptual diagram of pass / fail judgment in a conventional inspection method given as an embodiment and a comparative example.
本実施形態では、図1(a)に示すように、検査領域110内に検査対象111が写り込んだ対象画像を使用して検査を行う。なお、本実施形態では、対象画像に写った検査対象の良否の検査を、良品として判定された際の対象画像または対象画像の群と比較して行う。以下、良品として判定された対象画像または対象画像群を、本開示においては参照画像として参照する。この参照画像を図1(b)に示す。図1(b)と比較すると、図1(a)で示した実施形態の対象画像中の検査対象111は、検査領域110内で、紙面右手側に許容範囲Δだけ変位または変形しているのが示されている。許容範囲Δは、ロボットアームによる位置決め精度や、製品に許容される精度以下となっている。このため、検査対象111は、本来であれば、良品として判定されるべき検査対象である。 In the present embodiment, as shown in FIG. 1A, an inspection is performed using an object image in which an inspection object 111 is reflected in the inspection area 110. In the present embodiment, the quality of the inspection target reflected in the target image is compared with the target image or the group of target images when determined as non-defective. Hereinafter, a target image or a target image group determined as a non-defective product is referred to as a reference image in the present disclosure. This reference image is shown in FIG. Compared with FIG. 1B, the inspection object 111 in the target image of the embodiment shown in FIG. 1A is displaced or deformed within the inspection region 110 by the allowable range Δ on the right hand side of the drawing. It is shown. The allowable range Δ is below the positioning accuracy by the robot arm and the accuracy allowed for the product. For this reason, the inspection object 111 is an inspection object that should be determined as a non-defective product.
図1(a)、(b)に示すように、本実施形態では、検査領域110を構成する画像領域に注目領域113aを設定する。図1(b)の参照画像の注目領域113aには、検査対象111の画像は含まれていないことを示す。ところが、図1(a)に示す実施形態では、注目領域113aは、検査対象111の画像を含むことになる。従来方法では、注目領域113aの特徴量の差分から検査対象111の良否を決定する。これを図1(c)に示す。 As shown in FIGS. 1A and 1B, in the present embodiment, a region of interest 113 a is set in the image region that constitutes the inspection region 110. The attention area 113a of the reference image in FIG. 1B indicates that the image of the inspection object 111 is not included. However, in the embodiment illustrated in FIG. 1A, the attention area 113 a includes an image of the inspection target 111. In the conventional method, the quality of the inspection object 111 is determined from the difference in the feature amount of the attention area 113a. This is shown in FIG.
図1(c)は、対象画像中の注目領域113aの特徴量を、特徴量が2次元で表現できるものとしてプロットした図である。図1(c)中、対象画像中で、検査対象111を含む画素をハッチングした「●」で示し、検査対象111の画像を含まない画素をハッチングしない「○」で示す。一方、図1(b)で示す参照画像には、検査対象111の画像は含まれないので、図1(c)には、●は存在しないことになる。 FIG. 1C is a diagram in which the feature amount of the attention area 113a in the target image is plotted assuming that the feature amount can be expressed in two dimensions. In FIG. 1C, in the target image, a pixel including the inspection target 111 is indicated by hatching “●”, and a pixel not including the inspection target 111 image is indicated by “◯”. On the other hand, the reference image shown in FIG. 1B does not include the image of the inspection object 111, and therefore, ● does not exist in FIG.
●の画像は、その特徴量が参照画像の特徴量とは差分が大きく、特異的な存在となっている。このため、従来技術では、現在の対象画像中の検査対象111は不良であるものとして処理される。ところが、検査対象111は、本来、そのずれが許容範囲Δ内で、良品として判定されるべきものである。このような誤判断は、製品歩留まりを低下させ、生産性を低下させることとなる。 The image of ● indicates that the feature value is different from the feature value of the reference image and is unique. For this reason, in the prior art, the inspection target 111 in the current target image is processed as being defective. However, the inspection object 111 should be determined as a non-defective product within the allowable range Δ. Such misjudgment results in a decrease in product yield and a decrease in productivity.
そこで、本実施形態では、検査領域110に、注目領域113aと、注目領域113aに隣接する周辺領域113bとを定義し、注目領域113aおよび周辺領域113bを含んだ、注目部分113を形成する。そして、この注目部分113を使用して、注目領域113aの特異性を判断するものである。図1(b)には、当該注目部分113、注目部分113を構成する注目領域113aおよび113bを示す。図1(b)では、本実施形態の注目部分113を、注目領域113aと、注目領域113aに隣接して設定された周辺領域113bとを含んだ正方形の領域として構成するものとして例示している。 Therefore, in the present embodiment, the attention region 113a and the peripheral region 113b adjacent to the attention region 113a are defined in the inspection region 110, and the attention portion 113 including the attention region 113a and the peripheral region 113b is formed. Then, using this attention portion 113, the specificity of the attention region 113a is determined. FIG. 1B shows the target portion 113 and target regions 113a and 113b constituting the target portion 113. In FIG. 1B, the attention portion 113 of the present embodiment is illustrated as being configured as a square region including the attention region 113a and a peripheral region 113b set adjacent to the attention region 113a. .
本実施形態において、注目部分113内に写り込んだ検査対象111の特徴量を、図1(c)と同様に、特徴量空間にそれぞれプロットしたものを、図1(d)に示す。なお、図1(d)中、参照画像中で、検査対象111を含む画素をハッチングした●で示し、検査対象111の画像を含まない画素をハッチングしない○で示すことは図1(c)と同様である。また、一部に検査対象111の画像を含む周辺領域113bを、ハーフトーンでハッチングして示す。注目領域113aには、検査対象が写り込んでいるので、注目領域113aの特徴量は、参照画像との比較において図1(c)と同様の特徴量の差分がある。 FIG. 1D shows a plot of the feature quantity of the inspection object 111 reflected in the target portion 113 in the feature quantity space in this embodiment, as in FIG. 1C. In FIG. 1D, a pixel including the inspection object 111 in the reference image is indicated by ●, and a pixel not including the image of the inspection object 111 is indicated by ○ which is not hatched as in FIG. It is the same. In addition, a peripheral region 113b partially including an image of the inspection object 111 is indicated by hatching with a halftone. Since the inspection target is reflected in the attention area 113a, the feature amount of the attention area 113a has the same feature amount difference as that in FIG. 1C in comparison with the reference image.
一方、本実施形態では、図1(d)に示すように、注目部分113を複数の画素から構成することで、注目領域113aの特徴量の周辺に参照用画像の特徴量を有する周辺領域113bの特徴量が追加される。このため注目領域113aの特徴量を、周辺領域113bの画像情報を考慮して判定することが可能となる。このため、注目領域113aの特異性だけに依存する従来の良品判定が改善される。すなわち、本実施形態は、注目部分113全体の特徴量を使用して注目領域113aの特徴量の検査を行うことを可能とするものである。 On the other hand, in the present embodiment, as shown in FIG. 1D, the attention portion 113 is composed of a plurality of pixels, so that the peripheral region 113b having the reference image feature amount around the feature amount of the attention region 113a. The feature amount is added. Therefore, it is possible to determine the feature amount of the attention area 113a in consideration of the image information of the peripheral area 113b. For this reason, the conventional non-defective product determination which depends only on the specificity of the attention area 113a is improved. That is, the present embodiment makes it possible to inspect the feature amount of the attention area 113a using the feature amount of the entire attention portion 113.
ここで、図2を使用して、注目部分113を規定することが、不良品の判定に対する影響を説明する。図2に示す検査対象111は、製品の一部にバリ114を有している。図2(a)に示すように、このバリ114に対応する注目領域113aは、検査対象111の画像を含むことになる。そこで、バリ114近傍の領域の特徴量を図1と同様に特徴量空間にプロットしたものが図2(b)である。 Here, FIG. 2 is used to explain the influence of defining the target portion 113 on the determination of defective products. The inspection object 111 shown in FIG. 2 has a burr 114 in a part of the product. As shown in FIG. 2A, the attention area 113a corresponding to the burr 114 includes an image of the inspection object 111. Therefore, FIG. 2B is a graph in which the feature values in the vicinity of the burr 114 are plotted in the feature value space as in FIG.
ここで、図2(b)に示す特徴量空間の特徴量における差分は、図1(b)と同様であるものとする。一方、図2(c)には、良品として判定された参照画像と、本実施形態における注目部分113とを示す。図2(c)に示すように、参照画像の対応する注目部分113には、対象画像の注目部分113aの特徴量に近い特徴量が存在しない。 Here, the difference in the feature quantity in the feature quantity space shown in FIG. 2B is assumed to be the same as that in FIG. On the other hand, FIG. 2C shows a reference image determined as a non-defective product and a target portion 113 in the present embodiment. As shown in FIG. 2C, the feature amount close to the feature amount of the target portion 113a of the target image does not exist in the corresponding target portion 113 of the reference image.
このため、図2(a)に示したバリ114を検出した場合には、従来と同様、図2(b)の判定方法を使用することで、良否判定が可能となる。 For this reason, when the burr 114 shown in FIG. 2A is detected, the pass / fail judgment can be made by using the judgment method of FIG.
なお、注目領域113aおよび周辺領域113bは、検査対象111のサイズおよび要求精度に応じて、画素単位で定義することができる。また、他の実施形態では、複数の画素からなる、平面を充填できる多角形の領域として定義することができる。また、注目部分113、注目領域113a、周辺領域113bのサイズ、構成画素数、形状については、特定の用途に応じて適宜設定することができる。 Note that the attention area 113a and the peripheral area 113b can be defined in units of pixels according to the size of the inspection object 111 and the required accuracy. Moreover, in other embodiment, it can define as a polygonal area | region which consists of a some pixel and can fill a plane. In addition, the size, the number of constituent pixels, and the shape of the attention portion 113, the attention region 113a, and the peripheral region 113b can be appropriately set according to a specific application.
また、注目部分は統計情報などから自動的に決定することも可能である。例えば、事前に参照画像群から画素ごとの分散を求め、注目部分の分散の合計を設定する。この態様によれば、分散が低い領域では注目部分が大きく、分散が高い領域では注目部分が小さくなるように決定することができる。また、事前に参照画像群や対象画像について画素ごとに勾配方向を求めておき、その勾配方向を優先的に見るように注目部分の縦横比を変える態様も用いることができる。 Further, the attention part can be automatically determined from statistical information or the like. For example, the variance for each pixel is obtained from the reference image group in advance, and the total variance of the target portion is set. According to this aspect, it is possible to determine that the attention part is large in the region where the variance is low and the attention part is small in the region where the dispersion is high. In addition, it is possible to use a mode in which a gradient direction is obtained for each pixel in advance for the reference image group and the target image, and the aspect ratio of the target portion is changed so that the gradient direction is preferentially viewed.
以上説明したように、本実施形態では、不良に関しては検出感度を低下させることなく、正常な範囲内の変化に対しては検出感度を低下させることで検査のロバスト性を向上させることで良否判定精度を改善することができる。 As described above, in the present embodiment, the pass / fail judgment is made by improving the robustness of the inspection by reducing the detection sensitivity for a change within a normal range without reducing the detection sensitivity for a defect. Accuracy can be improved.
以下、説明の便宜上、特に説明のない限り、注目領域113aおよび周辺領域113bは、画素単位であるものとして説明する。本実施形態においては、画像の特徴量としては、輝度値、色値といった色に関連する特徴量を使用することができる。色に関する特徴量は、輝度値または色値など画像上識別でき、定量化できる限り、L*a*b*、L*uv、HSVなど、いかなる種類および定式化のものでも使用することができる。 Hereinafter, for the convenience of description, unless otherwise specified, the attention area 113a and the peripheral area 113b are described as being in units of pixels. In the present embodiment, as a feature amount of an image, a feature amount related to a color such as a luminance value or a color value can be used. As long as the characteristic value regarding the color can be identified on the image such as a luminance value or a color value and can be quantified, any type and formulation such as L * a * b * , L * uv, and HSV can be used.
色値など対象が3次元となる場合は各次元について処理したものを最終的にマージすることで欠陥検出を実現することができる。例えばRGB画像を対象とする場合、RGBそれぞれについて下記に示す外れ値計算を行った後,平均値や最大値を求めることで1つの画像としてマージし、欠陥検出を行ってもよい。 When the object such as a color value is three-dimensional, defect detection can be realized by finally merging those processed for each dimension. For example, when an RGB image is a target, after performing the outlier calculation shown below for each of RGB, the average value and the maximum value may be obtained and merged as one image to detect defects.
その他、より具体的には、本実施形態では、画像特徴量として、形状情報を表すエッジ情報、空間周波数情報を使用することができる。この他、局所的な画像特徴量としては、HLAC、SHIFT、SURFなどを挙げることができる。この他にも、画像テクスチャを画像特徴量として使用するため、濃度共起行列を使用する方法、ディープラーニング使用するAuto−Encordersなどにより自動取得された特徴量を使用することができる。これらの画像特徴づけ方法により定量化される値は、すべて本実施形態における特徴量として使用することができる。以下、上述した色に関する特徴量の他に利用できる特徴量について詳細に説明する。 In addition, more specifically, in the present embodiment, edge information representing shape information and spatial frequency information can be used as the image feature amount. In addition, examples of the local image feature amount include HLAC, SHIFT, SURF, and the like. In addition, since an image texture is used as an image feature amount, a feature amount automatically acquired by a method using a density co-occurrence matrix, Auto-Encoders using deep learning, or the like can be used. All values quantified by these image characterization methods can be used as feature amounts in the present embodiment. In the following, feature quantities that can be used in addition to the above-described feature quantities relating to colors will be described in detail.
(1)エッジ特徴量
エッジ特徴量としては、例えば勾配強度と、勾配方向とを使用することができ、画素位置(u、v)での勾配強度s(u、v)は、例えば下記式(1)により得ることができる(非特許文献1)。
(1) Edge feature amount As the edge feature amount, for example, gradient strength and gradient direction can be used, and the gradient strength s (u, v) at the pixel position (u, v) is expressed by, for example, the following formula ( 1) (Non-patent Document 1).
また、画像Lにおける画素位置(u、v)における勾配方向は、下記式(2)で得ることができる。 Further, the gradient direction at the pixel position (u, v) in the image L can be obtained by the following equation (2).
(2)空間周波数情報
空間周波数情報としてはパワースペクトルを使用して数値化することができ、当該パワースペクトルを、特徴量として使用することもできる(非特許文献2)。
(2) Spatial frequency information The spatial frequency information can be digitized using a power spectrum, and the power spectrum can also be used as a feature amount (Non-patent Document 2).
(3)テクスチャ特徴量
空間周波数情報を使用し、当該特徴量からテクスチャ特徴量を下記式(4)で得ることができる。
(3) Texture feature amount Using the spatial frequency information, the texture feature amount can be obtained from the feature amount by the following equation (4).
上記式(4)で定義したテクスチャ特徴量を、本実施形態における特徴量として使用することができる。なお、p(r)は、パワースペクトル空間において原点を中心としたドーナツ型の領域内のエネルギーの和である。q(θ)は、扇形領域内のエネルギーの和である。テクスチャ情報は、p(r)、q(θ)のヒストグラムの位置、高さ、p(r)、q(θ)の平均および/または分散などを使用して特徴量とすることができる。 The texture feature amount defined by the above equation (4) can be used as the feature amount in the present embodiment. Note that p (r) is the sum of energy in a donut-shaped region centered on the origin in the power spectrum space. q (θ) is the sum of energy in the sector area. The texture information can be used as a feature amount using the histogram position, height, p (r), q (θ) average and / or variance of p (r) and q (θ).
上述したp(r)およびやq(θ)は、単一画素に対して求めることはできないものの、対象画素を中心とする局所的な領域に対して求めたp(r)およびq(θ)を、対象画素の画像特徴量とすることで色の特徴量同様に外れ値を計算することが可能である。 Although p (r) and q (θ) described above cannot be obtained for a single pixel, p (r) and q (θ) obtained for a local region centered on the target pixel. As an image feature amount of the target pixel, an outlier can be calculated in the same manner as a color feature amount.
(4)局所的特徴量
局所的特徴量は、HALC値(高次局所自己相関特徴Higher-order Local Auto Correlation)x(a1,a2,...,an)は、下記式(5)によって決定される(非特許文献3、4)。
(4) Local feature amount The local feature amount is an HALC value (higher-order local autocorrelation feature) x (a 1 , a 2 ,..., An ) expressed by the following formula (5 (Non-Patent Documents 3 and 4).
2次以上のHALC特徴量は、単一画素に対して求めることは出来ないものの、対象画素を中心とする領域に対して求めたHLAC特徴量を、対象画素のHLAC特徴量とすることで色の特徴量同様、外れ値を定義し、計算することが可能となる。なお、SIFT(非特許文献1、非特許文献5)およびSURF(非特許文献6)についても同様に本実施形態における特徴量として使用することができる。 Although the second and higher order HALC feature values cannot be obtained for a single pixel, the HLAC feature value obtained for the region centered on the target pixel is used as the HLAC feature value of the target pixel. As with the feature quantity, outliers can be defined and calculated. Note that SIFT (Non-Patent Document 1, Non-Patent Document 5) and SURF (Non-Patent Document 6) can also be used as feature amounts in this embodiment.
(5)ランレングス行列を使用する特徴量
テクスチャを特徴づける手法として、ランレングス行列を使用する方法が提案されている(非特許文献2)。本実施形態では、図3に示したランレングス行列を使用して、各画素の特徴量を計算する。なお、図3に示したランレングス行列は、行方向にランの長さが対応付けられ、列方向に濃度が対応付けられている。
(5) Feature Quantity Using Run-Length Matrix As a technique for characterizing a texture, a method using a run-length matrix has been proposed (Non-Patent Document 2). In the present embodiment, the feature amount of each pixel is calculated using the run-length matrix shown in FIG. In the run-length matrix shown in FIG. 3, the run length is associated with the row direction, and the density is associated with the column direction.
図3に示したランレングス行列を使用し、下記式(6)で与えられる5次元の特徴量のいずれか1つ、または任意の組み合わせを、本実施形態の特徴量として使用することができる。 Using the run-length matrix shown in FIG. 3, any one of the five-dimensional feature amounts given by the following formula (6) or any combination can be used as the feature amount of the present embodiment.
ランレングス行列による方法を含め、テクスチャ特徴量はいずれも単一画素に対して求めることはできない。しかしながら、対象画素を中心とする領域に対して求めたテクスチャ特徴量を対象画素の特徴量とすることで色の特徴量同様、外れ値を計算することができ、本実施形態の特徴量とすることができる。 None of the texture feature amounts can be obtained for a single pixel, including the method using a run-length matrix. However, outliers can be calculated as in the case of the color feature amount by using the texture feature amount obtained for the region centered on the target pixel as the feature amount of the target pixel. be able to.
(6)ディープラーニングによる特徴量
ディープラーニングによる特徴量として、例えばAutoencoder(オートエンコーダ)(非特許文献7、8)による特徴量抽出法を使用することができる。Autoencoderとは、入力を一旦低次元に写像した後入力の再構成を行うニューラルネットワークであり、入力の低次元でノイズに影響されにくい表現を自動的に獲得することができる。
(6) Feature amount by deep learning As a feature amount by deep learning, for example, a feature amount extraction method by Autoencoder (auto encoder) (Non-patent Documents 7 and 8) can be used. Autoencoder is a neural network that reconstructs input after mapping the input to a low dimension, and can automatically obtain a low-dimensional representation that is less susceptible to noise.
図4に、AutoEncoderの例を示す。Input(入力、この場合はベクトル化された画像)より低次元なhidden(隠れ層)を介してoutput=inputとなるように学習し対象画像の低次元な表現が獲得できる。本実施形態では、図4に示した値のうち、hiddenの値を、本実施形態における特徴量として利用することができる。ここで学習は参照用画像を用いて行うことができる。 FIG. 4 shows an example of AutoEncoder. A low-dimensional representation of the target image can be acquired by learning that output = input via a hidden (hidden layer) that is lower in dimension than Input (in this case, a vectorized image). In the present embodiment, among the values shown in FIG. 4, the hidden value can be used as the feature amount in the present embodiment. Here, learning can be performed using a reference image.
図4では、入力層を、x、hiddenへの入力をy、outputへの入力をzとする。また、encodeおよびdecodeは、図4に定義した式を使用して計算できる.Wは、重み、bは、バイアスと呼ばれるパラメータである。AutoEncoderを用いる実施形態は、画素の色情報(RGBの3次元)を入力として特徴量を求めることができる。なお、図4におけるinputおよびoutputを3次元とし、hiddenを1または2次元として設定することができる。また、対象画素を含む領域について求めたhiddenの値を、対象画素の特徴量とすれば、色の特徴量と同様に外れ値計算が可能となる。 In FIG. 4, the input layer is x, the input to hidden is y, and the input to output is z. Encode and decode can be calculated using the formula defined in Fig. 4. W is a weight, and b is a parameter called a bias. In the embodiment using the AutoEncoder, the feature amount can be obtained using pixel color information (RGB three-dimensional) as an input. Note that the input and output in FIG. 4 can be set to three dimensions and the hidden can be set to one or two dimensions. Further, if the hidden value obtained for the region including the target pixel is the feature amount of the target pixel, outlier calculation can be performed in the same manner as the feature amount of the color.
図1〜図4を使用して説明したように、本実施形態では、注目領域113aの画像上の特異性を、周辺領域の状態を考慮して決定することで、検査対象111の縁部111a近傍の特異性をより効率的に数値的に決定することを可能としている。 As described with reference to FIGS. 1 to 4, in the present embodiment, the edge 111a of the inspection object 111 is determined by determining the specificity of the attention region 113a on the image in consideration of the state of the peripheral region. This makes it possible to numerically determine the specificity of the neighborhood more efficiently.
図5は、本実施形態の処理方法が実装される検査システム500の実施形態を示す。図3に示す検査システム500は、制御部501と、制御部501に対して指令を行うための操作部502と、出力I/O503とを含んでいる。 FIG. 5 shows an embodiment of an inspection system 500 in which the processing method of this embodiment is implemented. The inspection system 500 shown in FIG. 3 includes a control unit 501, an operation unit 502 for giving a command to the control unit 501, and an output I / O 503.
制御部501は、コンピュータといった情報処理装置と含んで構成することができ、本実施形態における制御手段に相当する。また、操作部502は、液晶ディスプレイ装置、キーボード、マウス、タッチパネルなどを含んで構成され、制御部501と作業者との間のインタフェースを提供する。操作部502が本実施形態のおける操作手段に相当する。出力I/O503は、制御部501の計算結果に基づいて検査対象506を移動させるための出力を生成し、搬送アーム505の位置制御を行うものであり、本実施形態における出力手段に相当する。 The control unit 501 can be configured to include an information processing apparatus such as a computer, and corresponds to the control means in the present embodiment. The operation unit 502 includes a liquid crystal display device, a keyboard, a mouse, a touch panel, and the like, and provides an interface between the control unit 501 and an operator. The operation unit 502 corresponds to an operation unit in the present embodiment. The output I / O 503 generates an output for moving the inspection object 506 based on the calculation result of the control unit 501 and controls the position of the transfer arm 505, and corresponds to an output unit in this embodiment.
検査対象506は、搬送部507に載置されて、搬送アーム505に保持された後、検査位置にまで搬送され、デジタルカメラといった撮像装置508によりその画像が取得される。搬送部507は、本実施形態における搬送手段に相当する。撮像装置508が本実施形態における撮像手段に相当する。取得された画像は、制御部501に送られて、被検査対象111の特異性が画像的に検査される。制御部501は、当該検査の結果に応じて、搬送アーム505の運動を制御し、検査対象を、良品、および不良品に分類して収容する収容部504へと移動させている。 The inspection target 506 is placed on the transport unit 507, held by the transport arm 505, transported to the inspection position, and an image thereof is acquired by an imaging device 508 such as a digital camera. The transport unit 507 corresponds to the transport unit in the present embodiment. The imaging device 508 corresponds to the imaging unit in this embodiment. The acquired image is sent to the control unit 501, and the specificity of the inspected object 111 is inspected imagewise. The control unit 501 controls the movement of the transfer arm 505 in accordance with the result of the inspection, and moves the inspection object to the accommodating unit 504 that accommodates the non-defective product and the defective product.
図6は、本実施形態の制御部501のハードウェア・ブロック600の実施形態を示す。制御部301は、システムバス606により相互接続されたCPU601、RAM602、必要に応じて画像RAM、ROM603、表示装置604および通信装置605を含んで構成することができる。さらに、システムバス606には、PCI、PCIExpressなどのバスブリッジを介してI/Oバス607が接続されている。また、I/Oバス607には、適切なプロトコルを介して、外付けドライブおよびDVDドライブなどの外付ドライブ610が接続されている。さらに、制御部501は、デジタルカメラといった撮像装置608、記憶装置609および外付ドライブ610と接続されて、画像取得を可能とするとともに、本実施形態の処理を可能とするプログラム、データの格納を可能としている。 FIG. 6 shows an embodiment of a hardware block 600 of the control unit 501 of the present embodiment. The control unit 301 can include a CPU 601, a RAM 602, and an image RAM, a ROM 603, a display device 604, and a communication device 605, which are interconnected by a system bus 606. Furthermore, an I / O bus 607 is connected to the system bus 606 via a bus bridge such as PCI or PCI Express. In addition, an external drive 610 such as an external drive and a DVD drive is connected to the I / O bus 607 via an appropriate protocol. Furthermore, the control unit 501 is connected to an imaging device 608 such as a digital camera, a storage device 609, and an external drive 610, and enables storage of programs and data that enable image acquisition and processing of the present embodiment. It is possible.
制御部501が使用するCPUとしては、より具体的には、例えば、PENTIUM(登録商標)〜PENTIUM IV(登録商標)、CORE i(登録商標)シリーズ、ATOM(登録商標)、PENTIUM(登録商標)互換CPU、POWER PC(登録商標)、MIPSなどを挙げることができるが、これらに限定されるものではない。 More specifically, the CPU used by the control unit 501 is, for example, PENTIUM (registered trademark) to PENTIUM IV (registered trademark), CORE i (registered trademark) series, ATOM (registered trademark), or PENTIUM (registered trademark). Examples include, but are not limited to, compatible CPUs, POWER PC (registered trademark), and MIPS.
使用するオペレーティング・システム(OS)としては、MacOS(商標)、iOS(登録商標)、Windows(登録商標)、CHROME(登録商標)、ANDROID(登録商標)、Windows(登録商標)200X Server、UNIX(登録商標)、AIX(登録商標)、LINUX(登録商標)またはそれ以外の適切なOSを挙げることができる。さらに、制御部301は、上述したOS上で動作する、C、C++、Visual C++、VisualBasic、Java(登録商標)、Perl、Rubyなどのプログラミング言語により記述されたアプリケーション・プログラムを格納し、実行することができる。 As the operating system (OS) to be used, MacOS (registered trademark), iOS (registered trademark), Windows (registered trademark), CHROME (registered trademark), ANDROID (registered trademark), Windows (registered trademark) 200X Server, UNIX ( (Registered trademark), AIX (registered trademark), LINUX (registered trademark), or other appropriate OS. Further, the control unit 301 stores and executes an application program written in a programming language such as C, C ++, Visual C ++, Visual Basic, Java (registered trademark), Perl, or Ruby, which operates on the OS described above. be able to.
図7は、本実施形態の制御部501のソフトウェア・ブロック700の実施形態を示す。制御部501は、USB(universal serial bus)、HDMI(登録商標)、他の実施形態では、イーサネット(登録商標)といった適切な転送方式を使用して検査対象画像を撮像装置308から受け取る。制御部501は、入力I/O701と、前処理部702と、演算部703とを含む入力I/O701は、本実施形態における入力手段に相当する。入力I/O701は、適切なバスインタフェース、NICなどを含んで構成することができる。入力I/O701は、受領した検査対象画像を、適切な記憶手段である、例えば画像RAM602に格納することを可能とする。 FIG. 7 shows an embodiment of the software block 700 of the control unit 501 of the present embodiment. The control unit 501 receives an inspection target image from the imaging device 308 using an appropriate transfer method such as USB (universal serial bus), HDMI (registered trademark), or Ethernet (registered trademark) in other embodiments. The control unit 501 includes an input I / O 701, a preprocessing unit 702, and a calculation unit 703. The input I / O 701 corresponds to an input unit in the present embodiment. The input I / O 701 can be configured to include an appropriate bus interface, NIC, and the like. The input I / O 701 enables the received inspection target image to be stored in, for example, the image RAM 602 which is an appropriate storage unit.
前処理部702は、撮像装置608が取得した、現在検査するべき対象画像を、検査領域110に対して位置決めすることにより、以後の処理を可能とする。その他、前処理部702は、ノイズ低減のフィルタ処理やマスキング処理を行う。前処理部702は、本実施形態における前処理手段に相当する。例えば、前処理部702は、取得した検査対象画像の少なくとも1つの画素または領域を、検査領域110の所定の位置座標に対応付ける処理を行うことで位置合わせを行うことができる。 The pre-processing unit 702 positions the target image to be inspected currently acquired by the imaging device 608 with respect to the inspection region 110, thereby enabling subsequent processing. In addition, the preprocessing unit 702 performs noise reduction filter processing and masking processing. The preprocessing unit 702 corresponds to preprocessing means in the present embodiment. For example, the pre-processing unit 702 can perform alignment by performing processing for associating at least one pixel or region of the acquired inspection target image with a predetermined position coordinate of the inspection region 110.
演算部703は、本実施形態に従い外れ値を計算する機能を提供し、本実施形態における色に関する特徴量を計算する手段および外れ値を計算する手段に相当する。なお、演算部703は、その処理を行うため、参照画像を格納した記憶部706、および設定パラメータを記憶した第2記憶部707にアクセスし、参照画像の画素との間の外れ値を、取得したパラメータを使用して演算する。このときのパラメータとしては、例えば周辺領域の範囲指定の値、取得するべき参照画像の識別値、参照画像について予め計算しておいた標準偏差(σの値)、参照画像について予め計算しておいた特徴量の平均値、std(i、j)の値などを挙げることができるが、これらに限定されるものではない。これらの値、パラメータについてはより詳細に後述する。 The computing unit 703 provides a function for calculating an outlier according to the present embodiment, and corresponds to a means for calculating a feature quantity and a means for calculating an outlier according to the present embodiment. In order to perform the processing, the calculation unit 703 accesses the storage unit 706 storing the reference image and the second storage unit 707 storing the setting parameter, and acquires an outlier between the reference image pixels. Calculate using the specified parameters. The parameters at this time include, for example, a value for specifying the range of the peripheral region, an identification value of the reference image to be acquired, a standard deviation (σ value) calculated in advance for the reference image, and a value calculated in advance for the reference image. The average value of the feature amount, the value of std (i, j), and the like can be mentioned, but are not limited thereto. These values and parameters will be described later in more detail.
制御部501は、さらに判定部704と、出力部705とを含んでいる。判定部704は、本実施形態における判定する手段に相当し、演算部703が生成した外れ値を受領して、設定した閾値を適用し、検査対象が不良であるか、否かを判断する。出力部705は、当該判断に応答して、搬送アーム505を制御するための制御情報を計算し、出力I/O503に出力し、搬送アーム505の制御を可能とする。 The control unit 501 further includes a determination unit 704 and an output unit 705. The determination unit 704 corresponds to a determination unit in the present embodiment, receives the outlier generated by the calculation unit 703, applies the set threshold value, and determines whether or not the inspection target is defective. In response to the determination, the output unit 705 calculates control information for controlling the transport arm 505 and outputs the control information to the output I / O 503 so that the transport arm 505 can be controlled.
本実施形態の制御部501は、さらにユーザ・インタフェース部708を備えている。ユーザ・インタフェース部708は、ユーザによる制御部501への各種設定の入力を可能としたり、制御部501の結果をユーザに対して通知したりする機能を備える。具体的には、例えば、ユーザが注目部分113の設定を行うことを可能とする機能、注目部分113を構成する領域の数を設定することを可能とする機能を有することができる。さらに、ユーザ・インタフェース部708は、外れ値を計算させるべき周辺領域の範囲を変更・設定可能とする機能、検査画像を拡大縮小する機能および拡大・縮小された検査画像に基づいて外れ値の計算を実行させる機能を有する。さらに、ユーザは、ユーザ・インタフェース部708を介して新たな参照画像の追加または参照画像の交換を行うことができる。 The control unit 501 of this embodiment further includes a user interface unit 708. The user interface unit 708 has a function of allowing the user to input various settings to the control unit 501 and notifying the user of the result of the control unit 501. Specifically, for example, it is possible to have a function that allows the user to set the attention part 113 and a function that allows the number of regions constituting the attention part 113 to be set. Further, the user interface unit 708 calculates the outlier based on the function that allows the range of the peripheral area where the outlier is to be calculated to be changed / set, the function that enlarges / reduces the inspection image, and the inspection image that is enlarged / reduced It has a function to execute. Furthermore, the user can add a new reference image or exchange a reference image via the user interface unit 708.
以下、図8を参照して、本実施形態の処理方法を説明する。処理はステップS800から開始し、ステップS801で検査対象の画像を取得する。その後、検査領域110に対して検査対象画像に対して前処理を適用する。前処理には、例えば、画像相互の位置合わせを含むことができる。当該位置合わせは、記憶部706から検査対象に対応する適切な参照画像を読み出し、これをテンプレートとして設定する。なお参照画像は、適宜処理の必要性に応じてユーザが追加・削除することができる。 Hereinafter, the processing method of the present embodiment will be described with reference to FIG. The process starts from step S800, and an image to be inspected is acquired in step S801. Thereafter, preprocessing is applied to the inspection target image with respect to the inspection region 110. Preprocessing can include, for example, registration of images. In the alignment, an appropriate reference image corresponding to the inspection object is read from the storage unit 706 and set as a template. Note that the reference image can be added or deleted by the user according to the necessity of processing as appropriate.
そして、検査するべき対象画像と、テンプレートとの間で特徴量の一致判断を行ない、特徴量の一致が最も高い領域を同一領域として決定し、検査領域110に対応付ける処理によって行われる。テンプレート・マッチングの方法は、いわゆるZNCC(正規化相互相関法)を用いて行うことができる。この他、前処理には、用途に応じて、画像の拡大・縮小や1画素または1領域が有する情報量の制御を含むことができる。 Then, the matching of the feature amount is determined between the target image to be inspected and the template, the region having the highest feature amount matching is determined as the same region, and the processing is performed in association with the inspection region 110. The template matching method can be performed using a so-called ZNCC (normalized cross correlation method). In addition, the preprocessing can include image enlargement / reduction and control of the amount of information of one pixel or one area depending on the application.
その後、ステップS802で、演算部703は、検査領域に割り当てられた画素、面積、形状などで領域を規定し、当該領域ごとに特徴量を計算する。当該処理部が本実施形態における特徴量を計算する手段に相当する。特徴量は、上述した通り、輝度値、色値、その他、どのような尺度であっても画像から抽出できる限り種類および定式化には制限はない。以下、より具体的な説明のため、特徴量として輝度値を使用するものとして説明するが、本実施形態は、輝度値を使用する処理に限定されるものではない。 Thereafter, in step S802, the calculation unit 703 defines a region with pixels, areas, shapes, and the like assigned to the inspection region, and calculates a feature amount for each region. The processing unit corresponds to means for calculating the feature amount in the present embodiment. As described above, there is no limitation on the type and formulation of the feature amount as long as it can be extracted from the image at any scale, such as luminance value, color value, and the like. Hereinafter, for the sake of more specific explanation, it is assumed that a luminance value is used as a feature amount. However, the present embodiment is not limited to processing using a luminance value.
ステップS803で、さらに演算部703は、取得した特徴量と、参照画像の対応領域、周辺領域の特徴量とを比較し、外れ値を計算する。外れ値の計算方法には、特に制限はなく、本実施形態のように偏差値を使用することもできるし、箱ひげ図、grubbs検定、マハラノビス距離、LOF(LOCAL OUTLIER FACTOR)などを使用することができる。当該処理部が本実施形態における外れ値を計算する手段に相当する。以下、演算部703が実行する外れ値の計算処理を、詳細に説明する。以下の説明において、注目領域の位置を、位置(i,j)とし、注目領域を取り囲む周辺領域を位置(i±1,j±1)とした場合について説明する。当該実施形態は、周辺領域113bを、注目領域113aに隣接して取り囲む領域として規定する実施形態に相当する。iおよびjの値は、0を含む正の整数から任意に選択することができる。 In step S <b> 803, the calculation unit 703 further compares the acquired feature amount with the feature amounts of the corresponding region and the peripheral region of the reference image, and calculates an outlier. The outlier calculation method is not particularly limited, and a deviation value can be used as in this embodiment, and a box plot, grubbs test, Mahalanobis distance, LOF (LOCAL OUTLIER FACTOR), and the like are used. Can do. The processing unit corresponds to means for calculating an outlier in the present embodiment. Hereinafter, the outlier calculation processing executed by the calculation unit 703 will be described in detail. In the following description, a case will be described in which the position of the attention area is position (i, j) and the peripheral area surrounding the attention area is position (i ± 1, j ± 1). This embodiment corresponds to an embodiment in which the peripheral region 113b is defined as a region surrounding and surrounding the attention region 113a. The values of i and j can be arbitrarily selected from positive integers including 0.
まず、演算部703は、参照用画像群(例えば良品の画像を50枚程度)を読み出し、全領域の輝度値の平均値n(i,j)および標準偏差std(i、j)を計算し、適切な記憶手段に格納させる。なお、参照画像の特徴量は、上述した通り、事前に計算されている。このとき参照画像群によっては、std(i,j)が極めて0に近くなることもあり、計算がオーバーフロー例外を発生させる場合も想定できる。このため、他の実施形態では、std(i,j)に対して閾値std_minを設定し、それ以下のstd(i,j)をstd_minの値に置換することも可能である。また、用途に応じてstd_minを外部から設定可能とすることもできる。 First, the calculation unit 703 reads a reference image group (for example, about 50 non-defective images), and calculates an average value n (i, j) and standard deviation std (i, j) of luminance values in all regions. And store it in an appropriate storage means. Note that the feature amount of the reference image is calculated in advance as described above. At this time, depending on the reference image group, std (i, j) may be very close to 0, and it can be assumed that the calculation generates an overflow exception. Therefore, in another embodiment, it is possible to set a threshold value std_min for std (i, j) and replace std (i, j) below it with the value of std_min. Also, std_min can be set from the outside according to the application.
外れ値の計算は、注目領域113aの画素位置(i,j)の輝度値v(i,j)から、参照画像群の対応する画素位置(i,j)と、現在判断している検査対象の情報は含めずに計算した参照画像の輝度値の平均値m(i,j)との残差絶対値を計算する。必要に応じて残差2乗を計算することもできる。なお、参照画像は、予め取得および登録された検査対象111が良品であると判断された検査画像またはそのセットとして定義される。そして、この残差絶対値を、当該注目領域113aの参照画像での標準偏差std(i,j)で除算する。その除算結果を外れ値として数値化する。なお、当該処理は、統計的な標準化手法であり、いわゆる外れ値とは、注目領域113aの参照画像群における偏差値に相当する値である。 The outlier is calculated from the luminance value v (i, j) at the pixel position (i, j) of the attention area 113a and the corresponding pixel position (i, j) of the reference image group and the inspection object currently determined. The absolute value of the residual with the average value m (i, j) of the luminance value of the reference image calculated without including the above information is calculated. If necessary, the residual square can be calculated. The reference image is defined as an inspection image or a set thereof in which the inspection object 111 acquired and registered in advance is determined to be non-defective. Then, the residual absolute value is divided by the standard deviation std (i, j) in the reference image of the region of interest 113a. The division result is digitized as an outlier. Note that this processing is a statistical standardization method, and so-called outliers are values corresponding to deviation values in the reference image group of the region of interest 113a.
同様の操作を、周辺領域113b、すなわち、画素位置(i±1,j±1)の全ての平均値および標準偏差を用いて計算し、特定の実施形態では、計算した外れ値のうちの最小値を、注目領域113aの外れ値として設定する。なお、特定の実施態様によっては、最大値をもって注目領域113aの外れ値として数値化することができることは言うまでもないことである。以上の処理を下記式(12)に示す。 A similar operation is calculated using all the mean values and standard deviations of the peripheral region 113b, i.e., pixel location (i ± 1, j ± 1), and in certain embodiments, the smallest of the calculated outliers. The value is set as an outlier of the attention area 113a. In addition, it cannot be overemphasized that it can quantify as an outlier of the attention area | region 113a with a maximum value depending on a specific embodiment. The above processing is shown in the following formula (12).
この計算を検査画像の全領域に渡って行うことにより、画像全体に対して上記式(1)で外れ値を数値化する。なお、注目部分113は、(i,j)およびk、lの値を使用してユーザ指定によって設定され、また変更される。さらに、外れ値を計算させるための画像範囲に相当する(i,j)の範囲についてもユーザ指定によって適宜変更することができる。 By performing this calculation over the entire region of the inspection image, the outlier is quantified by the above equation (1) for the entire image. The attention portion 113 is set or changed by user designation using the values of (i, j) and k and l. Furthermore, the range of (i, j) corresponding to the image range for calculating outliers can be changed as appropriate by user designation.
ステップS803で外れ値を計算した後、判定部704において判定処理を行う。判定処理は、本実施形態では、具体的に以下のように行う。領域の位置ごとの外れ値を使用し、さらに検査画像が良品か否かを判定するための指標である欠陥量を計算する。当該指標を、本開示においては、以下欠陥量として参照する。 After calculating the outlier in step S803, the determination unit 704 performs determination processing. In the present embodiment, the determination process is specifically performed as follows. An outlier for each position of the region is used, and a defect amount that is an index for determining whether or not the inspection image is a non-defective product is calculated. In the present disclosure, the index is referred to as a defect amount below.
本実施形態においては、画像特異性が顕著ではない尺度として、画像全体の外れ値の標準偏差(以下、σとして参照する。)を使用して、所定の閾値を設定する。例えば3σ以下の外れ値を、数値=0として、カットオフし、画像全体について外れ値を積算する。この結果、良品の画像は、さらに低い欠陥量を与え、不良品画像との相違を改善することが可能となる。値σは、画像全体について取得された注目領域の外れ値の分布を、正規分布するものとして取得した標準偏差であり、上述したstd(i,j)とは異なる点を留意されたい。なお、これらの計算に使用される値、パラメータは、処理の進行に応じて、新たな値、パラメータとして更新し、学習させることができる。 In the present embodiment, a predetermined threshold is set using a standard deviation (hereinafter referred to as σ) of an outlier of the entire image as a measure for which image specificity is not remarkable. For example, an outlier of 3σ or less is set to a numerical value = 0 and cut off, and the outlier is integrated for the entire image. As a result, the non-defective image can give a lower defect amount and can improve the difference from the defective image. It should be noted that the value σ is a standard deviation acquired as a normal distribution of the outlier distribution of the attention area acquired for the entire image, and is different from std (i, j) described above. Note that the values and parameters used for these calculations can be updated and learned as new values and parameters as the process proceeds.
上述した積算処理は、好ましい実施形態では、精度を向上させる目的で、設定した閾値以下の外れ値、すなわち画像の特異性の顕著性が少ないと判断できる画像領域の外れ値を0として積算することができる。この理由は、上記式(1)により求められる外れ値は、処理対象の画像領域が正常な場合でも種々のノイズ成分などの影響により、非ゼロの値を有するので、そのまま積算すると、蓄積したノイズ成分が不良品の画像特異性のS/Nを低下させてしまい検出性を低下させる恐れがあるためである。 In the preferred embodiment, for the purpose of improving accuracy, the above-described integration processing is performed by integrating the outliers below the set threshold value, that is, the outliers of the image area that can be determined as having less noticeable image specificity. Can do. The reason for this is that the outlier obtained by the above equation (1) has a non-zero value due to the influence of various noise components even when the image area to be processed is normal. This is because the component may reduce the S / N of the image specificity of a defective product and may reduce the detectability.
本実施形態における欠陥量は、さらに種々の方法で決定することができる。例えば、例示的な実施形態では、下記式(8)で示されるように、画像中の対象領域に渡り、上述した外れ値を積算した値として定義される。 The amount of defects in the present embodiment can be further determined by various methods. For example, in the exemplary embodiment, as shown by the following formula (8), the value is defined as a value obtained by integrating the above-described outliers over the target region in the image.
本実施形態において欠陥量は、さらに他の方法によっても得ることができる。以下、さらに欠陥量を計算する実施形態について説明する。欠陥量は、他の実施形態では外れ値の最大値として、下記式(9)を使用して決定することもできる。
さらに他の実施形態では、欠陥量を、図9(a)に示すように、行って一以上の外れ値が存在する面積を求め、当該面積を当該面積が含むPixel数として、下記式(10)を使用して決定することができる。 In still another embodiment, as shown in FIG. 9A, the defect amount is determined to obtain an area where one or more outliers exist, and the area is defined as the number of pixels included in the area. ) Can be determined using.
この他、欠陥量とするべき面積を、図9(b)に示すように、外接矩形座標を使用して下記式(11)で決定し、当該面積が含むPixel数を欠陥量として使用することができる。なお、下記式(11)中、kは、画像中の外れ値が一定値以上ある領域の画素識別値である。 In addition, as shown in FIG. 9B, the area to be used as the defect amount is determined by the following equation (11) using circumscribed rectangular coordinates, and the number of pixels included in the area is used as the defect amount. Can do. In the following formula (11), k is a pixel identification value of a region where an outlier in the image is a certain value or more.
なお、閾値として設定するべき値は、対象の形状や位置合わせの精度などから用途に応じて設定することができる。さらに、例えば、高い外れ値が密集している箇所があることを以て、特異的と判断することもできる。 Note that the value to be set as the threshold value can be set according to the application from the shape of the target, the accuracy of alignment, and the like. Furthermore, for example, it can be determined to be specific because there is a portion where high outliers are dense.
ステップS804では、上述した外れ値から得た欠陥量を使用して検査対象の不良を判断し、判断結果を出力して搬送アーム505の動作制御を行い、ステップS805で処理を終了する。 In step S804, a defect to be inspected is determined using the defect amount obtained from the above-described outlier, the determination result is output to control the operation of the transfer arm 505, and the process ends in step S805.
上述した実施形態では、対象画素の近傍を使用して欠陥量などを計算するものとして説明した。この他、他の例示的な実施形態では、制御部501が図10に示すように、検査画像内に同一モジュール1011、1012が複数ある場合、ユーザによる検査領域の設定を可能とすることで、モジュール1011の注目領域1016を参照して、モジュール1012の注目領域の欠陥量を計算することができる。この実施形態では,参照画像群を都度読み出すことなく、外れ値計算が可能になるので、メモリの節約、参照データのロード時間の短縮が可能となる。 In the above-described embodiment, the defect amount and the like are calculated using the vicinity of the target pixel. In addition, in another exemplary embodiment, as illustrated in FIG. 10, when the control unit 501 includes a plurality of the same modules 1011 and 1012 in the inspection image, the user can set the inspection region. With reference to the attention area 1016 of the module 1011, the defect amount of the attention area of the module 1012 can be calculated. In this embodiment, the outlier calculation can be performed without reading the reference image group each time, so that memory saving and reference data loading time can be shortened.
さらに制御部501は、検査画像中に検査したくない領域(製造番号が印字されている、ゴミや汚れが付着していても構わない領域、検査対象部品を把持しているロボットアーム等)が存在する場合には、ユーザにより、該当する領域を除外する、いわゆるマスク処理を使用することができる。さらにユーザにより画像を拡大・縮小する処理を可能とし、前処理で画像を拡大・縮小することで、1画素または1領域が有する情報量を制御しても良い。 Further, the control unit 501 includes an area that is not to be inspected in the inspection image (an area on which a manufacturing number is printed, an area on which dust or dirt may be attached, a robot arm that holds an inspection target part, or the like). If it exists, the user can use a so-called mask process that excludes the corresponding area. Further, it is possible to control the amount of information of one pixel or one area by allowing the user to perform enlargement / reduction processing and enlarging / reducing the image by preprocessing.
この理由は、参照領域を少なくすると計算コストを削減することが可能となる。このため,精度に問題が出ない範囲で低解像度化を行うことができる。この目的のため、1画素または1領域が有する情報量を高めることができ、この結果として計算コストを削減でき、高速な検査が可能となる。 This is because the calculation cost can be reduced by reducing the reference area. For this reason, it is possible to reduce the resolution within a range where there is no problem in accuracy. For this purpose, the amount of information of one pixel or one region can be increased. As a result, the calculation cost can be reduced and high-speed inspection can be performed.
また、小さな特異領域については低解像度すると特異領域も小さくなり判定精度が低下する可能性がある。このため、他の例示的な実施形態では、制御部501は、ユーザ指定により、特定の領域のみ縮小しないことにより、判定の高速化しつつ判定精度を低下させないように制御することが期待できる。電子基板の検査を例にすると、細かな部品が密集している領域のみ低解像度化をせず、その他の領域については低解像度して外れ値計算を行うことで、検査に精度が要求される場合でも計算コストを削減することが可能となる。 In addition, if the resolution is small for a small specific area, the specific area also becomes small and the determination accuracy may decrease. For this reason, in another exemplary embodiment, the control unit 501 can be expected to perform control so as not to reduce the determination accuracy while speeding up the determination by not reducing only a specific area by user designation. Taking electronic board inspection as an example, the resolution is not reduced only in areas where fine parts are densely packed, and the accuracy is required for inspection by performing outlier calculation with lower resolution in other areas. Even in this case, the calculation cost can be reduced.
さらに他の例示的な実施形態では、制御部501は、ユーザが参照画像を追加または交換することで更新ができるようにされていても良い。この理由は、例えば、参照画像に製造ロットの影響や、照明の経年劣化によるデータ変化、製品の型修正による正常・異常の定義の変化などがあることが想定される。この場合、その時点でのパラメータでは充分な精度での検査が期待できない場合もある。このような場合、参照画像を追加または変更することでパラメータの更新を行ない、更新後のパラメータを使用してユーザの意図する判定が可能となる。 In yet another exemplary embodiment, the control unit 501 may be updated by a user adding or exchanging reference images. For this reason, for example, it is assumed that the reference image includes the influence of the production lot, the data change due to the aging deterioration of the illumination, the change in the definition of normality / abnormality due to the product type correction. In this case, there is a case where it is not possible to expect an inspection with sufficient accuracy with the parameters at that time. In such a case, the parameter is updated by adding or changing the reference image, and the determination intended by the user can be performed using the updated parameter.
図11は、外れ値に設定するべき閾値に対して、判定精能(AUC:Area Under Curve)をプロットしたグラフである。なお、AUCは、誤判断がない場合に1を与える、検査精度の尺度を与える指標値である。閾値を0σから増加させてゆくにつれて、5σ付近までは、概ね線型的にAUCが改善されるのが示されている。一方、閾値が6〜7σに達すると、AUCの改善効果は飽和する。これは、閾値以下の外れ値を0σにすることで正常な画素が持つ小さな外れ値を無視して欠陥量を計算するため、よほど大きな欠陥量がない限り、AUCに影響を与えないためである。 FIG. 11 is a graph in which determination accuracy (AUC: Area Under Curve) is plotted against a threshold value to be set as an outlier. Note that AUC is an index value that gives a scale of inspection accuracy that gives 1 when there is no misjudgment. It is shown that as the threshold value is increased from 0σ, the AUC is improved substantially linearly up to around 5σ. On the other hand, when the threshold value reaches 6 to 7σ, the improvement effect of AUC is saturated. This is because the defect amount is calculated by ignoring the small outlier value of a normal pixel by setting the outlier below the threshold to 0σ, so that the AUC is not affected unless there is a very large defect amount. .
図12は、実際の検査対象に対して画像評価を行った場合の欠陥量と、検査対象の良品、不良品を対応付けた実験例を示す。図12(a)が外れ値に対する閾値=0σ、図12(b)が閾値=6σ、図12(c)が閾値=9σの場合の欠陥量を、約70の検査画像について評価した結果である。図12に示すように、外れ値に適用する閾値を0σとした場合、ノイズの蓄積により、良品サンプルと不良品サンプルの欠陥量の違いは顕著とは言えない。 FIG. 12 shows an experimental example in which a defect amount when an image evaluation is performed on an actual inspection target is associated with a non-defective product and a defective product to be inspected. FIG. 12A shows the result of evaluating the defect amount for about 70 inspection images when the threshold for outliers = 0σ, FIG. 12B is the threshold = 6σ, and FIG. 12C is the threshold = 9σ. . As shown in FIG. 12, when the threshold applied to the outlier is set to 0σ, the difference in the defect amount between the non-defective sample and the defective sample cannot be said to be remarkable due to the accumulation of noise.
しなしながら、閾値=6σとした実験例では、良品サンプルの欠陥量が、ノイズの蓄積の影響から解放され、顕著に減少していることが認定される。さらに閾値=9σの場合では、ほとんどの良品サンプルの欠陥量が数値=0となり、不良品との差がより明確なものとして認識されることが理解できる。 However, in the experimental example in which the threshold value = 6σ, it is recognized that the defect amount of the non-defective sample is released from the influence of noise accumulation and is significantly reduced. Further, in the case of threshold = 9σ, it can be understood that the defect amount of most good samples is numerical value = 0, and the difference from the defective product is recognized as clearer.
図13は、閾値=22σとした場合の、図12に示したと同一の実験例に対する欠陥量を示す。図13では、良品サンプルについての欠陥量は数=0まで改善されていることは図12と同様である。しかしながら、不良品サンプルについても、欠陥量が数値=0となっているものが存在する。これは閾値を高くした結果、特異性の比較的低い不良品サンプルについての欠陥量も低下したためと考えられる。 FIG. 13 shows defect amounts for the same experimental example as shown in FIG. 12 when threshold = 22σ. In FIG. 13, it is the same as FIG. 12 that the defect amount for the non-defective sample is improved to number = 0. However, some defective samples have a defect amount of 0. This is considered to be because the defect amount of a defective sample having a relatively low specificity is also reduced as a result of increasing the threshold value.
本実施形態の検査システムにおいては、良品/不良品の選別を制御部501の判断により行うことを前提とするため、不良品を良品として誤認識する可能性を排除することが好ましい。この観点から、図11の結果に基づき、外れ値に適用する閾値は、5σ〜20σの間とすることが好ましい。 In the inspection system of the present embodiment, it is premised that the selection of the non-defective product / defective product is performed based on the determination of the control unit 501, and therefore it is preferable to eliminate the possibility of erroneously recognizing the defective product as a non-defective product. From this point of view, it is preferable that the threshold value applied to the outlier is between 5σ and 20σ based on the result of FIG.
図14は、参照する周辺領域の大きさ(近傍数)に対する認識性能(AUC)の変化を示す。図14について示す結果は、注目領域を画素単位とした場合の結果を、異なる5サンプル1401、1402、1403、1404、1005について折れ線グラフとして示し、それらの平均値を棒グラフ1410として示したものである。 FIG. 14 shows a change in recognition performance (AUC) with respect to the size (number of neighbors) of the surrounding area to be referred to. The results shown in FIG. 14 show the results when the region of interest is in units of pixels as a line graph for five different samples 1401, 1402, 1403, 1404, and 1005, and the average value thereof as a bar graph 1410. .
近傍数=0とは、周辺領域を参照しないことを示す。近傍数=1の場合は、図1に示す注目画素の最近傍周辺画素を参照していることを示す。最近周辺画素を参照する近傍数=1の場合、周辺領域を参照しない場合に比較し、認識性能を示すAUCの平均値(青の棒グラフ)が高まってことが示される。また近傍数=2の場合も、参照しない場合に比較して高まっていることが示される。 The number of neighbors = 0 indicates that the surrounding area is not referred to. When the number of neighbors = 1, it indicates that the nearest neighboring pixels of the target pixel shown in FIG. When the number of neighbors referring to the neighboring pixels = 1 recently, it is shown that the average value (blue bar graph) of AUC indicating the recognition performance is higher than when the neighboring region is not referenced. It is also shown that the number of neighbors = 2 is increased compared to the case where no reference is made.
なお、近傍数=3の場合は,近傍数=2の場合に比べAUCが低下していることが確認された。この理由として、参照する領域が増えると、不良と近い値を持っている場所が統計的に含まれる確率が上がるので不良に対する感度が下がることも原因の一つとして考えられる。近傍数=4の時では、さらにAUCの低下が確認された。 It was confirmed that the AUC was lower when the number of neighbors = 3 than when the number of neighbors = 2. One reason for this is considered to be that the sensitivity to defects decreases because the probability of statistically including locations having values close to defects is increased as the number of areas to be referenced increases. When the number of neighbors = 4, a further decrease in AUC was confirmed.
個別のサンプルでみれば、サンプル1401、サンプル1403で近傍数=0でAUC=1となっている(最高性能)ものもある。これらのサンプルでも、近傍数=1、近傍数=2でもAUCは、低下せず、高い値を維持している傾向にある。このため、本実施形態において参照する近傍数は、1〜2とすることが好ましい。 In terms of individual samples, there are samples 1401 and 1403 in which the number of neighbors = 0 and AUC = 1 (maximum performance). Even in these samples, even when the number of neighbors = 1 and the number of neighbors = 2, the AUC does not decrease and tends to maintain a high value. For this reason, it is preferable that the number of neighbors referred in this embodiment be 1-2.
以上の通り、本実施形態においては、検査対象の位置決め、形状、および異常の分布に関わらず、効率的に画像中の特異性を検出することを可能とする、情報処理装置、情報処理方法、プログラムおよび検査システムを提供することが可能となる。 As described above, in the present embodiment, an information processing apparatus, an information processing method, and an information processing apparatus that can efficiently detect specificity in an image regardless of the positioning, shape, and abnormality distribution of an inspection target. A program and an inspection system can be provided.
これまで本発明を、実施形態をもって説明してきたが、本発明は、実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 The present invention has been described with the embodiment. However, the present invention is not limited to the embodiment, and other embodiments, additions, modifications, deletions, and the like can be conceived by those skilled in the art. Any of the embodiments is included in the scope of the present invention as long as the operations and effects of the present invention are exhibited.
110 :検査領域
111 :検査対象
113 :注目部分
113a :注目領域
113b :周辺領域
113c :周辺領域
301 :制御部
308 :撮像装置
500 :検査システム
501 :制御部
502 :操作部
503 :出力I/O
504 :収容部
505 :搬送アーム
506 :検査対象
507 :搬送部
508 :撮像装置
600 :ブロック
601 :CPU
602 :RAM
602 :画像RAM
603 :ROM
604 :表示装置
605 :通信装置
606 :システムバス
607 :I/Oバス
608 :撮像装置
609 :記憶装置
610 :外付ドライブ
700 :ブロック
701 :入力I/O
702 :前処理部
703 :演算部
704 :判定部
705 :出力部
706 :記憶部
707 :第2記憶部
110: inspection area 111: inspection object 113: attention area 113a: attention area 113b: peripheral area 113c: peripheral area 301: control section 308: imaging device 500: inspection system 501: control section 502: operation section 503: output I / O
504: storage unit 505: transfer arm 506: inspection object 507: transfer unit 508: imaging device 600: block 601: CPU
602: RAM
602: Image RAM
603: ROM
604: Display device 605: Communication device 606: System bus 607: I / O bus 608: Imaging device 609: Storage device 610: External drive 700: Block 701: Input I / O
702: Pre-processing unit 703: Calculation unit 704: Determination unit 705: Output unit 706: Storage unit 707: Second storage unit
Claims (14)
前記対象画像を参照画像と対比するための前処理を行う手段と、
前記対象画像に注目領域および前記注目領域に隣接する周辺領域を規定し、前記注目領域の特徴量を計算する手段と、
複数の前記参照画像中の前記注目領域および前記周辺領域に対応する画像の特徴量の比較から前記注目領域における画像の特異性を数値的に示す外れ値を計算する手段と、
前記外れ値に基づき検査に使用する指標を与える手段と
を含む情報処理装置。 An information processing apparatus for inspecting a target image including an image to be inspected,
Means for performing preprocessing for comparing the target image with a reference image;
Defining a region of interest in the target image and a peripheral region adjacent to the region of interest, and calculating a feature amount of the region of interest;
Means for calculating an outlier that numerically indicates the specificity of the image in the region of interest from a comparison of the feature quantities of the image corresponding to the region of interest and the peripheral region in the plurality of reference images;
Means for providing an index to be used for inspection based on the outlier.
前記対象画像を参照画像と対比するための前処理を行うこと、
前記対象画像に注目領域および前記注目領域に隣接する周辺領域を規定し、前記注目領域の特徴量を計算すること、
複数の前記参照画像中の前記注目領域および前記周辺領域に対応する画像の特徴量の比較から前記注目領域における画像の特異性を数値的に示す外れ値を計算すること、
前記外れ値に基づき検査に使用する指標を与えること
を実行する、方法。 An apparatus-executable method for digitizing a target image including an image to be inspected, wherein the information processing apparatus
Performing pre-processing for comparing the target image with a reference image;
Defining a region of interest and a peripheral region adjacent to the region of interest in the target image, and calculating a feature amount of the region of interest;
Calculating an outlier that numerically indicates the specificity of the image in the region of interest from a comparison of feature values of the image corresponding to the region of interest and the peripheral region in the plurality of reference images;
Providing an index to be used for inspection based on the outlier.
前記ノイズ成分をカットした後の外れ値を使用して前記指標を生成することを含む、請求項9に記載の方法。 The method according to claim 9, further comprising reducing a noise component included in the outlier when obtaining the outlier, and generating the indicator using an outlier after the noise component is cut. Method.
前記検査対象の画像を含む対象画像を取得する撮像手段と、
前記対象画像を参照画像と対比するための前処理を行う手段と、
前記対象画像に注目領域および前記注目領域に隣接する周辺領域を規定し、前記注目領域の特徴量を計算する手段と、
複数の前記参照画像中の前記注目領域および前記周辺領域に対応する画像の特徴量の比較から前記注目領域における画像の特異性を数値的に示す外れ値を計算する手段と、
前記外れ値に基づき検査に使用する指標を与える手段と、
前記外れ値を得る場合に前記外れ値が含むノイズ成分を減少させる手段と、
前記ノイズ成分をカットした後の前記外れ値を使用して前記指標を与える手段と
前記指標を使用して前記対象画像から前記検査対象の欠陥を判定する手段と
を含む検査システム。
An inspection system for inspecting an inspection object,
Imaging means for acquiring a target image including the image to be inspected;
Means for performing preprocessing for comparing the target image with a reference image;
Defining a region of interest in the target image and a peripheral region adjacent to the region of interest, and calculating a feature amount of the region of interest;
Means for calculating an outlier that numerically indicates the specificity of the image in the region of interest from a comparison of the feature quantities of the image corresponding to the region of interest and the peripheral region in the plurality of reference images;
Means for providing an index to be used for inspection based on the outlier;
Means for reducing a noise component included in the outlier when obtaining the outlier;
An inspection system comprising: means for providing the index using the outlier after cutting the noise component; and means for determining a defect of the inspection object from the target image using the index.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16201016.9A EP3176751B1 (en) | 2015-12-01 | 2016-11-29 | Information processing device, information processing method, computer-readable recording medium, and inspection system |
CN201611088679.XA CN106934794A (en) | 2015-12-01 | 2016-11-30 | Information processor, information processing method and inspection system |
US15/365,244 US10043090B2 (en) | 2015-12-01 | 2016-11-30 | Information processing device, information processing method, computer-readable recording medium, and inspection system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015234843 | 2015-12-01 | ||
JP2015234843 | 2015-12-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017107541A true JP2017107541A (en) | 2017-06-15 |
JP6794737B2 JP6794737B2 (en) | 2020-12-02 |
Family
ID=59059720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016185440A Expired - Fee Related JP6794737B2 (en) | 2015-12-01 | 2016-09-23 | Information processing equipment, information processing methods, programs and inspection systems |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6794737B2 (en) |
CN (1) | CN106934794A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10115189B2 (en) | 2016-03-14 | 2018-10-30 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and recording medium |
JP2019101047A (en) * | 2019-02-25 | 2019-06-24 | 株式会社アセット・ウィッツ | Automatic part appearance inspection device |
JP2019153279A (en) * | 2017-12-25 | 2019-09-12 | ダッソー システムズDassault Systemes | Prediction of event affecting physical system |
WO2019194044A1 (en) | 2018-04-04 | 2019-10-10 | パナソニックIpマネジメント株式会社 | Image processing device and image processing method |
JP2019184597A (en) * | 2018-04-07 | 2019-10-24 | 東洋製罐グループホールディングス株式会社 | Color inspection equipment and color inspection program |
JP2020533657A (en) * | 2018-08-10 | 2020-11-19 | 北京百度网▲訊▼科技有限公司Beijing Baidu Netcom Science And Technology Co.,Ltd. | Methods and devices for detecting burr on electrode sheets |
JP2020187661A (en) * | 2019-05-16 | 2020-11-19 | 株式会社キーエンス | Image inspection device |
WO2022255566A1 (en) * | 2021-06-03 | 2022-12-08 | 동의대학교 산학협력단 | Deep-learning-based method for managing quality of target, and system using same |
KR20220163696A (en) * | 2021-06-03 | 2022-12-12 | 동의대학교 산학협력단 | Machine vision-based quality management system and method for electric parts using deep learning |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102650554B1 (en) * | 2018-10-30 | 2024-03-22 | 삼성디스플레이 주식회사 | Device for inspecting display device and inspectnig method thereof |
IL263097B2 (en) * | 2018-11-18 | 2024-01-01 | Inspekto A M V Ltd | Optimization of the preparation phase in the automatic visual inspection process |
CN110996099B (en) * | 2019-11-15 | 2021-05-25 | 网宿科技股份有限公司 | A video coding method, system and device |
CN110933446B (en) * | 2019-11-15 | 2021-05-25 | 网宿科技股份有限公司 | A method, system and device for identifying a region of interest |
IT202000002674A1 (en) * | 2020-02-11 | 2021-08-11 | Soffieria Bertolini S P A | METHOD FOR CHECKING THE CORRECT APPLICATION OF AN IMAGE ON A CYLINDRICAL CONTAINER AND RELATIVE CONTROL APPARATUS |
CN114252448A (en) * | 2020-09-21 | 2022-03-29 | 科德机械科技有限公司 | Method for performing glove examination |
US20230018554A1 (en) * | 2021-07-13 | 2023-01-19 | General Electric Company | Method for inspecting an object |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002022421A (en) * | 2000-07-06 | 2002-01-23 | Dainippon Screen Mfg Co Ltd | Pattern inspection system |
JP2004012422A (en) * | 2002-06-11 | 2004-01-15 | Dainippon Screen Mfg Co Ltd | Pattern inspection device, pattern inspection method, and program |
JP2004101214A (en) * | 2002-09-05 | 2004-04-02 | Dainippon Screen Mfg Co Ltd | Pattern inspection apparatus, yield management system, pattern inspection method, substrate manufacturing method, and program |
JP2014106109A (en) * | 2012-11-27 | 2014-06-09 | Sharp Corp | Inspection device, inspection method, inspection program and recording medium |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4603512B2 (en) * | 2006-06-16 | 2010-12-22 | 独立行政法人産業技術総合研究所 | Abnormal region detection apparatus and abnormal region detection method |
JP2013160629A (en) * | 2012-02-06 | 2013-08-19 | Hitachi High-Technologies Corp | Defect inspection method, defect inspection apparatus, program, and output unit |
-
2016
- 2016-09-23 JP JP2016185440A patent/JP6794737B2/en not_active Expired - Fee Related
- 2016-11-30 CN CN201611088679.XA patent/CN106934794A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002022421A (en) * | 2000-07-06 | 2002-01-23 | Dainippon Screen Mfg Co Ltd | Pattern inspection system |
JP2004012422A (en) * | 2002-06-11 | 2004-01-15 | Dainippon Screen Mfg Co Ltd | Pattern inspection device, pattern inspection method, and program |
JP2004101214A (en) * | 2002-09-05 | 2004-04-02 | Dainippon Screen Mfg Co Ltd | Pattern inspection apparatus, yield management system, pattern inspection method, substrate manufacturing method, and program |
JP2014106109A (en) * | 2012-11-27 | 2014-06-09 | Sharp Corp | Inspection device, inspection method, inspection program and recording medium |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10115189B2 (en) | 2016-03-14 | 2018-10-30 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and recording medium |
JP2019153279A (en) * | 2017-12-25 | 2019-09-12 | ダッソー システムズDassault Systemes | Prediction of event affecting physical system |
JP7495777B2 (en) | 2017-12-25 | 2024-06-05 | ダッソー システムズ | Predicting events that affect physical systems |
WO2019194044A1 (en) | 2018-04-04 | 2019-10-10 | パナソニックIpマネジメント株式会社 | Image processing device and image processing method |
US11436717B2 (en) | 2018-04-04 | 2022-09-06 | Panasonic Intellectual Property Management Co., Ltd. | Image processing device and image processing method |
JP7243376B2 (en) | 2018-04-07 | 2023-03-22 | 東洋製罐グループホールディングス株式会社 | Color inspection device and color inspection program |
JP2019184597A (en) * | 2018-04-07 | 2019-10-24 | 東洋製罐グループホールディングス株式会社 | Color inspection equipment and color inspection program |
JP2020533657A (en) * | 2018-08-10 | 2020-11-19 | 北京百度网▲訊▼科技有限公司Beijing Baidu Netcom Science And Technology Co.,Ltd. | Methods and devices for detecting burr on electrode sheets |
JP2019101047A (en) * | 2019-02-25 | 2019-06-24 | 株式会社アセット・ウィッツ | Automatic part appearance inspection device |
JP2020187661A (en) * | 2019-05-16 | 2020-11-19 | 株式会社キーエンス | Image inspection device |
JP7308656B2 (en) | 2019-05-16 | 2023-07-14 | 株式会社キーエンス | Image inspection device |
KR20220163696A (en) * | 2021-06-03 | 2022-12-12 | 동의대학교 산학협력단 | Machine vision-based quality management system and method for electric parts using deep learning |
KR102523770B1 (en) * | 2021-06-03 | 2023-04-19 | 동의대학교 산학협력단 | Machine vision-based quality management system and method for electric parts using deep learning |
WO2022255566A1 (en) * | 2021-06-03 | 2022-12-08 | 동의대학교 산학협력단 | Deep-learning-based method for managing quality of target, and system using same |
Also Published As
Publication number | Publication date |
---|---|
CN106934794A (en) | 2017-07-07 |
JP6794737B2 (en) | 2020-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6794737B2 (en) | Information processing equipment, information processing methods, programs and inspection systems | |
US10043090B2 (en) | Information processing device, information processing method, computer-readable recording medium, and inspection system | |
EP3501829B1 (en) | Printed circuit board inspecting apparatus, method for determining fault type of screen printer and computer readable recording medium | |
Pagani et al. | Automated layerwise detection of geometrical distortions in laser powder bed fusion | |
US12340505B2 (en) | Microscopy system and method for checking input data | |
JP5852919B2 (en) | Crack detection method | |
JP6860079B2 (en) | Anomaly detection device, anomaly detection method, and program | |
CN112308854B (en) | Automatic detection method and system for chip surface flaws and electronic equipment | |
KR20120014886A (en) | Create recipes and inspect them based on recipes | |
JP2013224833A (en) | Visual inspection device, visual inspection method and computer program | |
CN117372433B (en) | Thickness parameter control method, device, equipment and storage medium | |
KR20220100673A (en) | Semiconductor defect discovery using convolutional context properties | |
CN113469944A (en) | Product quality inspection method and device and electronic equipment | |
KR20220114716A (en) | Method and apparatus for clustering images | |
CN115937059A (en) | Part inspection system with generatively trained models | |
JP2015197396A (en) | Image inspection method and image inspection device | |
CN118967690A (en) | A defect detection method based on deep contrastive learning | |
JP6643856B2 (en) | Classification method, inspection method, inspection device, and program | |
US11120541B2 (en) | Determination device and determining method thereof | |
CN110553581B (en) | Critical dimension measuring method and image processing device for measuring critical dimension | |
JP7636278B2 (en) | Inspection and Measuring Equipment | |
JP4801697B2 (en) | Image forming method, image forming apparatus, and computer program | |
CN111583225A (en) | Defect detection method, device and storage medium | |
CN112734689A (en) | Gasket quality detection method, system, device and storage medium | |
CN115471494B (en) | Mandarin orange quality inspection method, device, equipment and storage medium based on image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201026 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6794737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |