KR20240093896A - Inspection method and information processing device for display device - Google Patents
Inspection method and information processing device for display device Download PDFInfo
- Publication number
- KR20240093896A KR20240093896A KR1020247017192A KR20247017192A KR20240093896A KR 20240093896 A KR20240093896 A KR 20240093896A KR 1020247017192 A KR1020247017192 A KR 1020247017192A KR 20247017192 A KR20247017192 A KR 20247017192A KR 20240093896 A KR20240093896 A KR 20240093896A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- data
- machine learning
- classification
- types
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 112
- 230000010365 information processing Effects 0.000 title claims abstract description 57
- 238000007689 inspection Methods 0.000 title claims abstract description 27
- 238000010801 machine learning Methods 0.000 claims abstract description 150
- 230000007547 defect Effects 0.000 claims description 45
- 238000004364 calculation method Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 216
- 238000012795 verification Methods 0.000 description 94
- 230000008569 process Effects 0.000 description 83
- 238000010586 diagram Methods 0.000 description 36
- 239000011159 matrix material Substances 0.000 description 35
- 239000008186 active pharmaceutical agent Substances 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 19
- 238000011176 pooling Methods 0.000 description 19
- 238000003384 imaging method Methods 0.000 description 14
- 230000002950 deficient Effects 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 8
- 239000007787 solid Substances 0.000 description 8
- 238000002790 cross-validation Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 102100023817 26S proteasome complex subunit SEM1 Human genes 0.000 description 3
- 101000684297 Homo sapiens 26S proteasome complex subunit SEM1 Proteins 0.000 description 3
- 101000873438 Homo sapiens Putative protein SEM1, isoform 2 Proteins 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 239000002253 acid Substances 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8854—Grading and classifying of flaws
- G01N2021/8858—Flaw counting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Analytical Chemistry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Pathology (AREA)
- Evolutionary Computation (AREA)
- Immunology (AREA)
- Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Medical Informatics (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
표시 장치의 검사 방법은, 기계 학습을 이용하여, 표시 장치의 화상 표시면을 촬상한 화상이 j종류의 분류 중 어느 것에 해당하는지 판정하는 표시 장치의 검사 방법이며, 정보 처리 장치가, 미리 준비된 j종류의 분류에 대응한 화상의 데이터를 포함하는 교사 데이터에 기초하여, 화상이 j종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제1 기계 학습 스텝과, 정보 처리 장치가, j종류 중 k종류의 분류에 대응한 화상의 데이터를 포함하는 교사 데이터에 기초하여, 화상이 k종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제2 기계 학습 스텝을 포함하고, j 및 k는 2 이상의 자연수이며, k는 j보다도 작다.The display device inspection method is a display device inspection method that uses machine learning to determine which of j types of classification an image captured on the image display surface of the display device corresponds to, where the information processing device is A first machine learning step that performs machine learning to determine which of the j types of classification the image corresponds to, based on teacher data including image data corresponding to the type of classification, and an information processing device, and a second machine learning step that performs machine learning to determine which of the k types of classifications the image corresponds to, based on teacher data including data of images corresponding to k types of classifications, j and k. is a natural number greater than or equal to 2, and k is smaller than j.
Description
본 개시는, 표시 장치의 검사 방법 및 정보 처리 장치에 관한 것이다.This disclosure relates to an inspection method and information processing device for a display device.
화상을 표시하는 표시 장치의 휘도 불균일을 평가하는 방법이 알려져 있다(예를 들어 특허문헌 1).A method for evaluating luminance unevenness of a display device that displays an image is known (for example, patent document 1).
휘도 불균일에 한하지 않고, 표시 장치의 표시 불량을 표시 장치의 출하 전에 발견하기 위한 확인 작업이, 표시 장치의 검품 작업으로서 행해지고 있다. 또한, 당해 검품 작업과 같은, 표시 장치의 표시 불량을 자동화하고자 한다고 하는 수요가 있다. 이 경우, 표시 장치의 화상 표시면을 촬상한 화상을 분류하는 작업의 자동화가 상정된다. 그러나, 표시 불량이 없다고 생각되는 양품의 화상과, 어떠한 표시 불량이 있다고 생각되는 양품 이외의 화상의 분류를 자동적으로 행하는 것은, 특히 분류 정밀도의 확보의 관점에서 곤란하였다.Confirmation work to detect not only luminance unevenness but also display defects in the display device before shipment of the display device is performed as an inspection work of the display device. Additionally, there is a demand for automating display defects in display devices, such as the inspection work. In this case, automation of the task of classifying images captured on the image display surface of the display device is assumed. However, it is difficult to automatically classify images of non-defective products that are considered to have no display defects and images of non-defective products that are considered to have some display defects, especially from the viewpoint of ensuring classification accuracy.
본 개시는, 상기 과제를 감안하여 이루어진 것이며, 보다 고정밀도로 표시 장치의 화상을 분류 가능한 표시 장치의 검사 방법 및 정보 처리 장치를 제공하는 것을 목적으로 한다.The present disclosure has been made in view of the above problems, and aims to provide a display device inspection method and an information processing device capable of classifying images of the display device with higher precision.
본 개시의 일 양태에 의한 표시 장치의 검사 방법은, 기계 학습을 이용하여, 표시 장치의 화상 표시면을 촬상한 화상이 j종류의 분류 중 어느 것에 해당하는지 판정하는 표시 장치의 검사 방법이며, 정보 처리 장치가, 미리 준비된 상기 j종류의 분류에 대응한 상기 화상의 데이터를 포함하는 교사 데이터에 기초하여, 화상이 상기 j종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제1 기계 학습 스텝과, 상기 정보 처리 장치가, 상기 j종류 중 k종류의 분류에 대응한 상기 화상의 데이터를 포함하는 교사 데이터에 기초하여, 화상이 상기 k종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제2 기계 학습 스텝을 포함하고, j 및 k는 2 이상의 자연수이며, k는 j보다도 작다.A display device inspection method according to an aspect of the present disclosure is a display device inspection method that uses machine learning to determine which of j types of classification an image captured on the image display surface of the display device corresponds to, and includes information First machine learning in which a processing device performs machine learning to determine which of the j types of classifications an image corresponds to, based on teacher data including data of the images corresponding to the j types of classifications prepared in advance. A machine learning step, wherein the information processing device determines which of the k types of classification an image corresponds to, based on teacher data including data of the image corresponding to the k type of classification among the j types. It includes a second machine learning step that performs, where j and k are natural numbers of 2 or more, and k is smaller than j.
도 1은 정보 처리 장치의 주요 구성을 도시하는 블록도이다.
도 2는 정보 처리 장치의 주요 기능 구성을 도시하는 블록도이다.
도 3은 판정부에 의한 판정 처리에 있어서의 화상의 분류와, 각 분류의 화상의 모식예를 도시하는 도면이다.
도 4는 콘트라스트 강조 전의 화소의 계조값과, 콘트라스트 강조 후의 화소의 계조값의 관계를 나타내는 그래프이다.
도 5는 판정부의 보다 구체적인 기능 구성예의 일례를 도시하는 블록도이다.
도 6은 홀드 아웃 검증의 사고 방식을 도시하는 모식도이다.
도 7은 교차 검증의 사고 방식을 도시하는 모식도이다.
도 8은 기계 학습을 이용한 판정의 정밀도에 관한 사고 방식을 표로 나타낸 도면이다.
도 9는 복수 단계 처리가 적용된 기계 학습의 흐름을 나타내는 흐름도이다.
도 10은 복수 단계 처리가 적용된 기계 학습의 흐름을 도시하는 도면이다.
도 11은 참조 데이터에 포함되는 검증 데이터의 실제의 클래스와, 도 9를 참조하여 설명한 스텝 S3의 처리에 의한 1회째의 검증 처리의 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다.
도 12는 도 9를 참조하여 설명한 스텝 S6의 처리에서 기계 학습부에 입력된 「특정의 출력에 대응하는 참조 데이터」에 포함되는 검증 데이터의 실제의 클래스와, 당해 스텝 S6의 처리에 의한 2회째의 검증 처리(1회째)의 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다.
도 13은 도 9를 참조하여 설명한 스텝 S4의 처리에서 추출되어 스텝 S7의 처리에서 기계 학습부에 입력된 검증 데이터의 실제의 클래스와, 당해 스텝 S7의 처리에 의한 2회째의 검증 처리(2회째)의 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다.
도 14는 참조 데이터에 포함되는 검증 데이터의 실제의 클래스와, 도 9를 참조하여 설명한 스텝 S8의 처리에 의해 얻어진 최종적인 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다.
도 15는 기계 학습을 이용한 화상 데이터의 분류 판정에 복수 단계 처리가 적용된 기계 학습부에 의한 판정 처리의 흐름을 나타내는 흐름도이다.
도 16은 콘트라스트 강조 전의 화소의 계조값과, 콘트라스트 강조 후의 화소의 계조값의 관계를 나타내는 그래프이다.
도 17은 「경사 불균일」의 표시 패널을 촬상한 화상의 계조값의 분포와, 「양품」의 표시 패널을 촬상한 화상의 계조값의 분포의 관계를 도시하는 도면이다.
도 18은 식 (1)과 식 (2)의 차이 및 식 (2)에 대응한 그래프와 gain_1, gain_2, Inflection_1, Inflection_2, height_1, height_2의 관계를 도시하는 도면이다.
도 19는 「양품」으로 분류되는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다.
도 20은 「주사선 불량」 및 「신호선 불량」의 양쪽에 해당하는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다.
도 21은 「경사 불균일」로 분류되는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다.
도 22는 「백색 불균일」로 분류되는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다.
도 23은 표시 패널을 촬상한 화상에 포함되는 화소의 계조값의 분포를 나타내는 히스토그램과, 변곡점의 위치(b)의 관계를 도시하는 도면이다.1 is a block diagram showing the main configuration of an information processing device.
Figure 2 is a block diagram showing the main functional configuration of the information processing device.
Fig. 3 is a diagram showing the classification of images in the decision processing by the determination unit and a schematic example of images of each classification.
Figure 4 is a graph showing the relationship between the grayscale value of the pixel before contrast enhancement and the grayscale value of the pixel after contrast enhancement.
Figure 5 is a block diagram showing an example of a more specific functional configuration of the determination unit.
Figure 6 is a schematic diagram showing the concept of hold-out verification.
Figure 7 is a schematic diagram showing the way of thinking of cross-validation.
Figure 8 is a table showing a way of thinking about the precision of judgment using machine learning.
Figure 9 is a flow chart showing the flow of machine learning to which multi-step processing is applied.
Figure 10 is a diagram showing the flow of machine learning to which multi-step processing is applied.
FIG. 11 is a diagram showing the correspondence between the actual class of verification data included in the reference data and the output (predicted class) of the first verification process by the process of step S3 explained with reference to FIG. 9.
FIG. 12 shows the actual class of verification data included in the “reference data corresponding to a specific output” input to the machine learning unit in the processing of step S6 explained with reference to FIG. 9, and the second processing by the processing of step S6. This is a diagram showing the correspondence between the output (predicted class) of the verification process (first time).
FIG. 13 shows the actual class of the verification data extracted from the process of step S4 explained with reference to FIG. 9 and input to the machine learning unit in the process of step S7, and the second verification process (second time) by the process of step S7. ) This is a diagram showing the correspondence between the output (predicted class).
FIG. 14 is a diagram showing the correspondence between the actual class of verification data included in the reference data and the final output (predicted class) obtained by the process of step S8 explained with reference to FIG. 9.
Fig. 15 is a flowchart showing the flow of decision processing by a machine learning unit in which multi-step processing is applied to classification judgment of image data using machine learning.
Figure 16 is a graph showing the relationship between the grayscale value of the pixel before contrast enhancement and the grayscale value of the pixel after contrast enhancement.
FIG. 17 is a diagram showing the relationship between the distribution of grayscale values in an image captured of a display panel with “uneven tilt” and the distribution of grayscale values in an image captured with a display panel of “defective product.”
Figure 18 is a diagram showing the difference between equation (1) and equation (2) and the relationship between the graph corresponding to equation (2) and gain_1, gain_2, Inflection_1, Inflection_2, height_1, and height_2.
FIG. 19 is a diagram showing an image captured of a display panel classified as a “defective product” and an example of application of image processing to the image.
FIG. 20 is a diagram showing an image captured of a display panel corresponding to both “scanning line defects” and “signal line defects” and an example of application of image processing to the image.
FIG. 21 is a diagram showing an image captured of a display panel classified as “inclined tilt,” and an example of application of image processing to the image.
FIG. 22 is a diagram showing an image captured of a display panel classified as “white unevenness” and an example of application of image processing to the image.
FIG. 23 is a diagram showing the relationship between a histogram showing the distribution of grayscale values of pixels included in an image captured from a display panel and the position (b) of an inflection point.
이하에, 본 개시의 각 실시 형태에 대하여, 도면을 참조하면서 설명한다. 또한, 개시는 어디까지나 일례에 지나지 않고, 당업자에게 있어서, 발명의 주지를 유지한 적절한 변경에 대하여 용이하게 상도할 수 있는 것에 대해서는, 당연히 본 개시의 범위에 함유되는 것이다. 또한, 도면은 설명을 보다 명확하게 하기 위해, 실제의 양태에 비해, 각 부의 폭, 두께, 형상 등에 대하여 모식적으로 표시되는 경우가 있지만, 어디까지나 일례이며, 본 개시의 해석을 한정하는 것은 아니다. 또한, 본 명세서와 각 도면에 있어서, 기출의 도면에 관하여 전술한 것과 마찬가지의 요소에는, 동일한 부호를 붙이고, 상세한 설명을 적절히 생략하는 경우가 있다.Below, each embodiment of the present disclosure will be described with reference to the drawings. In addition, the disclosure is only an example, and those skilled in the art that can easily imagine appropriate changes that maintain the main idea of the invention are naturally included in the scope of the present disclosure. In addition, in order to make the explanation clearer, the drawings may schematically display the width, thickness, shape, etc. of each part compared to the actual mode, but are only examples and do not limit the interpretation of the present disclosure. . In addition, in this specification and each drawing, elements similar to those described above with respect to previous drawings are given the same reference numerals, and detailed descriptions may be omitted as appropriate.
도 1은 정보 처리 장치(1)의 주요 구성을 도시하는 블록도이다. 정보 처리 장치(1)는, 통신부(11), 입력부(12), 연산부(21), 기억부(22) 및 출력부(30)를 구비한다. 정보 처리 장치(1)는, 기계 학습을 이용하여, 표시 장치의 화상 표시면을 촬상한 화상(예를 들어, 후술하는 판정 대상 화상 데이터(100) 또는 참조 데이터(223)에 포함되는 화상 데이터의 화상)이 j종류(예를 들어, j=8)의 분류 중 어느 것에 해당하는지 판정할 수 있는 정보 처리 장치이다. 또한, 정보 처리 장치(1)는, 당해 화상의 콘트라스트 강조를 행할 수 있는 정보 처리 장치이다.1 is a block diagram showing the main configuration of the
통신부(11)는, 외부의 기기와의 사이에서 통신을 행한다. 구체적으로는, 통신부(11)는, 예를 들어 NIC(Network interface controller)로서 기능하는 회로를 갖는다. 통신부(11)는, 외부의 기기로부터 수신한 데이터를 연산부(21)로 출력한다. 또한, 정보 처리 장치(1)가 외부의 기기로 데이터를 송신하는 처리를 행하는 경우, 통신부(11)는, 당해 데이터를 외부의 기기로 송신한다. 또한, 외부의 기기는, 예를 들어 정보 처리 장치(1)와는 다른 서버 또는 PC(Personal Computer)와 같은 거치의 정보 처리 장치여도 되고, 스마트폰과 같은 휴대 단말기여도 되고, 여기에서 예시하고 있지 않은 다른 형태에 의한 정보 처리 장치여도 된다.The
입력부(12)는, 데이터를 입력 가능하게 마련된 인터페이스를 갖는다. 당해 인터페이스는, 예를 들어 USB(Universal Serial Bus) 또는 그 밖의 규격에 대응한 버스 인터페이스이지만, 이들에 한정되는 것은 아니고, 구체적인 규격에 대해서는 적절히 변경 가능하다. 당해 버스 인터페이스에는, 예를 들어 외부의 기기로부터 데이터를 입력하기 위한 케이블을 통해, 외부의 기기가 접속된다. 당해 버스 인터페이스에는, 키보드나 마우스 등, 오퍼레이터가 정보 처리 장치(1)를 조작하기 위한 입력 기기가 더 접속되어도 된다. 통신부(11)와 입력부(12) 중 적어도 한쪽은, 취득부(40)로서 기능한다.The
연산부(21)는, CPU(Central Processing Unit)로서 기능하는 연산 회로를 갖는다. 연산부(21)는, 소프트웨어·프로그램 및 소프트웨어·프로그램의 실행 처리 시에 참조되는 데이터를 기억부(22)로부터 읽어내어 실행 처리함으로써, 정보 처리 장치(1)가 발휘하는 각종 기능에 대응한 연산 처리를 행한다. 이하, 프로그램 등으로 기재한 경우, 연산부(21)가 읽어내어 실행 처리하는 소프트웨어·프로그램 및 소프트웨어·프로그램의 실행 처리 시에 참조되는 데이터를 가리킨다.The
기억부(22)는, 프로그램 등을 기억하는 기억 장치를 갖는다. 당해 기억 장치는, 예를 들어 솔리드 스테이트 드라이브(SSD: Solid State Drive), 하드디스크 드라이브(HDD: Hard Disk Drive), 그 밖의 재기입 가능한 기억 장치 중 어느 1개 이상을 포함하지만, 프로그램 등이 기록된 재기입 불가능한 기억 장치를 포함하고 있어도 된다. 도 1에서는, 기억부(22)가 기억하는 프로그램 등으로서, 기계 학습 프로그램(221), 화상 처리 프로그램(222), 참조 데이터(223) 및 설정 데이터(224)를 나타내고 있다. 연산부(21)와, 연산부(21)에 읽어내어지는 프로그램 등을 기억하는 기억부(22)는, 처리부(50)로서 기능한다. 기계 학습 프로그램(221)은, 기계 학습을 행하기 위한 프로그램 등이다. 화상 처리 프로그램(222)은, 판정 대상 화상 데이터(100)에 화상 처리를 실시하기 위한 프로그램 등이다. 참조 데이터(223)는, 기계 학습의 교사 데이터 및 검증 데이터를 포함한다. 설정 데이터(224)는, 기계 학습 프로그램(221), 화상 처리 프로그램(222)의 실행 처리에 관한 각종 파라미터를 포함한다.The
출력부(30)는, 처리부(50)의 처리 내용에 따른 출력을 행한다. 출력부(30)는, 예를 들어 화상을 표시하는 모니터이지만, 이것에 한정되는 것은 아니다. 출력부(30)는, 음성 출력을 행하는 스피커와 같이 다른 형태에 의한 출력을 행하는 구성을 더 포함하고 있어도 되고, 상술한 통신부(11)가 데이터를 외부의 기기로 송신하는 경우, 통신부(11)는 출력부(30)로서 기능하고 있다고 할 수 있다. 또한, 입력부(12)가 쌍방향의 데이터 전송이 가능한 규격인 경우, 입력부(12)는, 출력부(30)로서도 기능한다.The
도 2는 정보 처리 장치(1)의 주요 기능 구성을 도시하는 블록도이다. 정보 처리 장치(1)는, 취득부(40), 처리부(50), 출력부(30)로서 기능한다. 취득부(40)는, 판정 대상 화상 데이터(100)를 취득한다. 통신부(11)는, 통신에 의해 외부의 기기로부터 판정 대상 화상 데이터(100)를 취득할 수 있다. 입력부(12)는, 외부의 기기로부터 입력되는 판정 대상 화상 데이터(100)를 취득할 수 있다.FIG. 2 is a block diagram showing the main functional configuration of the
처리부(50)는, 화상 처리부(51) 및 판정부(60)로서 기능한다. 화상 처리부(51)는, 판정 대상 화상 데이터(100)에 화상 처리를 실시한다. 연산부(21)가 화상 처리부(51)로서 기능하기 위한 프로그램 등은, 화상 처리 프로그램(222)이다. 판정부(60)는, 뉴럴 네트워크 NN을 이용하여 화상을 분류하는 판정 처리를 행한다. 연산부(21)가 판정부(60)로서 기능하기 위한 프로그램 등은, 기계 학습 프로그램(221)이다. 판정부(60)에 의한 판정의 대상이 되는 화상은, 판정 대상 화상 데이터(100)에 포함되는 화상 데이터의 읽어내기에 의해 얻어지는 화상이다.The
출력부(30)는, 판정부(60)에 의한 판정 처리의 결과에 관한 출력을 행한다. 예를 들어, 출력부(30)는, 판정부(60)에 의한 판정 처리의 결과를 나타내는 표시 출력을 행한다.The
도 3은 판정부(60)에 의한 판정 처리에 있어서의 화상의 분류와, 각 분류의 화상 모식예를 도시하는 도면이다. 도 3에 도시한 바와 같이, 화상은, 예를 들어 양품, 회로 불량, 신호선 불량, 주사선 불량, 경사 불균일, 세로 줄무늬, 클러스터, 백색 불균일 중 어느 것으로, 판정부(60)에 의한 판정 처리로 분류된다.FIG. 3 is a diagram showing the classification of images in the determination process by the
전술한 불량 모드에서, 경사 불균일이란, 주위에 대하여 휘도차가 있는 영역이 장축상으로 연장되어 보이는 불량을 가리킨다. 「경사」로 표기하고 있지만, 화면에 대하여 수평 방향, 수직 방향으로 연장되는 경우도 포함한다. 세로 줄무늬란, 신호선의 분할 블록 등에 대응하여 휘도차가 발생하여 보이는 불량을 가리킨다. 클러스터란, 점 결함이 있는 영역에 집중하여 군재하여 확인되는 불량을 가리킨다. 백색 불균일이란, 면 내 균일한 계조 표시를 행한 경우에, 주위보다도 밝은/어두운 영역이 불규칙하게 발생하여 보이는 불량을 가리킨다. 본 발명에 있어서, 이들 불균일의 종류 그 차제의 검출에 한정되는 것은 아니고, 전술에 포함되지 않는 불량 모드가 더 정의되어 있어도 된다.In the above-mentioned defect mode, tilt unevenness refers to a defect in which an area with a luminance difference with respect to the surroundings appears to extend along the long axis. Although it is written as “slant,” it also includes cases where it extends horizontally or vertically with respect to the screen. Vertical stripes refer to defects that are visible due to a difference in luminance occurring in response to divided blocks of a signal line, etc. A cluster refers to a defect that is identified by concentrating on an area with point defects and clustering them together. White non-uniformity refers to a defect that appears as a result of irregularly occurring areas that are brighter/darker than the surrounding area when uniform gradation display is performed within a plane. In the present invention, the detection of these types of unevenness is not limited, and defect modes not included in the above may be further defined.
판정 대상 화상 데이터(100)는, 복수의 화상 데이터를 포함한다. 당해 화상 데이터는, 백색 또는 중간조의 솔리드 화상을 표시하고 있는 상태의 표시 패널의 화상 표시면을 촬상한 화상 데이터이다. 여기서, 백색의 솔리드 화상을 표시하고 있는 상태란, 전체 화소가 백색의 최고 계조값으로 표시 출력을 행하고 있는 상태를 가리킨다. 중간조의 솔리드 화상을 표시하고 있는 상태란, 전체 화소가 최고 계조값 미만이며 최저 계조값을 초과하는 계조값으로 표시 출력을 행하고 있는 상태를 가리킨다. 당해 표시 패널은, 예를 들어 OLED(Organic Light Emitting Diode) 디스플레이 패널이지만, 이것에 한정되는 것은 아니고, 다른 방식에 의한 표시 패널이어도 된다. 판정 대상 화상 데이터(100)에 포함되는 복수의 화상 데이터의 각각은, 각각 다른 표시 패널의 화상 표시면을 촬상한 것이다. 실시 형태에서 판정부(60)가 행하는 판정 처리는, 판정 대상 화상 데이터(100)의 생성 시에 촬상의 대상으로 된 복수의 표시 패널이, 각각 상정된 품질로 표시 출력을 행할 수 있는지를 확인하기 위한 검품을 자동적으로 행하는 것을 의도한 처리이다. 이하, 단순히 표시 패널로 기재한 경우, 판정 대상 화상 데이터(100)의 생성 시에 촬상의 대상으로 된 복수의 표시 패널 중 1개를 가리킨다. 또한, 단순히 화상으로 기재 한 경우, 특필하지 않는 한, 화상 데이터의 읽어내기에 의해 얻어지는 화상을 가리킨다.The judgment
판정 대상 화상 데이터(100) 및 참조 데이터(223)는, Mother Glass 기판의 상태에서 촬상한 화상을 패널마다 잘라낸 화상인 경우와, Mother Glass 기판을 패널마다 절단한 후에 패널마다 촬상한 화상 중 어느 쪽이어도 된다.The judgment
판정 대상 화상 데이터(100) 및 참조 데이터(223)에 포함되는 화상 데이터의 화상은, 그레이스케일 또는 흑백의 화상이다. 또한, 정보 처리 장치(1)에 입력되는 화상 데이터의 화상이 컬러인 경우, 후술하는 화상 처리부(51)가 각 원색에 기초한 그레이스케일 처리를 순차적으로 행하도록 해도 된다.The images of the image data included in the judgment
양품이란, 상정된 품질로 표시 출력을 행할 수 있는 것을 가리킨다. 즉, 양품으로 판정된 화상이 촬상된 표시 패널은, 양품이다.A good product refers to a product that can display and output with the expected quality. In other words, the display panel on which the image determined to be a good product is captured is a good product.
회로 불량이란, 표시 화면을 구성하는 화소에 영상 신호나 주사 신호를 공급하는 구동 회로의 일부 또는 전부가 불량인 것에 의해 발생하는 특징적인 표시 불량이 발생하고 있는 것을 가리킨다. 도 3에서는, 당해 특징적인 표시 불량으로서, 화상의 일부 또는 전부가, 백색 또는 중간조의 솔리드 화상 표시로서는 현저하게 어두운 흑색 영역 BA 또는 너무 밝은 백색 영역 WA로 되어 있는 모식예를 나타내고 있다. 회로 불량으로 판정된 화상이 촬상된 표시 패널에는, 회로 불량이 발생하고 있다.A circuit defect refers to a characteristic display defect occurring due to a defect in part or all of a driving circuit that supplies video signals or scanning signals to the pixels constituting the display screen. FIG. 3 shows a typical display example in which part or all of the image is a black area BA or a white area WA that is too bright for a white or halftone solid image display. A circuit defect occurs in the display panel where the image determined to be a circuit defect is captured.
신호선 불량이란, 표시 패널에 마련된 복수의 화소에 화상 신호를 전송하는 복수의 신호선의 일부가 불량인 것에 의해 발생하는 특징적인 표시 불량이 발생하고 있는 것을 가리킨다. 도 3에서는, 당해 특징적인 표시 불량으로서, 백색 또는 중간조의 솔리드 화상 표시로서는 현저하게 어두운 흑색 영역 BA 또는 너무 밝은 백색 영역 WA가, 직사각 형상의 화상의 긴 변 방향을 따라서 직선상으로 발생하고 있는 모식예를 나타내고 있다. 또한, 최우측의 모식예에서는, 또한, 흑색 영역 BA가 당해 길이 방향에 직교하는 방향을 따라서 발생하고 있다.A signal line defect refers to a characteristic display defect occurring due to a defect in a portion of a plurality of signal lines that transmit image signals to a plurality of pixels provided in the display panel. In Fig. 3, as the characteristic display defect, a black area BA that is significantly dark or a white area WA that is too bright for a white or midtone solid image display is generated in a straight line along the long side of a rectangular image. It shows an example. In addition, in the rightmost schematic example, a black area BA is generated along a direction perpendicular to the longitudinal direction.
주사선 불량이란, 표시 패널에 마련된 복수의 화소에 구동 신호를 전송하는 복수의 주사선의 일부가 불량인 것에 의해 발생하는 특징적인 표시 불량이 발생하고 있는 것을 가리킨다. 도 3에서는, 당해 특징적인 표시 불량으로서, 백색 또는 중간조의 솔리드 화상 표시로서는 현저하게 어두운 흑색 영역 BA 또는 흑색 영역 BA보다는 밝지만 주위에 비해 어두운 암색 영역 GA가, 직사각 형상의 화상의 긴 변 방향에 직교하는 방향을 따라서 직선상으로 발생하고 있는 모식예를 나타내고 있다.Scanning line defects refer to characteristic display defects occurring due to defects in some of the plurality of scanning lines that transmit drive signals to the plurality of pixels provided in the display panel. In FIG. 3, as the characteristic display defect, a black area BA that is significantly dark in the display of a white or midtone solid image, or a dark area GA that is brighter than the black area BA but darker than the surroundings, is located along the long side of the rectangular image. A schematic example of generation occurring in a straight line along an orthogonal direction is shown.
상술한 바와 같이, 판정 대상 화상 데이터(100)는, 도 3을 참조하여 설명한 어느 분류에 해당하는 화상이다. 참조 데이터(223)는, 판정 대상 화상 데이터(100)에 포함되는 화상 데이터의 화상을 분류하는 것을 상정하여 미리 준비되어 있다. 구체적으로는, 참조 데이터(223)는, 예를 들어 도 3에 도시한 분류 중 어느 것에 해당하는 표시 패널이며 미리 분류가 확정된 표시 패널의 화상 표시면을 촬상하여 얻어진 화상 데이터이다. 또한, 참조 데이터(223)에 포함되는 화상 데이터는, 연산부(21)에 의해 읽어내어졌을 때 어느 분류인지를 특정 가능한 정보가 부가되어 있다.As described above, the judgment
화상 처리부(51)는, 판정 대상 화상 데이터(100)에 포함되는 복수의 화상 데이터에 개별로 화상 처리를 실시한다. 구체적으로는, 화상 처리부(51)는, 화상의 콘트라스트를 보다 강조하는 처리를 행한다.The
도 4는 콘트라스트 강조 전의 화소의 계조값과, 콘트라스트 강조 후의 화소의 계조값의 관계를 나타내는 그래프이다. 화상 처리부(51)에 의한 처리가 행해지기 전의 화상에 포함되는 복수의 화소의 각각의 계조값이 8비트로 표시되는 경우, 도 4의 횡축에서 나타내는 바와 같이, 계조값은, 0 내지 255의 범위 내 중 어느 것의 값을 취한다. 만약, 화상 처리부(51)에 의한 화상 처리에 의해 콘트라스트의 변경이 행해지지 않는 경우, 판정 대상 화상 데이터(100)는, 도 4에 도시한 그래프 L4가 나타내는 바와 같이, 콘트라스트 강조 전후의 화소의 계조값에 차는 없다. 콘트라스트 강조 후의 계조값은, 도 4의 종축에서 나타내어져 있다.Figure 4 is a graph showing the relationship between the grayscale value of the pixel before contrast enhancement and the grayscale value of the pixel after contrast enhancement. When each gray scale value of a plurality of pixels included in an image before processing by the
화상 처리부(51)는, 예를 들어 도 4에 도시한 그래프 L1, L2, L3 중 어느 것과 같이 나타낼 수 있는 콘트라스트 강조 전후의 관계가 되도록, 화상에 포함되는 복수의 화소의 각각의 계조값을 변경함으로써, 화상의 콘트라스트를 보다 강조한다. 그래프 L1, L2, L3은, 식 (1)에 나타내는 시그모이드(Sigmoid) 함수로 표현되는 시그모이드 곡선이다. 식 (1)에 있어서의 y는, 화상 처리부(51)에 의한 화상 처리 후의 화소의 계조값을 나타낸다. 식 (1)에 있어서의 x는, 화상 처리부(51)에 의한 화상 처리 전의 화소의 계조값을 나타낸다. 식 (1)에 있어서의 b는, 시그모이드 곡선의 변곡점에 대응하는 x의 값, 즉, 시그모이드 곡선의 기울기가 가장 커지는 좌표(x, y) 중 x를 나타낸다. b를 사이에 두고, x<b에서는 시그모이드 곡선은 아래로 볼록이며, x>b에서는 시그모이드 곡선은 위로 볼록이다. 식 (1)에 있어서의 a는, 시그모이드 곡선의 기울기의 크기에 대응하는 계수이다. 또한, 식 (1) 및 후술하는 식 (2)에 있어서의 exp[ ]는, 지수 함수인 것을 나타낸다.The
또한, 실시 형태의 설명 그리고 식 (1) 및 후술하는 식 (2)에서는, 참조 데이터(223) 및 판정 대상 화상 데이터(100)에 포함되는 화상 데이터의 화상이 8비트 화상인 것을 상정하고 있다. 즉, 실시 형태의 설명 그리고 식 (1) 및 식 (2)에서는, 화상에 포함되는 화소의 최고 계조값이 255인 것을 상정하고 있다. 식 (1) 및 식 (2)의 분자로서 기재되어 있는 「255」의 수치는, 8비트 화상에 포함되는 화소의 최고 계조값을 상정하고 있다. 단, 정보 처리 장치(1)에서 취급할 수 있는 화상은 8비트 화상에 한정되지는 않는다. 정보 처리 장치(1)는, r비트 화상을 취급할 수 있다. r은, 임의의 자연수이다. r비트 화상의 최고 계조값은, 2r-1이다. 따라서, 정보 처리 장치(1)에서 취급되는 화상이 r비트 화상인 경우, 식 (1) 및 식 (2)의 분자로서 기재되어 있는 「255」의 수치는, 「2r-1」로 치환된다. 또한, 실시 형태의 참조 데이터(223)에 포함되는 화상 데이터의 화상에는, 미리 화상 처리부(51)에 의한 화상 처리가 실시되어 있다.Additionally, in the description of the embodiment and equation (1) and equation (2) described later, it is assumed that the image of the image data included in the
도 5는 판정부(60)의 보다 구체적인 기능 구성예의 일례를 도시하는 블록도이다. 판정부(60)는, 기계 학습부(70), 검증부(61) 및 한정적 분류 처리부(62)를 포함한다. 기계 학습부(70)는, 소정의 알고리즘에 따라서 기계 학습을 행한다. 실시 형태에서는, 당해 소정의 알고리즘으로서, CNN(Convolutional Neural Network)이 채용되고 있다.FIG. 5 is a block diagram showing an example of a more specific functional configuration of the
기계 학습부(70)는, 특징량 추출부(71) 및 식별부(72)를 포함한다. CNN에 포함되는 처리는, 크게 나누면 2개의 처리로 나누어진다. 당해 2개의 처리 중 1개는, CNN을 이용한 처리의 대상으로 되는 화상의 특징량의 추출 처리이며, 특징량 추출부(71)에 의해 행해진다. 당해 2개의 처리 중 다른 1개는, 화상의 특징량을 나타내는 데이터를 뉴럴 네트워크 NN의 입력으로 하여, 당해 뉴럴 네트워크 NN의 출력을 얻는 처리이며, 식별부(72)에 의해 행해진다. 실시 형태에서는, 당해 뉴럴 네트워크 NN의 출력은, 도 3을 참조하여 설명한 분류의 각각에 해당하는 확률의 값(0부터 1의 범위 내)이다.The
특징량 추출부(71)는, 컨볼루션 처리부(711) 및 풀링 처리부(712)를 포함한다. 컨볼루션 처리부(711)는, 화상에 컨볼루션(convolution) 처리를 행한다. 여기에서 말하는 컨볼루션 처리는, 일반적인 CNN에서 채용되는 컨볼루션 처리와 마찬가지이다.The
컨볼루션 처리에서는, 화상에 포함되는 복수의 화소의 각각의 계조값을, 행렬의 값으로 간주한다. 예를 들어, 서로 직교하는 2방향 중 한쪽(X 방향)으로 p개, 다른 쪽(Y 방향)으로 q개의 화소가 배열되는 2차원 화상을 상정한다. 당해 2차원 화상은, 행의 수가 p이며, 열의 수가 q인 행렬로 간주할 수 있다. 당해 2차원 화상이 갖는 복수의 화소의 각각의 계조값은, 행렬의 성분으로 간주할 수 있다. 당해 행렬을 α로 하고, 행렬 α의 성분을 β로 하면, 행렬 α에 있어서 X 방향으로 e번째, Y 방향으로 f번째의 위치에 있는 성분은 βef로 나타낼 수 있다. 이것은, 당해 2차원 화상에 있어서, X 방향으로 e번째, Y 방향으로 f번째의 위치에 있는 화소의 계조값을 가리킨다. 또한, 컨볼루션 처리에서는, 상술한 2차원 화상과는 다른 행렬로서, 커널 또는 필터라 불리는 참조용의 행렬이 설정된다. 이하에서는 편의상, 당해 참조용의 행렬을 커널이라 기재한다. 커널의 행수는, 컨볼루션 처리의 대상이 되는 화상(예를 들어, 상술한 2차원 화상)의 행수보다 작다. 커널의 열수는, 컨볼루션 처리의 대상으로 되는 화상(예를 들어, 상술한 2차원 화상)의 열수보다 작다. 커널에 포함되는 행렬의 성분은, 미리 정해진 가중치 부여수의 값(일반적으로, 정수)이다. 컨볼루션 처리부(711)는, 판정 대상 화상 데이터(100)에 포함되는 화상의 1개를 행렬로 간주하고, 당해 행렬 중 커널의 행수 및 열수에 대응한 일부분을 추출하는 추출 처리를 행한다. 즉, 당해 일부분은, 행수 및 열수가 커널과 동일한 행렬로 간주할 수 있다. 컨볼루션 처리부(711)는, 당해 일부분과 커널을 승산한 행렬의 곱을 얻는 승산 처리를 행한다. 컨볼루션 처리부(711)는, 당해 행렬의 곱에 포함되는 성분의 값을 더하여 1개의 값을 얻는 가산 처리를 행한다. 컨볼루션 처리부(711)는, 당해 1개의 값을 1개의 특징량으로서 취급한다. 컨볼루션 처리부(711)는, 행렬로 간주된 1개의 화상에 있어서 추출 처리의 대상이 되는 범위를 복수 설정한다. 예를 들어, p=q=30인 경우에, X 방향 및 Y 방향으로 3개 걸러의 주기로 추출 처리의 범위를 설정하였을 때, X×Y=10×10=100의 범위가 설정된다. 컨볼루션 처리부(711)는, 각 범위에 대하여 추출 처리, 승산 처리 및 가산 처리를 행하여 각 범위의 특징량을 얻는다. 이에 의해, 1개의 화상은, 특징량을 나타내는 값이 행렬상으로 배열되는 데이터(제1 특징량 행렬)로 변환된다. 또한, 보다 상세하게는, 추출 처리 시에 패딩(화소의 보완) 등이 행해지는 경우도 있지만, 주지의 것이므로, 여기에서는 상세한 설명을 생략한다.In convolution processing, each gray level value of a plurality of pixels included in an image is regarded as a matrix value. For example, assume a two-dimensional image in which p pixels are arranged in one (X direction) of two directions orthogonal to each other and q pixels are arranged in the other (Y direction). The two-dimensional image can be regarded as a matrix with the number of rows being p and the number of columns being q. Each gray level value of a plurality of pixels in the two-dimensional image can be regarded as a matrix component. If the matrix is α and the component of matrix α is β, the component at the e-th position in the X direction and the f-th position in the Y direction in matrix α can be expressed as β ef . This indicates the gray level value of the pixel at the e-th position in the X direction and the f-th position in the Y direction in the two-dimensional image. Additionally, in the convolution process, a reference matrix called a kernel or filter is set as a different matrix from the two-dimensional image described above. Hereinafter, for convenience, the matrix for reference is referred to as the kernel. The number of rows of the kernel is smaller than the number of rows of the image that is the target of convolution processing (for example, the two-dimensional image described above). The number of columns of the kernel is smaller than the number of columns of the image that is the target of the convolution process (for example, the two-dimensional image described above). The elements of the matrix included in the kernel are values (generally integers) of a predetermined number of weights. The convolution processing unit 711 regards one of the images included in the judgment
풀링 처리부(712)는, 컨볼루션 처리부(711)에 의해 컨볼루션 처리가 행해진 화상에, 풀링(pooling) 처리를 행한다. 여기에서 말하는 풀링 처리는, 일반적인 CNN에서 채용되는 풀링 처리와 마찬가지이다.The pooling processing unit 712 performs pooling processing on the image on which the convolution processing has been performed by the convolution processing unit 711. The pooling process referred to here is the same as the pooling process employed in general CNNs.
풀링 처리에서는, 상술한 컨볼루션 처리에 의해 얻어진 제1 특징량 행렬의 성분을 복수의 그룹으로 나눈다. 예를 들어, 제1 특징량 행렬이, 행수 10, 열수 10의 행렬인 것으로 한다. 여기서, 행수 2, 열수 2의 범위마다 당해 제1 특징량 행렬을 구분한 경우, 당해 제1 특징량 행렬에는 5×5의 범위를 설정할 수 있다. 여기서, 각 범위는, 개별의 그룹으로 간주된다. 풀링 처리에서는, 이와 같은 사고 방식으로, 컨볼루션 처리에 의해 얻어진 제1 특징량 행렬의 성분을 복수의 그룹으로 나눌 수 있다. 풀링 처리에서는, 그룹마다 1개의 값을 도출한다. 당해 1개의 값의 도출 방법으로서, 예를 들어 최댓값 풀링, 평균값 풀링 등을 들 수 있다. 최댓값 풀링은, 그룹에 포함되는 행렬의 성분 중 최댓값을 도출하는 방법이다. 평균값 풀링은, 그룹에 포함되는 행렬의 성분의 평균값을 도출하는 방법이다. 그룹마다 도출된 값을 행렬의 성분으로서 간주함으로써, 풀링 처리에 의해, 제1 특징량 행렬보다도 행수 및 열수가 작은 행렬(제2 특징량 행렬)을 도출할 수 있다. 당해 제2 특징량 행렬은, 컨볼루션 처리부(711)에 의해 행렬로 간주된 1개의 화상(예를 들어, 판정 대상 화상 데이터(100)에 포함되는 복수의 화상 중 1개)의 특징량을 나타내는 데이터인 것으로 간주할 수 있다.In the pooling process, the components of the first feature matrix obtained by the above-described convolution process are divided into a plurality of groups. For example, assume that the first feature matrix is a matrix with 10 rows and 10 columns. Here, when the first feature matrix is divided into ranges of 2 rows and 2 columns, a range of 5×5 can be set for the first feature matrix. Here, each range is considered a separate group. In the pooling process, using this way of thinking, the components of the first feature matrix obtained by the convolution process can be divided into a plurality of groups. In the pooling process, one value is derived for each group. Examples of methods for deriving the single value include maximum value pooling, average value pooling, etc. Maximum value pooling is a method of deriving the maximum value among the elements of a matrix included in a group. Average value pooling is a method of deriving the average value of the elements of a matrix included in a group. By considering the values derived for each group as elements of a matrix, a matrix (second feature quantity matrix) with fewer rows and columns than the first feature quantity matrix can be derived through pooling processing. The second feature quantity matrix represents the feature quantity of one image (e.g., one of a plurality of images included in the judgment target image data 100) considered as a matrix by the convolution processing unit 711. It can be considered as data.
또한, 1개의 화상에 대한 컨볼루션 처리부(711) 및 풀링 처리부(712)의 처리는, 1회 이상이면 되고, 미리 정해진 복수회 반복되어도 된다. 또한, 특징량 추출부(71)가 행하는 처리에는, 컨볼루션 처리의 역의 조작(deconvolution)이나 풀링 처리의 역의 조작(unpooling)이 더 포함되어 있어도 된다.In addition, the processing of one image by the convolution processing unit 711 and the pooling processing unit 712 may be performed once or more, and may be repeated a predetermined number of times. Additionally, the processing performed by the feature
식별부(72)는, 뉴럴 네트워크 생성부(721) 및 확률 변환부(722)를 포함한다. 뉴럴 네트워크 생성부(721)는, 뉴럴 네트워크 NN을 생성한다. 확률 변환부(722)는, 뉴럴 네트워크 생성부(721)가 생성한 뉴럴 네트워크 NN의 출력을, 확률의 값(0부터 1의 범위 내의 값)으로 변환하는 연산 처리를 행한다.The
CNN이 채용된 경우의 뉴럴 네트워크 NN에 대한 입력은, 상술한 풀링 처리의 출력으로서 얻어지는 행렬(제2 특징량 행렬)의 성분이다. 당해 행렬에 포함되는 성분의 수와, 뉴럴 네트워크 NN의 입력 노드의 수는 대응한다. 뉴럴 네트워크 NN은, 일반적인 기계 학습에 있어서의 뉴럴 네트워크와 마찬가지의 것이며, 1 이상의 전결합층을 포함한다. 전결합층에서는, 입력에 대한 가중치 부여 처리가 행해진다. 일반적으로, 뉴럴 네트워크 NN이 갖는 1 이상의 전결합층 중 출력측에 가장 가까운 전결합층(최종단)의 바이어스의 수는, 당해 뉴럴 네트워크 NN을 이용하여 행해지는 판별의 종류(예를 들어, 도 3을 참조하여 설명한 분류의 수)와 동일하다. 일반적으로, 뉴럴 네트워크 NN의 출력은, 임의의 값(1을 초과하는 수)을 취할 수 있다. 따라서, 뉴럴 네트워크 NN의 출력을 「어느 분류에 속하는지를 판정하기 위해 이용 가능한, 확실성을 나타내는 값」으로서 취급하기 위해, 확률 변환부(722)에 의한 연산이 행해진다. 확률 변환부(722)에 의한 연산은, 예를 들어 소프트맥스 함수(Softmax function)를 이용한 연산이지만, 이것에 한정되는 것은 아니고, 적절히 변경 가능하다.The input to the neural network NN when CNN is adopted is the component of the matrix (second feature matrix) obtained as the output of the above-described pooling process. The number of components included in the matrix corresponds to the number of input nodes of the neural network NN. A neural network NN is similar to a neural network in general machine learning and includes one or more fully coupled layers. In the pre-combined layer, weighting processing for the input is performed. In general, the number of biases of the fully connected layer (last stage) closest to the output side among one or more fully connected layers of a neural network NN is determined by the type of discrimination performed using the neural network NN (e.g., Figure 3 It is the same as the number of classifications described with reference to). In general, the output of a neural network NN can take any value (a number exceeding 1). Therefore, in order to treat the output of the neural network NN as “a value indicating certainty that can be used to determine which category it belongs to,” calculation by the
검증부(61)는, 기계 학습부(70)에 의한 기계 학습에 검증(validation) 기능을 부여한다. 검증부(61)에 의해, 기계 학습에 있어서의 과학습을 억제하고, 기계 학습에 의한 판정의 정밀도를 보다 높이기 쉬워진다. 검증부(61)에 의한 검증 기능의 예로서, 홀드 아웃 검증, 교차 검증 등을 들 수 있다.The
도 6은 홀드 아웃 검증의 사고 방식을 도시하는 모식도이다. 도 6 및 후술하는 도 7에서는, m개의 화상 데이터를 포함하는 데이터 세트 DS를 직사각형으로 나타내고 있다. 도 6 및 도 7에서는, 당해 직사각형의 긴 변 방향을 따라서, 당해 긴 변 방향의 일단측으로부터 타단측을 향하여, m개의 화상 데이터 중 1번째의 화상 데이터로부터 m번째의 화상 데이터까지가 순서대로 배열되어 있는 것으로 한다. m은, 자연수이다.Figure 6 is a schematic diagram showing the concept of hold-out verification. In FIG. 6 and FIG. 7 described later, a data set DS including m pieces of image data is shown as a rectangle. In FIGS. 6 and 7, the first image data to the mth image data among the m pieces of image data are arranged in order along the long side direction of the rectangle, from one end side of the long side direction to the other end side. It is assumed that it is done. m is a natural number.
홀드 아웃 검증에서는, 도 6에 도시한 바와 같이, 데이터 세트 DS는, 교사 데이터 TD와, 검증 데이터 CD로 나누어진다. 이 중, 교사 데이터 TD는, 기계 학습에 있어서의 교사 데이터로서 이용된다. 검증 데이터 CD는, 기계 학습에 있어서의 검증 데이터로서 이용된다.In hold-out verification, as shown in FIG. 6, the data set DS is divided into teacher data TD and verification data CD. Among these, teacher data TD is used as teacher data in machine learning. Verification data CD is used as verification data in machine learning.
1개의 데이터 세트 DS는, 기계 학습에 의한 어떤 1개의 판정 결과에 대응하는 복수의 화상 데이터를 포함한다. 예를 들어, 도 3을 설명한 「양품」의 데이터 세트 DS는, 「양품」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함한다. 여기서, m개의 화상 데이터 중 n개를 추출하여 교사 데이터 TD로 하고, 당해 교사 데이터 TD를 이용하여, 판정부(60)가 기계 학습을 행한다. n은, m 미만의 자연수이다. 그리고, 데이터 세트 DS 중, 교사 데이터 TD를 제외한 (m-n)개의 화상 데이터인 검증 데이터 CD를, 교사 데이터 TD에 의한 학습 후의 판정부(60)가 판정한다. 여기서, 검증 데이터 CD는, 데이터 세트 DS의 일부이며, 기계 학습에 의한 어떤 1개의 판정 결과에 대응하는 화상 데이터만을 포함한다. 따라서, 교사 데이터 TD에 의한 학습 후의 판정부(60)는, 이상적으로는, 검증 데이터 CD에 포함되는 모든 화상 데이터를, 당해 1개의 판정 결과에 대응하는 화상 데이터라고 판정하는 것이 바람직하다. 단, 실제로는, 검증 데이터 CD의 일부는, 다른 판정 결과에 대응하는 화상 데이터라고 판정되는 경우가 있다. 따라서, 교사 데이터 TD를 이용한 기계 학습 후의 판정부(60)에서, 검증 데이터 CD를 판정함으로써, 판정부(60)의 판정 정밀도를 검증하여, 교사 데이터 TD에 의한 학습에 기초한 당해 판정 정밀도를 보다 높일 수 있도록 하는 것이 행해진다.One data set DS includes a plurality of image data corresponding to one decision result by machine learning. For example, the “good product” data set DS illustrated in FIG. 3 includes m image data obtained by individually imaging the image display surfaces of m display panels corresponding to “good product.” Here, n of the m pieces of image data are extracted and used as teacher data TD, and the
홀드 아웃 검증이 채용된 경우의 검증부(61)는, 데이터 세트 DS를 교사 데이터 TD와 검증 데이터 CD로 나누고, 당해 교사 데이터 TD에 의한 기계 학습부(70)의 학습과, 당해 검증 데이터 CD에 기초한 판정 정밀도의 검증을 행하는 것이다.When hold-out verification is adopted, the
도 7은 교차 검증의 사고 방식을 도시하는 모식도이다. 교차 검증이 채용된 경우, 검증부(61)는, 예를 들어 도 7에 도시한 바와 같이, 데이터 세트 DS를 데이터 세트 DSS1로 간주하여 취급한다. 데이터 세트 DSS1은, 데이터 세트 DSa, DSb, DSc, DSd, DSe를 포함한다. 데이터 세트 DSa는, 데이터 세트 DS를, 검증 데이터 CD1과, 교사 데이터 TD1로 나누도록 취급한 데이터이다. 데이터 세트 DSb는, 데이터 세트 DS를, 검증 데이터 CD2와, 교사 데이터 TD21, TD22로 나누도록 취급한 데이터이다. 데이터 세트 DSc는, 데이터 세트 DS를, 검증 데이터 CD3과, 교사 데이터 TD31, TD32로 나누도록 취급한 데이터이다. 데이터 세트 DSd는, 데이터 세트 DS를, 검증 데이터 CD4와, 교사 데이터 TD41, TD42로 나누도록 취급한 데이터이다. 데이터 세트 DSe는, 데이터 세트 DS를, 검증 데이터 CD5와, 교사 데이터 TD5로 나누도록 취급한 데이터이다. 교사 데이터 TD1, TD21, TD22, TD31, TD32, TD41, TD42, TD5는, 기계 학습에 있어서의 교사 데이터로서 이용된다. 검증 데이터 CD1, CD2, CD3, CD4, CD5는, 기계 학습에 있어서의 검증 데이터로서 이용된다. 검증 데이터 CD1과, 검증 데이터 CD2와, 검증 데이터 CD3과, 검증 데이터 CD4와, 검증 데이터 CD5는 각각 다른 화상 데이터를 포함한다. 즉, 교차 검증은, 데이터 세트 DS에 포함되는 m개의 화상 데이터 중, 어느 부분을 검증 데이터로 간주할지에 대하여 복수의 패턴(예를 들어, 데이터 세트 DSa, DSb, DSc, DSd, DSe)을 설정하고, 당해 복수의 패턴의 수만큼 홀드 아웃 검증(도 6 참조)을 반복하는 것이다.Figure 7 is a schematic diagram showing the way of thinking of cross-validation. When cross-validation is adopted, the
실시 형태에서는, 교차 검증을 행하는 검증부(61)가 채용되고 있지만, 이것에 한정되는 것은 아니고, 검증부(61)가 행하는 구체적인 검증의 알고리즘에 대해서는 적절히 변경 가능하다.In the embodiment, the
실시 형태의 참조 데이터(223)는, 도 3을 참조하여 설명한 분류의 수에 대응한 복수의 데이터 세트를 포함한다. 구체적으로는, 참조 데이터(223)는, 데이터 세트 DS1, DS2, DS3, DS4, DS5, DS6, DS7, DS8을 포함한다(도 10 참조). 데이터 세트 DS1은, 「양품」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 데이터 세트 DS2는, 「경사 불균일」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 데이터 세트 DS3은, 「신호선 불량」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 데이터 세트 DS4는, 「주사선 불량」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 데이터 세트 DS5는, 「회로 불량」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 데이터 세트 DS6은, 「세로 줄무늬」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 데이터 세트 DS7은, 「클러스터」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 데이터 세트 DS8은, 「백색 불균일」에 해당하는 m개의 표시 패널의 화상 표시면을 개별로 촬상하여 얻어진 m개의 화상 데이터를 포함하는 데이터 세트 DS이다. 실시 형태의 검증부(61)는, 데이터 세트 DS1, DS2, DS3, DS4, DS5, DS6, DS7, DS8의 각각에 대하여 개별로 교차 검증을 행한다.The
도 8은 기계 학습을 이용한 판정의 정밀도에 관한 사고 방식을 표로 나타낸 도면이다. 어떤 화상이 「특정의 대상이 촬상된 화상에 해당하는」 경우를 1(Positive)로 하고, 「특정의 대상이 촬상된 화상에 해당하지 않는」 경우를 -1(Negative)로 하는 조건이 있는 것으로 한다. 이 조건 하에서는, 모든 화상은, 1 또는 -1의 판정을 부여할 수 있는 화상이라고 간주된다. 기계 학습에서는, 입력된 데이터(특징량)의 기초가 된 화상이, 「특정의 대상이 촬상된 화상에 해당하는지」 여부의 판정 결과를 나타내는 출력이 얻어진다. 기계 학습부(70)는, 입력에 따라서 「특정의 대상이 촬상된 화상에 해당하는지」 여부의 판정 결과를 나타내는 출력을 행한다. 보다 구체적인 예를 들면, 실시 형태의 기계 학습부(70)는, 판정 대상 화상 데이터(100) 또는 검증 데이터(예를 들어, 검증 데이터 CD 등)의 입력에 따라서, 입력된 데이터(특징량)의 기초가 된 화상이 「양품」, 「경사 불균일」, 「신호선 불량」, 「주사선 불량」, 「회로 불량」, 「세로 줄무늬」, 「클러스터」 또는 「백색 불균일」의 분류 중 어느 것에 해당하는 화상인지를 나타내는 출력을 행한다. 여기서, 예를 들어 「양품」 이외의 분류에 해당한다고 판정된 화상은, 「양품에 해당하지 않는다」고 판정된 화상이라고 할 수 있다.Figure 8 is a table showing a way of thinking about the precision of judgment using machine learning. There is a condition where the case where an image “corresponds to an image in which a specific object was captured” is set to 1 (Positive), and the case where a certain image “does not correspond to an image in which a specific object was captured” is set to -1 (Negative). do. Under this condition, all images are considered to be images that can be given a decision of 1 or -1. In machine learning, an output is obtained that indicates a determination result of whether the image on which the input data (feature quantity) is based “corresponds to the image in which a specific object was captured.” The
도 8에 도시한 「실제의 클래스」란은, 검사원에 의한 눈으로 보기 검사의 결과를 나타낸다. 예를 들어, 실제로 「특정의 대상이 촬상된」 화상은, 「특정의 대상이 촬상된 화상에 해당하는」 화상이며, 1이 부여된다. 또한, 「특정의 대상이 촬상되어 있지 않은」 화상은, 「특정의 대상이 촬상된 화상에 해당하지 않는」 화상이며, -1이 부여된다. 한편, 도 8에 도시한 「예측된 클래스」는, 기계 학습을 이용한 판정에 의한 판정 결과를 나타낸다. 즉, 당해 판정에서 「특정의 대상이 촬상된 화상에 해당한다고」고 판정된 화상에는 1이 부여된다. 또한, 당해 판정에서 「특정의 대상이 촬상된 화상에 해당하지 않는다」고 판정된 화상에는 -1이 부여된다.The “Actual Class” column shown in FIG. 8 represents the results of a visual inspection by an inspector. For example, an image in which “a specific object was actually captured” is an image “corresponding to an image in which a specific object was captured” and is assigned 1. Additionally, an image in which “a specific object has not been imaged” is an image that “does not correspond to an image in which a specific object has been imaged” and is given -1. Meanwhile, “Predicted Class” shown in FIG. 8 represents the judgment result based on judgment using machine learning. In other words, 1 is given to an image determined in this judgment to “correspond to an image in which a specific object was captured.” In addition, -1 is given to an image for which it is determined that "the specific object does not correspond to the captured image" in this determination.
실제로 「특정의 대상이 촬상된」 화상이, 기계 학습을 이용한 판정에서 「특정의 대상이 촬상된 화상에 해당한다」고 판정된 경우, 그 판정은 올바르다. 이와 같은, 「실제의 클래스」에서 부여되는 값과 「예측된 클래스」에서 부여되는 값이 모두 1인 경우에는, TP(True Positive)라 불린다. 또한, 실제로 「특정의 대상이 촬상되어 있지 않은」 화상이, 기계 학습을 이용한 판정에서 「특정의 대상이 촬상된 화상에 해당하지 않는다」고 판정된 경우, 그 판정은 올바르다. 이와 같은, 「실제의 클래스」에서 부여되는 값과 「예측된 클래스」에서 부여되는 값이 모두 -1인 경우에는, TN(True Negative)이라 불린다. 한편, 실제로 「특정의 대상이 촬상된」 화상이, 기계 학습을 이용한 판정에서 「특정의 대상이 촬상된 화상에 해당하지 않는다」고 판정된 경우, 그 판정은 오류이다. 이와 같은, 「실제의 클래스」에서 부여되는 값이 1이며, 「예측된 클래스」에서 부여되는 값이 -1인 경우에는, FN(False Negative)이라 불린다. 또한, 실제로 「특정의 대상이 촬상되어 있지 않은」 화상이, 기계 학습을 이용한 판정에서 「특정의 대상이 촬상된 화상에 해당한다」로 판정된 경우, 그 판정은 오류이다. 이와 같은, 「실제의 클래스」에서 부여되는 값이 -1이며, 「예측된 클래스」에서 부여되는 값이 1인 경우에는, FP(False Positive)라 불린다.In fact, if the image in which “a specific object was captured” is determined to “correspond to an image in which a specific object was captured” in a decision using machine learning, the judgment is correct. In this case, when both the value given in the “actual class” and the value given in the “predicted class” are 1, it is called TP (True Positive). Additionally, if an image in which “a specific object is not captured” is determined to “do not correspond to an image in which a specific object is captured” in a decision using machine learning, the judgment is correct. In this case, when both the value given in the “actual class” and the value given in the “predicted class” are -1, it is called TN (True Negative). On the other hand, if the image in which “the specific object was captured” is determined to “do not correspond to the image in which the specific object was captured” in a decision using machine learning, the judgment is an error. In this case, when the value given in the “actual class” is 1 and the value given in the “predicted class” is -1, it is called FN (False Negative). Additionally, if an image in which “a specific object has not been imaged” is determined to “correspond to an image in which a specific object has been imaged” in a determination using machine learning, the determination is an error. In this case, when the value given in the “actual class” is -1 and the value given in the “predicted class” is 1, it is called FP (False Positive).
기계 학습의 정밀도를 나타내는 개념으로서, 예를 들어 정해율, 재현율, 적합률, 오검출률, F값 등이 알려져 있다. 정해율을 나타내는 값은, (TP+TN)/(TP+TN+FN+FP)의 값이다. 재현율을 나타내는 값은, TP/(TP+FN)의 값이다. 적합률을 나타내는 값은, TP/(TP+FP)의 값이다. 오검출률을 나타내는 값은, FP/(TN+FP)의 값이다. 검출률을 Q로 하고, 적합률을 R로 하면, F값은, 2×Q×R/(Q+R)이다.As concepts representing the precision of machine learning, for example, correct solution rate, recall rate, fit rate, false detection rate, F value, etc. are known. The value representing the correct solution rate is the value of (TP+TN)/(TP+TN+FN+FP). The value representing the recall rate is the value of TP/(TP+FN). The value representing the compliance rate is the value of TP/(TP+FP). The value representing the false detection rate is the value of FP/(TN+FP). If the detection rate is Q and the compliance rate is R, the F value is 2×Q×R/(Q+R).
한정적 분류 처리부(62)는, 복수 단계 처리를 행한다. 여기에서 말하는 복수 단계 처리란, 복수의 입력 데이터에 대한 기계 학습부(70)의 출력이 나타내는 판정 결과 중, 일부의 판정 결과에 대응하는 일부의 입력 데이터를 당해 복수의 화상으로부터 추출하고, 추출된 당해 일부의 입력 데이터를 기계 학습부(70)에 입력하고, 기계 학습부(70)에 당해 일부의 판정 결과 중 어느 것인지를 더 판정시키는 처리를 가리킨다.The limited
구체예를 들면, 판정 대상 화상 데이터(100)에는, 복수의 화상 데이터(예를 들어, 1600의 화상 데이터)가 포함되어 있다. 먼저, 당해 복수의 화상 데이터가 기계 학습부(70)에 입력됨으로써, 당해 복수의 화상 데이터가 각각, 도 3을 참조하여 설명한 분류 중 어느 것에 해당한다고 판정되었는지를 나타내는 출력이 얻어진다. 여기서, 도 3을 참조하여 설명한 분류의 일부(예를 들어, 「양품」 또는 「경사 불균일」)에 해당한다고 판정된 일부의 화상 데이터(예를 들어, 220의 화상 데이터)가 발생한 경우, 한정적 분류 처리부(62)는, 당해 일부의 화상 데이터를 당해 복수의 화상 데이터로부터 추출한다. 한정적 분류 처리부(62)는, 추출된 당해 일부의 입력 데이터를 다시 기계 학습부(70)에 입력하고, 기계 학습부(70)에 판정을 나타내는 출력을 다시 행하게 한다. 단, 당해 일부의 입력 데이터의 입력에 따라서 행해지는 판정에서는, 판정에 의한 분류가, 당해 분류의 일부(예를 들어, 「양품」 또는 「경사 불균일」)에 한정된다. 또한, 단순하게 당해 일부의 입력 데이터를 기계 학습부(70)에 입력하면, 당해 일부의 입력 데이터에 대한 컨볼루션 처리부(711) 및 풀링 처리부(712)에 의한 처리가 다시 행해지게 된다. 여기서, 당해 일부의 입력 데이터의 추출 전에 당해 복수의 화상 데이터에 대하여 이미 행해져 있는 컨볼루션 처리부(711) 및 풀링 처리부(712)에 의한 처리 후의 데이터 중 당해 일부의 입력 데이터에 대응하는 데이터를 그대로 채용하여, 컨볼루션 처리부(711) 및 풀링 처리부(712)에 의한 처리가 반복되지 않도록 해도 된다.For a specific example, the judgment
이하, 한정적 분류 처리부(62)에 의한 복수 단계 처리가 적용된, 기계 학습부(70)에 의한 기계 학습의 흐름에 대하여, 도 9 및 도 10을 참조하여 설명한다. 도 9 및 도 10을 참조하여 설명하는 처리의 흐름은, 참조 데이터(223)에 포함되는 화상 데이터를 교사 데이터로 한, 지도 학습의 처리의 흐름이다.Hereinafter, the flow of machine learning by the
도 9는 복수 단계 처리가 적용된 기계 학습의 흐름을 나타내는 흐름도이다. 도 10은 복수 단계 처리가 적용된 기계 학습의 흐름을 도시하는 도면이다. 도 9에 도시한 바와 같이, 먼저, 참조 데이터(223)의 취득이 행해진다(스텝 S1). 구체적으로는, 기계 학습 프로그램(221)을 실행 처리 중인 연산부(21)가, 기억부(22)로부터 참조 데이터(223)를 읽어낸다. 여기서, 상술한 바와 같이, 참조 데이터(223)에 포함되는 화상 데이터 중 일부는 교사 데이터로서 이용되고, 다른 일부는 검증 데이터로서 이용된다. 도 10에서는, 참조 데이터(223)에 포함되는 데이터 세트 DS1, DS2, DS3, DS4, DS5, DS6, DS7, DS8 중 교사 데이터로서 취급되는 일부를 TD로서 모식적으로 나타내고, 검증 데이터로서 취급되는 다른 일부를 CD로서 모식적으로 나타내고 있다.Figure 9 is a flow chart showing the flow of machine learning to which multi-step processing is applied. Figure 10 is a diagram showing the flow of machine learning to which multi-step processing is applied. As shown in Fig. 9, first,
스텝 S1의 처리 후, 기계 학습부(70)에 의한 1단계째의 기계 학습 처리가 행해진다(스텝 S2). 스텝 S2의 처리는, 참조 데이터(223)에 포함되는 데이터 세트 DS1, DS2, DS3, DS4, DS5, DS6, DS7, DS8에 포함되는 교사 데이터를 이용한 기계 학습 처리이다. 당해 기계 학습 처리는, 예를 들어 참조 데이터(223)에 포함되는 검증 데이터의 화상의 특징량을 나타내는 데이터를 뉴럴 네트워크 NN의 입력으로 한 경우에 당해 데이터의 화상이 도 3을 참조하여 설명한 8종류의 분류 중 어느 것인지를 기계 학습부(70)에 판정시키는 것을 목적으로 하여, 뉴럴 네트워크 NN의 뉴런에 있어서의 가중치 부여의 값을 결정하는 기계 학습 처리이다. 도 10에서는, 당해 1단계째의 기계 학습 처리를, 「8-class CNN」으로 기재하고, 스텝 ST1의 부호를 붙이고 있다.After the processing of step S1, the first-stage machine learning processing is performed by the machine learning unit 70 (step S2). The processing in step S2 is machine learning processing using teacher data included in the data sets DS1, DS2, DS3, DS4, DS5, DS6, DS7, and DS8 included in the
스텝 S2의 처리 후, 1단계째의 검증 처리가 행해진다(스텝 S3). 스텝 S3의 처리는, 연산부(21)가, 참조 데이터(223)에 포함되는 데이터 세트 DS1, DS2, DS3, DS4, DS5, DS6, DS7, DS8에 포함되는 검증 데이터를 기계 학습부(70)로의 입력으로 하여, 스텝 S2의 처리에 의한 기계 학습이 반영된 기계 학습부(70)의 출력을 얻는 처리이다. 즉, 스텝 S3의 처리는, 검증 데이터의 화상이, 기계 학습부(70)에 의해, 도 3을 참조하여 설명한 8종류의 분류 중 어느 것이라고 판정되는지의 출력을 얻는 처리이다. 스텝 S3의 처리에 의해 얻어지는 출력을, 도 10에서는, 출력 OP1로서 나타내고 있다.After the processing of step S2, the first step verification processing is performed (step S3). In the processing of step S3, the
스텝 S3의 처리 후, 한정적 분류 처리부(62)가, 1단계째의 검증 처리에 있어서 특정의 출력(검증 결과)이 얻어진 검증 데이터를 추출한다(스텝 S4). 스텝 S4의 처리에서 추출되는 검증 데이터는, 스텝 S3의 처리에서 기계 학습부(70)로의 입력으로서 취급된 검증 데이터의 일부이며, 도 3을 참조하여 설명한 8종류의 분류 중 일부의 분류(예를 들어, 「양품」 또는 「경사 불균일」)라고 판정된 것을 나타내는 출력이 얻어진 검증 데이터이다. 즉, 「특정의 출력」이란, 당해 일부의 분류라고 판정된 것을 나타내는 출력을 가리킨다.After processing in step S3, the limited
스텝 S4의 처리 후, 참조 데이터(223)에 포함되는 화상 데이터 중 특정의 출력에 대응하는 화상 데이터를 사용한 2단계째의 기계 학습 처리가 행해진다(스텝 S5). 「참조 데이터(223)에 포함되는 화상 데이터 중 특정의 출력에 대응하는 화상 데이터」 또는 「특정의 출력에 대응하는 참조 데이터」란, 참조 데이터(223)의 일부이며, 스텝 S4의 처리에서 「특정의 출력」으로서 취급되는 일부의 분류(예를 들어, 「양품」 또는 「경사 불균일」)에 대응하는 화상 데이터를 포함하는 데이터 세트(예를 들어, 데이터 세트 DS1과 데이터 세트 DS2)를 가리킨다. 스텝 S5의 처리는, 상술한 「특정의 출력에 대응하는 참조 데이터」에 포함되는 교사 데이터를 이용한 기계 학습 처리이다. 당해 기계 학습 처리는, 예를 들어 참조 데이터(223)에 포함되는 검증 데이터의 화상의 특징량을 나타내는 데이터를 뉴럴 네트워크 NN의 입력으로 한 경우에 당해 데이터의 화상이 도 3을 참조하여 설명한 8종류의 분류 중 「특정의 출력」에 대응하는 일부의 분류 중 어느 것인지를 기계 학습부(70)에 판정시키는 것을 목적으로 하여, 뉴럴 네트워크 NN의 뉴런에 있어서의 가중치 부여의 값을 결정하는 기계 학습 처리이다. 도 10에서는, 당해 2단계째의 기계 학습 처리를, 「2-class CNN」으로 기재하고, 스텝 ST2의 부호를 붙이고 있다.After the processing in step S4, a second-stage machine learning processing is performed using image data corresponding to a specific output among the image data included in the reference data 223 (step S5). “Image data corresponding to a specific output among the image data included in the
스텝 S5의 처리 후, 2단계째의 검증 처리(1회째)가 행해진다(스텝 S6). 스텝 S6의 처리는, 연산부(21)가, 상술한 「특정의 출력에 대응하는 참조 데이터」에 포함되는 검증 데이터를 기계 학습부(70)로의 입력으로 하여, 스텝 S5의 처리에 의한 기계 학습이 반영된 기계 학습부(70)의 출력을 얻는 처리이다. 즉, 스텝 S6의 처리는, 상술한 「특정의 출력에 대응하는 참조 데이터」에 포함되는 검증 데이터의 화상이, 기계 학습부(70)에 의해, 도 3을 참조하여 설명한 8종류의 분류 중, 스텝 S4의 처리에서 「특정의 출력」에 대응한다고 생각된 일부의 분류 중 어느 것이라고 판정되는지의 출력을 얻는 처리이다.After the processing of step S5, the second-stage verification processing (first time) is performed (step S6). In the processing of step S6, the
또한, 후술하는 스텝 S7의 처리 전에, 스텝 S6의 처리에 의해 얻어진 출력에 기초한, 스텝 S5의 처리에 의한 기계 학습으로의 피드백이 행해져도 된다. 즉, 스텝 S6의 처리에 기초하여, 스텝 S5의 처리에 의한 기계 학습의 정밀도 향상이 도모되어도 된다.Additionally, before the processing of step S7 described later, feedback to machine learning by the processing of step S5 based on the output obtained by the processing of step S6 may be performed. In other words, based on the processing in step S6, the accuracy of machine learning may be improved by the processing in step S5.
스텝 S6의 처리 후, 스텝 S4의 처리에서 추출된, 특정의 출력(검증 결과)이 얻어진 검증 데이터를 사용한 2단계째의 검증 처리(2회째)가 행해진다(스텝 S7). 스텝 S7의 처리는, 연산부(21)가, 스텝 S4의 처리에서 추출된 검증 데이터를 기계 학습부(70)로의 입력으로 하여, 스텝 S5의 처리에 의한 기계 학습 및 스텝 S6의 처리에 의한 검증 처리(1회째)를 거친 기계 학습부(70)의 출력을 얻는 처리이다. 즉, 스텝 S7의 처리는, 스텝 S4의 처리에서 추출된, 특정의 출력(검증 결과)이 얻어진 검증 데이터의 화상이, 기계 학습부(70)에 의해, 도 3을 참조하여 설명한 8종류의 분류 중, 스텝 S4의 처리에서 「특정의 출력」에 대응한다고 생각된 일부의 분류 중 어느 것이라고 판정되는지의 출력을 얻는 처리이다. 스텝 S7의 처리에 의해 얻어지는 출력을, 도 10에서는, 출력 OP2로서 나타내고 있다.After the processing in step S6, a second-stage verification process (second time) is performed using the verification data extracted in the process in step S4 and from which a specific output (verification result) was obtained (step S7). In the processing of step S7, the
스텝 S7의 처리 후, 2단계째의 검증 처리(2회째)에서 얻어진 출력과, 1단계째의 검증 처리에서 얻어진 출력 중 특정의 출력(검증 결과)이 아닌 출력을 합한 것을 최종적인 출력으로 하는 처리가 행해진다(스텝 S8). 스텝 S8의 처리에서는, 연산부(21)가, 스텝 S7의 처리에서 얻어진 출력과, 스텝 S3의 처리에서 얻어진 출력 중 스텝 S4의 처리에 의한 추출의 대상이 되지 않은 검증 데이터를 입력으로 하여 얻어진 출력을 통합하고, 통합된 것을 기계 학습부(70)의 최종적인 출력으로 한다. 스텝 S8의 처리에 의해 얻어지는 출력을, 도 10에서는, 출력 OP3으로서 나타내고 있다.After processing in step S7, the final output is the sum of the output obtained in the second-stage verification process (second time) and the output that is not a specific output (verification result) among the outputs obtained in the first-stage verification process. is performed (step S8). In the process of step S8, the
또한, 한정적 분류 처리부(62)에 의한 검증 기능이 교차 검증인 경우, 교차 검증에서 발생하는 데이터 세트의 수에 따라서 스텝 S2 내지 스텝 S7이 반복된다. 데이터 세트의 수는, 예를 들어 데이터 세트 DSS1의 경우, 데이터 세트 DSa, …, 데이터 세트 DSe가 대상이 되기 때문에, 5이다.Additionally, when the verification function by the limited
이하, 복수 단계 처리의 적용의 유무에 의한 기계 학습의 정밀도의 변화에 대하여, 도 11 내지 도 14를 참조하여 설명한다. 도 11 내지 도 14를 참조한 설명에서는, 데이터 세트 DS1, DS2, …, DS8의 각 데이터 세트 DS가, 1000의 화상 데이터를 포함하고(m=1000), 또한, 1000의 화상 데이터 중 800이 교사 데이터로서 취급되고, 200이 검증 데이터(판정 대상수)로서 취급된 경우를 예로 하고 있다. 또한, 도 11 내지 도 14의 표에 있어서의 「정답수」는, 도 8에 있어서의 TP에 대응한다. 또한, 도 11 내지 도 14의 표에 있어서의 「예측 정밀도」는, 각 분류에 해당하는 검증 데이터의 수(실제의 클래스의 수)에 대한 정답수의 비율이며, 상술한 재현율에 해당한다.Hereinafter, the change in precision of machine learning depending on whether or not multi-step processing is applied will be explained with reference to FIGS. 11 to 14. In the description with reference to FIGS. 11 to 14, data sets DS1, DS2,... , each data set DS of DS8 contains 1000 image data (m=1000), and among the 1000 image data, 800 are treated as teacher data and 200 are treated as verification data (number of judgment targets). is given as an example. In addition, the “number of correct answers” in the tables of Figs. 11 to 14 corresponds to TP in Fig. 8. In addition, “prediction precision” in the tables of FIGS. 11 to 14 is the ratio of the number of correct answers to the number of verification data (actual number of classes) corresponding to each classification, and corresponds to the recall rate described above.
도 11은 참조 데이터(223)에 포함되는 검증 데이터의 실제의 클래스와, 도 9를 참조하여 설명한 스텝 S3의 처리에 의한 1회째의 검증 처리의 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다. 먼저, 도 11에 도시한 예에서, 실제의 클래스가 「양품」이지만 예측된 클래스가 「양품」 이외라고 생각된 FN(44/200)에 대하여 설명한다. 당해 FN 중, 예측된 클래스가 「경사 불균일」로 된 것(21/44)은 당해 FN의 절반 가까이나 있어, 당해 FN에 있어서 다른 분류로 된 것의 각각의 수에 비해 유의미하게 크다. 다음으로, 도 11에 도시한 예에서, 실제의 클래스와 예측된 클래스가 일치하고 있는 TP에 대하여 설명한다. 「경사 불균일」의 TP(111/200)는, 다른 분류의 TP에 비해 현저하게 작다. 다음으로, 도 11에 도시한 예에서, 실제의 클래스가 「경사 불균일」이지만 예측된 클래스가 「경사 불균일」 이외라고 생각된 FN(89/200)에 대하여 설명한다. 당해 FN 중, 예측된 클래스가 「양품」으로 된 것(62/89)은 당해 FN의 절반을 초과하여, 당해 FN에 있어서 다른 분류로 된 것의 각각의 수에 비해 유의미하게 크다.FIG. 11 is a diagram showing the correspondence between the actual class of verification data included in the
도 12는 도 9를 참조하여 설명한 스텝 S6의 처리에서 기계 학습부(70)에 입력된 「특정의 출력에 대응하는 참조 데이터」에 포함되는 검증 데이터의 실제의 클래스와, 당해 스텝 S6의 처리에 의한 2회째의 검증 처리(1회째)의 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다. 도 11과 도 12의 비교로 나타내는 바와 같이, 실제의 클래스 및 예측된 클래스를 「양품」과 「경사 불균일」로 한정함으로써, 실제의 클래스와 예측된 클래스의 일치의 정도를 보다 높일 수 있다. 구체적으로는, 도 11에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「양품」인 것은 156/200이며, 이것을 예측 정밀도로 환산하면 78.0%이다. 이에 반해, 도 12에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「양품」인 것은 180/200이며, 이것을 예측 정밀도로 환산하면 90.0%이다. 또한, 도 11에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「경사 불균일」인 것은 111/200이며, 이것을 예측 정밀도로 환산하면 55.5%이다. 이에 반해, 도 12에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「경사 불균일」인 것은 160/200이며, 이것을 예측 정밀도로 환산하면 80.0%이다.FIG. 12 shows the actual class of verification data included in the “reference data corresponding to a specific output” input to the
도 13은 도 9를 참조하여 설명한 스텝 S4의 처리에서 추출되어 스텝 S7의 처리에서 기계 학습부(70)에 입력된 검증 데이터의 실제의 클래스와, 당해 스텝 S7의 처리에 의한 2회째의 검증 처리(2회째)의 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다. 도 11과 도 13의 비교로 나타내는 바와 같이, 실제의 클래스 및 예측된 클래스를 「양품」과 「경사 불균일」로 한정함으로써, 실제의 클래스와 예측된 클래스의 일치의 정도를 보다 높일 수 있다. 구체적으로는, 도 11에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「양품」인 것은 156/200이며, 이것을 예측 정밀도로 환산하면 78.0%이다. 이에 반해, 도 13에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「양품」인 것은 159/177이며, 이것을 예측 정밀도로 환산하면 89.8%이다. 또한, 도 11에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「경사 불균일」인 것은 111/200이며, 이것을 예측 정밀도로 환산하면 55.5%이다. 이에 반해, 도 13에 도시한 예에 있어서, 실제의 클래스와 예측된 클래스가 모두 「양품」인 것은 140/173이며, 이것을 예측 정밀도로 환산하면 80.9%이다.FIG. 13 shows the actual class of verification data extracted from the process of step S4 explained with reference to FIG. 9 and input to the
도 14는 참조 데이터(223)에 포함되는 검증 데이터의 실제의 클래스와, 도 9를 참조하여 설명한 스텝 S8의 처리에 의해 얻어진 최종적인 출력(예측된 클래스)의 대응 관계를 도시하는 도면이다. 도 14에 도시한 표는, 도 11에 도시한 표에 포함되는 각종의 값 중, 일부의 값이 도 13에 도시한 표에 포함되는 값에 의해 갱신된 것이다. 당해 일부의 값의 갱신에 의해, 도 13에 도시한 값 중, 「양품」의 TP(159)와, 「양품」의 FN, 즉, 실제의 클래스가 「양품」이지만 예측된 클래스가 「경사 불균일」인 것(18)과, 「경사 불균일」의 TP(140)와, 「경사 불균일」의 FN, 즉, 실제의 클래스가 「경사 불균일」이지만 예측된 클래스가 「양품」인 것(33)이 반영되어 있다.FIG. 14 is a diagram showing the correspondence between the actual class of verification data included in the
도 11과 도 14의 비교로 나타내는 바와 같이, 스텝 S8의 처리에 의해 얻어지는 최종적인 출력은, 1회째의 검증 처리의 출력에 비해, 「양품」 및 「경사 불균일」의 예측 정밀도가 높아져 있다. 따라서, 기계 학습을 이용한 예측 정밀도 전반에서 본 경우라도, 당연히, 스텝 S8의 처리에 의해 얻어지는 최종적인 출력은, 1회째의 검증 처리의 출력에 비해, 예측 정밀도가 높아져 있다.As shown in the comparison of Fig. 11 and Fig. 14, the final output obtained by the process of step S8 has higher prediction accuracy for “good product” and “slope unevenness” compared to the output of the first verification process. Therefore, even when looking at the overall prediction accuracy using machine learning, naturally, the final output obtained by the process in step S8 has a higher prediction accuracy compared to the output of the first verification process.
도 9 내지 도 14를 참조하여 설명한 바와 같이, 기계 학습에 있어서 한정적 분류 처리부(62)에 의한 복수 단계 처리를 적용함으로써, 예측 정밀도, 즉, 실제의 클래스와 예측된 클래스의 일치의 정도를 보다 높일 수 있다. 한정적 분류 처리부(62)에 의한 복수 단계 처리는, 기계 학습뿐만 아니라, 기계 학습을 이용한 화상 데이터의 분류 판정에도 적용할 수 있다. 이하, 기계 학습을 이용한 화상 데이터의 분류 판정에 복수 단계 처리가 적용된 기계 학습부(70)에 의한 판정 처리의 흐름에 대하여, 도 15를 참조하여 설명한다. 또한, 기계 학습을 이용한 화상 데이터의 분류 판정은, 도 9 내지 도 14를 참조하여 설명한 기계 학습 후에 행해진다. 또한, 도 10에서는, 도 15에 기초한 판정 대상 화상 데이터(100)의 입력의 흐름을 파선으로 나타내고 있다.As explained with reference to FIGS. 9 to 14, by applying multi-step processing by the limited
도 15는 기계 학습을 이용한 화상 데이터의 분류 판정에 복수 단계 처리가 적용된 기계 학습부(70)에 의한 판정 처리의 흐름을 나타내는 흐름도이다. 먼저, 판정 대상 화상 데이터(100)의 취득이 행해진다(스텝 S11). 구체적으로는, 취득부(40)가, 외부의 기기로부터 판정 대상 화상 데이터(100)를 취득하여, 연산부(21)에 출력한다.Fig. 15 is a flowchart showing the flow of decision processing by the
스텝 S11의 처리 후, 화상 처리부(51)에 의한 화상 처리가 행해진다(스텝 S12). 구체적으로는, 도 4를 참조하여 설명한 바와 같이, 화상 처리부(51)가 판정 대상 화상 데이터(100)에 포함되는 화상 데이터의 화상의 콘트라스트를 보다 강조하는 화상 처리를 행한다.After the processing in step S11, image processing is performed by the image processing unit 51 (step S12). Specifically, as explained with reference to FIG. 4, the
스텝 S12의 처리 후, 기계 학습부(70)에 의한 1단계째의 판정 처리가 행해진다(스텝 S13). 스텝 S13의 처리는, 연산부(21)가, 판정 대상 화상 데이터(100)에 포함되는 화상 데이터를 기계 학습부(70)로의 입력으로 하여, 도 9를 참조하여 설명한 기계 학습이 반영된 기계 학습부(70)의 출력을 얻는 처리이다. 즉, 스텝 S13의 처리는, 판정 대상 화상 데이터(100)에 포함되는 화상 데이터의 화상이, 기계 학습부(70)에 의해, 도 3을 참조하여 설명한 8종류의 분류 중 어느 것이라고 판정되는지의 출력을 얻는 처리이다.After the processing in step S12, the first stage of judgment processing is performed by the machine learning unit 70 (step S13). In the processing of step S13, the
스텝 S13의 처리 후, 한정적 분류 처리부(62)가, 1단계째의 판정 처리에 있어서 특정의 출력(판정 결과)이 얻어진 판정 대상 화상 데이터(100)를 추출한다(스텝 S14). 스텝 S14의 처리에서 추출되는 검증 데이터는, 스텝 S13의 처리에서 기계 학습부(70)로의 입력으로서 취급된 판정 대상 화상 데이터(100)에 포함되는 화상 데이터의 일부 또는 전부이며, 도 3을 참조하여 설명한 8종류의 분류 중 일부의 분류(예를 들어, 「양품」 또는 「경사 불균일」)라고 판정된 것을 나타내는 출력이 얻어진 화상 데이터이다. 즉, 「특정의 출력」이란, 당해 일부의 분류라고 판정된 것을 나타내는 출력을 가리킨다.After the processing in step S13, the limited
스텝 S14의 처리 후, 스텝 S14의 처리에서 추출된 특정의 출력에 대응하는 화상 데이터를 사용한 2단계째의 판정 처리가 행해진다(스텝 S15). 스텝 S15의 처리는, 스텝 S14의 처리에서 추출된, 특정의 출력(판정 결과)이 얻어진 화상 데이터의 화상이, 기계 학습부(70)에 의해, 도 3을 참조하여 설명한 8종류의 분류 중, 스텝 S14의 처리에서 「특정의 출력」에 대응한다고 생각된 일부의 분류 중 어느 것이라고 판정되는지의 출력을 얻는 처리이다.After the process in step S14, a second-stage determination process is performed using image data corresponding to the specific output extracted in the process in step S14 (step S15). In the process of step S15, the image of the image data extracted in the process of step S14 and for which a specific output (judgment result) has been obtained is classified by the
스텝 S15의 처리 후, 2단계째의 판정 처리에서 얻어진 출력과, 1단계째의 판정 처리에서 얻어진 출력 중 특정의 출력(검증 결과)이 아닌 출력을 합한 것을 최종적인 출력으로 하는 처리가 행해진다(스텝 S16). 스텝 S16의 처리에서는, 연산부(21)가, 스텝 S15의 처리에서 얻어진 출력과, 스텝 S13의 처리에서 얻어진 출력 중 스텝 S14의 처리에 의한 추출의 대상이 되지 않은 화상 데이터를 입력으로 하여 얻어진 출력을 통합하고, 통합된 것을 기계 학습부(70)의 최종적인 출력으로 한다.After the processing in step S15, processing is performed in which the final output is the sum of the output obtained in the second-stage judgment processing and the output that is not a specific output (verification result) among the outputs obtained in the first-stage judgment processing. Step S16). In the processing of step S16, the
도 15를 참조하여 설명한 처리의 흐름을 거침으로써, 단순히 기계 학습을 이용하여 판정 대상 화상 데이터(100)에 포함되는 화상 데이터의 화상을 분류하는 경우에 비해, 도 11 내지 도 14를 참조하여 설명한 경우와 마찬가지로, 분류의 정밀도를 보다 높일 수 있다.By going through the processing flow described with reference to FIG. 15 , compared to the case where images of image data included in the judgment
또한, 도 4를 참조한 설명에서는, 콘트라스트 강조 전후의 계조값의 관계를 나타내는 그래프로서 그래프 L1, L2, L3을 예시하고 있지만, 콘트라스트 강조 전후의 계조값의 관계는, 이들에 한정되는 것은 아니다.In addition, in the description with reference to FIG. 4, graphs L1, L2, and L3 are exemplified as graphs showing the relationship between gray level values before and after contrast enhancement, but the relationship between gray level values before and after contrast enhancement is not limited to these.
도 16은 콘트라스트 강조 전의 화소의 계조값과, 콘트라스트 강조 후의 화소의 계조값의 관계를 나타내는 그래프이다. 화상 처리부(51)는, 예를 들어 도 16에 도시한 그래프 L11, L12, L13 중 어느 것과 같이 나타낼 수 있는 콘트라스트 강조 전후의 관계가 되도록, 화상에 포함되는 복수의 화소의 각각의 계조값을 변경함으로써, 화상의 콘트라스트를 보다 강조하도록 해도 된다.Figure 16 is a graph showing the relationship between the grayscale value of the pixel before contrast enhancement and the grayscale value of the pixel after contrast enhancement. The
또한, 스텝 S12의 처리에서 화상 처리부(51)가 행하는 화상 처리, 즉, 콘트라스트 강조는, 상술한 식 (1)에 대응한 것에 한정되지는 않는다. 이하, 화상 처리부(51)가 행하는 콘트라스트 강조의 보다 발전적인 사고 방식에 대하여 설명하지만, 그 전제로서, 「경사 불균일」의 표시 패널을 촬상한 화상의 계조값의 분포와, 「양품」의 표시 패널을 촬상한 화상의 계조값의 분포의 관계에 대하여, 도 17을 참조하여 설명한다.In addition, the image processing performed by the
도 17은 「경사 불균일」의 표시 패널을 촬상한 화상의 계조값의 분포와, 「양품」의 표시 패널을 촬상한 화상의 계조값의 분포의 관계를 도시하는 도면이다. 히스토그램 Hs1은, 「경사 불균일」의 표시 패널을 촬상한 1개의 화상에 포함되는 화소의 계조값을 나타내는 히스토그램이다. 히스토그램 Hs1을 포함하여, 실시 형태의 설명에서 참조하는 히스토그램은, 화상에 포함되는 화소의 계조값의 범위(0부터, 계조값의 비트수로 나타낼 수 있는 최댓값까지의 범위)를 횡축 방향에서 나타내고, 각 계조값의 화소수를 종축 방향에서 나타내고 있다. 히스토그램 Hs2는, 「양품」의 표시 패널을 촬상한 1개의 화상에 포함되는 화소의 계조값을 나타내는 히스토그램이다. 히스토그램 Hs3은, 「양품」의 표시 패널이며 히스토그램 Hs2의 것과는 다른 표시 패널을 촬상한 1개의 화상에 포함되는 화소의 계조값을 나타내는 히스토그램이다. 또한, 도 17에 도시한 각 히스토그램은, 화상 처리부(51)에 의한 화상 처리가 행해지기 전의 화상의 계조값을 나타내는 히스토그램이다.FIG. 17 is a diagram showing the relationship between the distribution of grayscale values in an image captured of a display panel with “uneven tilt” and the distribution of grayscale values in an image captured with a display panel of “defective product.” The histogram Hs1 is a histogram showing the gray scale value of the pixel included in one image captured of the display panel with “slant unevenness.” The histograms referred to in the description of the embodiment, including the histogram Hs1, represent the range of gradation values of pixels included in the image (range from 0 to the maximum value that can be expressed by the number of bits of the gradation value) in the horizontal axis direction, The number of pixels for each gray level value is shown in the vertical axis direction. The histogram Hs2 is a histogram showing the grayscale values of pixels included in one image captured of a “good quality” display panel. The histogram Hs3 is a histogram showing the gray level values of pixels included in one image taken of a display panel of a “good quality” display panel and different from that of the histogram Hs2. Additionally, each histogram shown in FIG. 17 is a histogram showing the gray scale value of the image before image processing by the
도 17의 히스토그램 Hs2, Hs3으로 나타내는 바와 같이, 백색 또는 중간조의 솔리드 화상을 표시하고 있는 「양품」의 표시 패널을 촬상한 화상의 계조값의 분포는, 계조값의 최빈 출현도에 대응하는 히스토그램의 산이 현저하게 발생한다. 당해 히스토그램의 산이 갖는 계조값의 변동폭(산의 최저 계조값과 최고 계조값의 차)은, 대략, 화소의 비트수(화소가 취할 수 있는 계조값의 최저 계조값과 최고 계조값의 차)의 1할 미만인 경우가 많다. 예를 들어, 화소의 비트수가 8비트이면, 계조값이 0 내지 255의 값을 취한다. 한편, 당해 히스토그램의 산의 계조값의 변동폭이 25를 초과하는 경우는 적다.As shown by the histograms Hs2 and Hs3 in FIG. 17, the distribution of gray scale values in an image taken of a “good product” display panel displaying a solid image in white or halftone is the histogram corresponding to the mode of occurrence of the gray scale values. Acid is produced significantly. The fluctuation range of the gray level value of the mountain of the histogram (the difference between the lowest gray level value and the highest gray level value of the mountain) is approximately equal to the number of bits of the pixel (the difference between the lowest gray level value and the highest gray level value that the pixel can take). In many cases, it is less than 10%. For example, if the number of bits of a pixel is 8 bits, the grayscale value takes a value of 0 to 255. On the other hand, there are few cases where the fluctuation range of the gray level value of the mountains of the histogram exceeds 25.
한편, 히스토그램 Hs1과 같이 「경사 불균일」로 분류되는 표시 패널을 촬상한 화상에서는, 계조값의 최빈 출현도에 대응하는 히스토그램의 산에 대응하는 계조값에 대하여 상대적으로 낮은 저계조값대 F11에 포함되는 계조값의 화소의 수가 무시할 수 없을 정도로 유의미하게 발생한다. 또한, 히스토그램 Hs1에서는, 히스토그램의 산을 사이에 두고 저계조값대 F11과 반대측, 즉, 히스토그램의 산에 대응하는 계조값에 대하여 상대적으로 높은 고계조값대 F12에 포함되는 화소는 거의 또는 전혀 없지만, 주위보다도 상대적으로 높은 휘도로 시인되는 경사 불균일이 발생한 표시 패널의 경우, 고계조값대 F12에 포함되는 화소가 발생하게 된다.On the other hand, in an image captured of a display panel classified as “slope non-uniformity” such as histogram Hs1, the low gray level value range F11 is relatively low with respect to the gray level value corresponding to the mountain of the histogram corresponding to the mode of occurrence of the gray level value. The number of pixels with a gray level value occurs so significantly that it cannot be ignored. Additionally, in the histogram Hs1, there are few or no pixels included in the high gray-scale value range F12, which is relatively high with respect to the gray-scale value corresponding to the mountain of the histogram, on the side opposite to the low-gradation value range F11 across the mountain of the histogram, but there are few or no pixels in the surrounding area. In the case of a display panel in which tilt unevenness, which is visible at a relatively higher luminance, occurs, pixels included in the high grayscale value range F12 occur.
또한, 히스토그램 Hs2에 있어서의 저계조값대 F21 및 고계조값대 F22 그리고 히스토그램 Hs3에 있어서의 저계조값대 F31 및 고계조값대 F32에 포함되는 화소는 거의 또는 전혀 없다. 바꿔 말하면, 히스토그램 Hs1과 히스토그램 Hs2의 차이는, 히스토그램 Hs1에서는 저계조값대 F11에 포함되는 화소가 유의미하게 존재하지만, 히스토그램 Hs2에서는 저계조값대 F21에 포함되는 화소가 거의 또는 전혀 없다고 하는 것이다. 저계조값대 F11, F21, F31 및 고계조값대 F12, F22, F32와 같은 「히스토그램의 끝단」은, 예를 들어 히스토그램의 산을 중심으로 하여 화소의 비트수의 3할 이내의 계조값 범위에 들어간다.Additionally, there are few or no pixels included in the low gray scale value range F21 and the high gray scale value range F22 in the histogram Hs2, and the low gray scale value range F31 and the high gray scale value range F32 in the histogram Hs3. In other words, the difference between histogram Hs1 and histogram Hs2 is that in histogram Hs1, there are significantly pixels included in the low gray level value range F11, but in histogram Hs2, there are few or no pixels included in the low gray level value range F21. The “ends of the histogram,” such as the low-gradation value range F11, F21, and F31 and the high-gradation value range F12, F22, and F32, are within a range of gradation values within 30% of the number of pixel bits, for example, centered on the peak of the histogram. .
도 17에서는, 저계조값대 F11과 저계조값대 F21이 거의 동일한 계조값대인 것을 나타내는 것을 목적으로 하여, 저계조값대 F11의 최저 계조값과 저계조값대 F21의 최저 계조값을 연결하는 파선 F1a와, 저계조값대 F11의 최고 계조값과 저계조값대 F21의 최고 계조값을 연결하는 파선 F1b를 도시하고 있다. 또한, 고계조값대 F12와 고계조값대 F22가 거의 동일한 계조값대인 것을 나타내는 것을 목적으로 하여, 고계조값대 F12의 최저 계조값과 고계조값대 F22의 최저 계조값을 연결하는 파선 F2a와, 고계조값대 F12의 최고 계조값과 고계조값대 F22의 최고 계조값을 연결하는 파선 F2b를 도시하고 있다. 파선 F1a, F1b, F2a, F2b는, 그래프의 종축을 거의 따른다.In Figure 17, for the purpose of showing that the low gray scale value range F11 and the low gray scale value range F21 are almost the same gray scale value range, there is a dashed line F1a connecting the lowest gray scale value of the low gray scale value band F11 and the lowest gray scale value of the low gray scale value band F21; A broken line F1b is shown connecting the highest gray level value of the low gray level value range F11 and the highest gray level value of the low gray level value range F21. In addition, for the purpose of showing that the high gray scale value range F12 and the high gray scale value range F22 are almost the same gray scale value range, a dashed line F2a connecting the lowest gray scale value of the high gray scale value range F12 and the lowest gray scale value of the high gray scale value range F22, and a high gray scale A dashed line F2b is shown connecting the highest gray level value of the value range F12 and the highest gray level value of the high gray level value range F22. The dashed lines F1a, F1b, F2a, and F2b almost follow the vertical axis of the graph.
여기서, 히스토그램 Hs2와 히스토그램 Hs3을 비교하면, 히스토그램 Hs3은, 히스토그램 Hs2보다도 히스토그램의 산이 전체적으로 저계조값측으로 어긋나 있다. 이와 같이, 분류상은 동일한 「양품」으로서 취급되는 표시 패널이라도, 표시 패널마다 계조값의 경향이 다른 개체차가 있다. 이와 같은 개체차를 나타내는 복수의 표시 패널을 촬상한 복수의 화상의 콘트라스트 강조로 식 (1)에 기초한 변경 후의 계조값(y)의 산출을 행한 경우, b의 값에 따라서는, 히스토그램 Hs1에 있어서 저계조값대 F11에 포함되는 화소가 있는 것과, 히스토그램 Hs3에 있어서 저계조값대 F31에 포함되는 화소가 없는 것의 구별을 명확하게 하는 것이 곤란한 화상이 발생하는 경우가 있다.Here, when comparing histogram Hs2 and histogram Hs3, the mountains of histogram Hs3 are overall shifted toward lower gradation values than those of histogram Hs2. In this way, even if the display panels are treated as “good products” in the same classification, there are individual differences in the gray scale values for each display panel. When calculating the gray scale value (y) after change based on equation (1) by contrast enhancement of a plurality of images captured from a plurality of display panels showing such individual differences, depending on the value of b, in the histogram Hs1 There are cases where an image occurs in which it is difficult to clearly distinguish between pixels included in the low gradation value range F11 and those without pixels included in the low gradation value range F31 in the histogram Hs3.
따라서, 화상 처리부(51)는, 상술한 식 (1) 대신에, 이하의 식 (2)에 기초하여 콘트라스트 강조를 행해도 된다. 식 (2)에 기초한 콘트라스트 강조에 의하면, 식 (1)에 비해, 상술한 「히스토그램의 끝단」에 포함되는 화소가 유의미하게 존재하는지를 보다 명확하게 구별하기 쉬워진다. 식 (1)과 식 (2)의 차이 및 식 (2)의 gain_1, gain_2, Inflection_1, Inflection_2, height_1에 대하여, 도 18을 참조하여 설명한다.Therefore, the
도 18은 식 (1)과 식 (2)의 차이 및 식 (2)에 대응한 그래프와 gain_1, gain_2, Inflection_1, Inflection_2, height_1, height_2의 관계를 도시하는 도면이다. 도 18에 도시한 그래프 L21은, 식 (1)에 기초한 콘트라스트 강조 전후의 계조값의 관계를 나타내는 그래프이며, 식 (1)에 대응한 그래프이다. 그래프 L21은, 식 (1)에 a=0.05, b=128을 적용한 것이다. 또한, 그래프 L22는, 식 (2)에 기초한 콘트라스트 강조 전후의 계조값의 관계를 나타내는 그래프이며, 식 (2)에 대응한 그래프이다.Figure 18 is a diagram showing the difference between equation (1) and equation (2) and the relationship between the graph corresponding to equation (2) and gain_1, gain_2, Inflection_1, Inflection_2, height_1, and height_2. Graph L21 shown in FIG. 18 is a graph showing the relationship between gray scale values before and after contrast enhancement based on equation (1), and is a graph corresponding to equation (1). Graph L21 is obtained by applying a=0.05 and b=128 to equation (1). Additionally, graph L22 is a graph showing the relationship between gray scale values before and after contrast enhancement based on equation (2), and is a graph corresponding to equation (2).
도 18에 도시한 바와 같이, 그래프 L22는, 2개의 변곡점을 갖는다. 2개의 변곡점 중 한쪽이, 횡축 방향에 대하여 Inflection_1의 위치에 있다. 당해 2개의 변곡점 중 다른 쪽이, 횡축 방향에 대하여 Inflection_2의 위치에 있다. 바꿔 말하면, Inflection_1, Inflection_2의 값은, 식 (2)에 기초한 콘트라스트 강조에 있어서의 당해 2개의 변곡점의 설정을 반영한 것이다. 여기서, Inflection_2는, Inflection_1보다도 크다. gain_1은, 당해 2개의 변곡점 중 한쪽의 기울기의 크기를 나타낸다. gain_2는, 당해 2개의 변곡점 중 다른 쪽의 기울기의 크기를 나타낸다. gain_1 및 gain_2는, 상술한 a와 마찬가지의 값이다. height_1은, 당해 2개의 변곡점 중 한쪽에 의한 콘트라스트 강조 후의 계조값의 상한값 및 당해 2개의 변곡점 중 다른 쪽에 의한 콘트라스트 강조 후의 계조값의 하한값을 나타낸다. 또한, 당해 2개의 변곡점 중 한쪽에 의한 콘트라스트 강조 후의 계조값의 하한값은, 0이다. 또한, 당해 2개의 변곡점 중 다른 쪽에 의한 콘트라스트 강조 후의 계조값의 상한값은, 화소의 최고 계조값이다. Inflection_1, Inflection_2, height_1은, 화소의 계조값이 취할 수 있는 값을 취하고, 일반적으로 0 이상의 정수이다.As shown in FIG. 18, graph L22 has two inflection points. One of the two inflection points is at the position of Inflection_1 with respect to the horizontal axis direction. The other of the two inflection points is at the position of Inflection_2 with respect to the horizontal axis direction. In other words, the values of Inflection_1 and Inflection_2 reflect the settings of the two inflection points in contrast enhancement based on equation (2). Here, Inflection_2 is larger than Inflection_1. gain_1 represents the size of the slope of one of the two inflection points. gain_2 represents the magnitude of the slope of the other of the two inflection points. gain_1 and gain_2 are the same values as a described above. height_1 represents the upper limit of the gradation value after contrast enhancement by one of the two inflection points and the lower limit of the gradation value after contrast enhancement by the other of the two inflection points. Additionally, the lower limit of the grayscale value after contrast enhancement by one of the two inflection points is 0. Additionally, the upper limit of the gray scale value after contrast enhancement by the other of the two inflection points is the highest gray scale value of the pixel. Inflection_1, Inflection_2, and height_1 take values that the grayscale value of the pixel can take, and are generally integers greater than 0.
도 18에서는, gain_1=0.5, gain_2=0.5, Inflection_1=90, Inflection_2=135, height_1=128이다. 또한, 도 8에서는, height_2=(255-height_1)=127로서 나타내고 있다.In Figure 18, gain_1=0.5, gain_2=0.5, Inflection_1=90, Inflection_2=135, height_1=128. Additionally, in Figure 8, it is shown as height_2=(255-height_1)=127.
도 18에 도시한 히스토그램 Hs4는, 「양품」으로 분류되는 표시 패널을 촬상한 화상의 히스토그램이다. 도 18에 도시한 바와 같이, Inflection_1의 값에 대응하는 계조값을 하한으로 하고, Inflection_2의 값에 대응하는 계조값을 상한으로 하는 계조값 범위에, 「양품」으로 분류되는 표시 패널을 촬상한 화상의 히스토그램의 산이 충분히 들어가는 계조값 범위가 되도록, Inflection_1 및 Inflection_2가 설정되는 것이 바람직하다.The histogram Hs4 shown in FIG. 18 is a histogram of an image captured of a display panel classified as a “good product.” As shown in FIG. 18, an image captured of a display panel classified as “good product” in a gradation value range with the gradation value corresponding to the value of Inflection_1 as the lower limit and the gradation value corresponding to the value of Inflection_2 as the upper limit. It is desirable that Inflection_1 and Inflection_2 are set so that the grayscale value range sufficiently includes the peaks of the histogram.
도 19는 「양품」으로 분류되는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다. 도 19에 도시한 처리 전 화상 Be1은, 화상 처리부(51)에 의한 화상 처리 전의 화상이다. 히스토그램 Hs5는, 처리 전 화상 Be1에 포함되는 화소의 계조값의 분포를 나타내는 히스토그램이다. 처리 후 화상 Af11은, 처리 전 화상 Be1에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L21이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 처리 후 화상 Af12는, 처리 전 화상 Be1에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L31이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 그래프 L31은, 식 (2)에 대응한 그래프이며, gain_1=0.5, gain_2=0.5, Inflection_1=80, Inflection_2=140, height_1=128이다.FIG. 19 is a diagram showing an image captured of a display panel classified as a “defective product” and an example of application of image processing to the image. The image before processing Be1 shown in FIG. 19 is an image before image processing by the
도 20은 「주사선 불량」 및 「신호선 불량」의 양쪽에 해당하는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다. 도 20에 도시한 처리 전 화상 Be2는, 화상 처리부(51)에 의한 화상 처리 전의 화상이다. 히스토그램 Hs6은, 처리 전 화상 Be2에 포함되는 화소의 계조값의 분포를 나타내는 히스토그램이다. 처리 후 화상 Af21은, 처리 전 화상 Be2에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L21이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 처리 후 화상 Af22는, 처리 전 화상 Be2에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L41이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 그래프 L41은, 식 (2)에 대응한 그래프이며, gain_1=0.5, gain_2=0.5, Inflection_1=90, Inflection_2=140, height_1=128이다.FIG. 20 is a diagram showing an image captured of a display panel corresponding to both “scanning line defects” and “signal line defects” and an example of application of image processing to the image. The image before processing Be2 shown in FIG. 20 is an image before image processing by the
도 20에 도시한 처리 후 화상 Af21은, 전체적으로 어둡게 되어 버려, 콘트라스트 강조 전의 처리 전 화상 Be2에 비해 주사선 불량을 나타내는 흑색 영역 BA의 확인이 보다 곤란하게 되어 있다. 한편, 처리 후 화상 Af22는, 전체적으로 밝게 되어, 주사선 불량을 나타내는 흑색 영역 BA의 확인이 보다 용이하게 되어 있다. 또한, 처리 후 화상 Af22는, 신호선 불량을 나타내는 백색 영역 WA의 확인도 충분히 행할 수 있는 상태이다. 또한, 도 19에서 도시한 바와 같이, 「양품」인 것의 확인에 관해서도, 식 (2)에는 문제가 없다. 이와 같이, 식 (2)에 기초한 콘트라스트 강조를 행함으로써, 화상의 명암에 기초한 「양품」과, 「양품」 이외의 분류를 보다 행하기 쉬워진다.The post-processed image Af21 shown in FIG. 20 becomes dark overall, making it more difficult to confirm the black area BA indicating scanning line defects compared to the pre-processed image Be2 before contrast enhancement. On the other hand, the post-processed image Af22 becomes brighter overall, making it easier to confirm the black area BA indicating scanning line defects. Additionally, the post-processed image Af22 is in a state in which it is possible to sufficiently confirm the white area WA indicating a signal line defect. Additionally, as shown in FIG. 19, there is no problem with equation (2) regarding confirmation of a “good product.” In this way, by performing contrast enhancement based on equation (2), it becomes easier to classify things other than "good quality" and "good quality" based on the light and dark of the image.
또한, height_1의 값을, 화소의 최고 계조값과 동치로 한 경우, gain_2 및 Inflection_2는 실질적으로 기능하지 않는다. 즉, 이 경우, 식 (2)는, 실질적으로식 (1)과 마찬가지로 기능한다.Additionally, when the value of height_1 is set to be equal to the highest gray level value of the pixel, gain_2 and Inflection_2 do not actually function. That is, in this case, equation (2) functions substantially the same as equation (1).
도 21은 「경사 불균일」로 분류되는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다. 도 21에 도시한 처리 전 화상 Be3은, 화상 처리부(51)에 의한 화상 처리 전의 화상이다. 히스토그램 Hs7은, 처리 전 화상 Be3에 포함되는 화소의 계조값의 분포를 나타내는 히스토그램이다. 처리 후 화상 Af31은, 처리 전 화상 Be3에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L21이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 처리 후 화상 Af32는, 처리 전 화상 Be3에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L51이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 그래프 L51은, 식 (2)에 대응한 그래프이며, gain_1=1, Inflection_1=100, height_1=255이다.FIG. 21 is a diagram showing an image captured of a display panel classified as “inclined tilt,” and an example of application of image processing to the image. The image before processing Be3 shown in FIG. 21 is an image before image processing by the
도 22는 「백색 불균일」로 분류되는 표시 패널을 촬상한 화상과, 당해 화상으로의 화상 처리의 적용예를 도시하는 도면이다. 도 22에 도시한 처리 전 화상 Be4는, 화상 처리부(51)에 의한 화상 처리 전의 화상이다. 히스토그램 Hs8은, 처리 전 화상 Be4에 포함되는 화소의 계조값의 분포를 나타내는 히스토그램이다. 처리 후 화상 Af41은, 처리 전 화상 Be4에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L21이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 처리 후 화상 Af42는, 처리 전 화상 Be4에 포함되는 화소의 계조값을 콘트라스트 강조 전의 계조값으로 하고, 그래프 L61이 나타내는 콘트라스트 강조 전후의 관계가 되도록 화상 처리부(51)에 의한 콘트라스트 강조가 행해진 화상이다. 그래프 L61은, 식 (2)에 대응한 그래프이며, gain_1=0.1, Inflection_1=105, height_1=255이다. 도 21 및 도 22에 도시한 바와 같이, 변곡점의 위치(Inflection_1) 및 기울기(gain_1)를 적절하게 설정함으로써, 불균일을 보다 명확하게 할 수 있다.FIG. 22 is a diagram showing an image captured of a display panel classified as “white unevenness” and an example of application of image processing to the image. The image before processing Be4 shown in FIG. 22 is an image before image processing by the
이하, 식 (1)에 있어서의 b의 값 및 식 (2)에 있어서의 Inflection_1의 값을 어떻게 결정하는지의 사고 방식에 대하여, 도 23을 참조하여 설명한다.Hereinafter, the thinking method of how to determine the value of b in equation (1) and the value of Inflection_1 in equation (2) will be explained with reference to FIG. 23.
도 23은 표시 패널을 촬상한 화상에 포함되는 화소의 계조값의 분포를 나타내는 히스토그램 Hs9와, 변곡점의 위치(b)의 관계를 도시하는 도면이다. 또한, 히스토그램 Hs9는, 「경사 불균일」로 분류되는 표시 패널을 촬상한 화상의 히스토그램이다.FIG. 23 is a diagram showing the relationship between a histogram Hs9 showing the distribution of grayscale values of pixels included in an image captured of the display panel and the position (b) of the inflection point. Additionally, histogram Hs9 is a histogram of an image captured of a display panel classified as “slant uneven.”
도 23에 도시한 범위 UN은, 화소의 계조값이 보다 저계조인 화소의 수로부터 우선하여 세기 시작하여, 화소수가 2000개 미만인 화소의 계조값의 범위이다. 여기서, 화소의 최저 계조값(0)을 원점으로 한 범위 UN의 계조값의 횡축 방향의 폭, 즉, 범위 UN의 계조값의 최고치를 b의 값으로 함으로써, 범위 UN이 도출된 히스토그램(예를 들어, 히스토그램 Hs9)이 도출된 화상의 콘트라스트 강조에 식 (1)을 채용하는 경우에 있어서의 당해 그래프의 변곡점을 보다 적합하게 설정할 수 있다. 또한, 화상의 콘트라스트 강조에 식 (2)를 채용하는 경우, 범위 UN의 계조값의 최고치를 Inflection_1의 값으로 해도 된다. 또한, 이와 같은 b 또는 Inflection_1의 결정 루틴을 화상 처리부(51)에 설정함으로써, 화상 처리부(51)에 의한 콘트라스트 강조 처리에 있어서의 변곡점의 자동적인 설정을 행할 수 있다.The range UN shown in FIG. 23 starts counting from the number of pixels with lower gradation values, and is the range of gradation values of pixels with less than 2000 pixels. Here, the width of the horizontal axis of the gray level value of the range UN with the lowest gray level value (0) of the pixel as the origin, that is, the highest value of the gray level value of the range UN is set as the value of b, and the histogram from which the range UN is derived (for example, For example, when equation (1) is adopted for contrast enhancement of an image from which the histogram Hs9) is derived, the inflection point of the graph can be set more appropriately. Additionally, when using equation (2) for contrast enhancement of an image, the highest value of the grayscale value in the range UN may be set as the value of Inflection_1. Additionally, by setting such a determination routine for b or Inflection_1 in the
또한, 범위 UN에 포함되는 화소수가 2000 미만이라고 하는 것은, 어디까지나 일례이며 이것에 한정되는 것은 아니다. 범위 UN에 포함되는 화소수는, 표시 패널을 촬상하여 얻어진 화상의 화소수에 대한 비율(예를 들어, 15%)로서 정해지는 것이 바람직하다.In addition, the fact that the number of pixels included in the range UN is less than 2000 is only an example and is not limited to this. The number of pixels included in the range UN is preferably determined as a ratio (for example, 15%) to the number of pixels in an image obtained by imaging the display panel.
식 (1)의 a, b, 식 (2)의 gain_1, gain_2, Inflection_1, Inflection_2, height_1, 범위 UN에 포함되는 화소수 등, 각종 파라미터에 관한 설정은, 예를 들어 설정 데이터(224)에 포함된다. 식 (1), 식 (2)와 같은 화상 처리의 알고리즘에 관한 규칙은, 예를 들어 화상 처리 프로그램(222)에 포함된다.Settings for various parameters, such as a, b in equation (1), gain_1, gain_2, Inflection_1, Inflection_2, height_1 in equation (2), and the number of pixels included in the range UN, are included in the setting data 224, for example. do. Rules related to image processing algorithms such as equation (1) and equation (2) are included in the image processing program 222, for example.
이상 설명한 바와 같이, 실시 형태에 의한 방법은, 기계 학습을 이용하여, 표시 장치의 화상 표시면을 촬상한 화상(예를 들어, 판정 대상 화상 데이터(100) 또는 참조 데이터(223)에 포함되는 화상 데이터의 화상)이 j종류(예를 들어, j=8)의 분류 중 어느 것에 해당하는지 판정하는 표시 장치의 검사 방법을 포함한다. 실시 형태에 의한 방법은, 정보 처리 장치(예를 들어, 정보 처리 장치(1))가, 미리 준비된 당해 j종류의 분류에 대응한 화상의 데이터를 포함하는 교사 데이터(예를 들어, 참조 데이터(223))에 기초하여, 화상이 당해 j종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제1 기계 학습 스텝(예를 들어, 스텝 S2)을 포함한다. 실시 형태에 의한 방법은, 당해 정보 처리 장치가, 당해 j종류 중 k종류(예를 들어, k=2)의 분류에 대응한 화상의 데이터를 포함하는 교사 데이터(예를 들어, 참조 데이터(223) 중 데이터 세트 DS1, DS2)에 기초하여, 화상이 당해 k종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제2 기계 학습 스텝(예를 들어, 스텝 S5)을 포함한다. j 및 k는 2 이상의 자연수이다. k는 j보다도 작다. 이들에 의해, 당해 j종류 중 당해 k종류의 분류에 대하여, 화상의 분류 정밀도를 보다 높일 수 있다. 따라서, 보다 고정밀도로 표시 장치의 화상을 분류할 수 있다.As described above, the method according to the embodiment uses machine learning to capture images captured on the image display surface of a display device (for example, images included in the judgment
또한, k종류(예를 들어, k=2)의 분류 중 1종류는, 표시 불량으로 간주되는 표시 출력이 발생하지 않는 양품으로서 취급되는 표시 장치의 분류이다. 이에 의해, 양품과, 양품 이외의 1종류 이상의 분류를 포함하는 k종류의 분류에 대하여, 화상의 분류 정밀도를 보다 높일 수 있다. 따라서, 예를 들어 상술한 경사 불균일과 같은, j종류(예를 들어, j=8) 중에서도 양품과의 분류가 비교적 곤란한 분류에 대해서도, 양품과, 양품 이외의 분류 정밀도를 보다 높일 수 있다.Additionally, one of the k types (for example, k = 2) is a classification of display devices that are treated as good products that do not produce display output that is considered poor display. As a result, the classification accuracy of images can be further improved for k types of classification including non-defective products and one or more types of classifications other than non-defective products. Therefore, even for classifications in which it is relatively difficult to classify non-defective products among j types (e.g., j=8), such as the above-mentioned slope unevenness, the classification accuracy between non-defective products and non-defective products can be further improved.
또한, 제2 기계 학습 스텝(예를 들어, 스텝 S5)에서 이용되는 교사 데이터(예를 들어, 참조 데이터(223) 중 데이터 세트 DS1, DS2)는, 제1 기계 학습 스텝(예를 들어, 스텝 S2)에서 이용되는 교사 데이터(예를 들어, 참조 데이터(223))의 일부이다. 이에 의해, 당해 제1 기계 학습 스텝과 당해 제2 기계 학습 스텝에서 이용되는 교사 데이터를 공통화할 수 있다.In addition, the teacher data (e.g., data sets DS1, DS2 of the reference data 223) used in the second machine learning step (e.g., step S5) are used in the first machine learning step (e.g., step S5). It is part of the teacher data (e.g., reference data 223) used in S2). As a result, it is possible to commonize the teacher data used in the first machine learning step and the second machine learning step.
또한, 실시 형태에 의한 방법은, 표시 장치의 화상 표시면을 촬상한 화상(예를 들어, 참조 데이터(223)에 포함되는 검증 데이터의 화상)이 j종류(예를 들어, j=8)의 분류 중 어느 것에 해당하는지의 판정을, 정보 처리 장치(예를 들어, 정보 처리 장치(1))가 제1 기계 학습 스텝(예를 들어, 스텝 S2) 후 또한 제2 기계 학습 스텝(예를 들어, 스텝 S5) 전에 행하는 제1 검사 스텝(예를 들어, 스텝 S3)을 포함한다. 실시 형태에 의한 방법은, 당해 정보 처리 장치가, 제1 검사 스텝에서 판정 대상이 된 당해 화상의 데이터(예를 들어, 참조 데이터(223)에 포함되는 검증 데이터) 중 당해 제1 검사 스텝에서 k종류(예를 들어, k=2)의 분류 중 어느 것에 해당한다고 판정된 화상의 데이터를 추출하는 제1 추출 스텝(예를 들어, 스텝 S4)을 포함한다. 실시 형태에 의한 방법은, 당해 제1 추출 스텝에서 추출된 화상의 데이터가 당해 k종류의 분류 중 어느 것에 해당하는지의 판정을, 당해 정보 처리 장치가 당해 제2 기계 학습 스텝 후에 행하는 제2 검사 스텝(예를 들어, 스텝 S7)을 포함한다. 이들에 의해, 당해 제1 기계 학습 스텝에서 당해 k종류 중 어느 것이라고 분류된 화상을, 당해 제2 기계 학습 후에 다시 분류한 경우의 분류 정밀도를 확인할 수 있다. 따라서, 당해 제2 검사 스텝의 분류 결과를 반영함으로써, 당해 제1 기계 학습 스텝만의 경우에 비해, 당해 k종류의 분류에 대하여, 화상의 분류 정밀도를 보다 높일 수 있다.In addition, in the method according to the embodiment, the image captured of the image display surface of the display device (for example, the image of the verification data included in the reference data 223) is of j type (for example, j = 8). The information processing device (e.g., information processing device 1) determines which of the classifications it corresponds to after the first machine learning step (e.g., step S2) and also in the second machine learning step (e.g., step S2). , includes a first inspection step (eg, step S3) performed before step S5). In the method according to the embodiment, the information processing device determines k in the first inspection step among the data of the image (for example, verification data included in the reference data 223). It includes a first extraction step (e.g., step S4) for extracting data of an image determined to correspond to one of the classifications of types (e.g., k=2). The method according to the embodiment includes a second inspection step in which the information processing device determines which of the k types of classification the image data extracted in the first extraction step corresponds to after the second machine learning step. (e.g., step S7). Through these, it is possible to confirm the classification accuracy when an image classified as one of the k types in the first machine learning step is classified again after the second machine learning. Therefore, by reflecting the classification result of the second inspection step, the classification accuracy of the image can be further increased for the k types of classification compared to the case of only the first machine learning step.
또한, 실시 형태에 의한 방법은, 표시 장치의 화상 표시면을 촬상한 화상의 데이터이며, 교사 데이터(예를 들어, 참조 데이터(223))와는 다른 화상의 데이터(예를 들어, 판정 대상 화상 데이터(100))가, j종류(예를 들어, j=8)의 분류 중 어느 것에 해당하는지를 정보 처리 장치(예를 들어, 정보 처리 장치(1))가 판정하는 제1 판정 스텝(예를 들어, 스텝 S13)을 포함한다. 실시 형태에 의한 방법은, 당해 제1 판정 스텝에서 판정 대상이 된 당해 화상의 데이터 중 당해 제1 판정 스텝에서 k종류(예를 들어, k=2)의 분류 중 어느 것에 해당한다고 판정된 화상의 데이터를 추출하는 제2 추출 스텝(예를 들어, 스텝 S14)을 포함한다. 실시 형태에 의한 방법은, 당해 제2 추출 스텝에서 추출된 화상의 데이터가 당해 k종류의 분류 중 어느 것에 해당하는지를 당해 정보 처리 장치가 판정하는 제2 판정 스텝(예를 들어, 스텝 S15)을 포함한다. 이들에 의해, 당해 j종류 중 당해 k종류의 분류에 대하여, 화상의 분류 정밀도를 보다 높일 수 있다. 따라서, 보다 고정밀도로 표시 장치의 화상을 분류할 수 있다.In addition, the method according to the embodiment is data of an image captured on the image display surface of the display device, and data of an image different from the teaching data (e.g., reference data 223) (e.g., judgment target image data) A first decision step (e.g., information processing device 1) determines which of the j types (e.g., j = 8) classification (100)) corresponds to , step S13). The method according to the embodiment is to select an image determined to correspond to any of k types (for example, k = 2) of the classification in the first judgment step among the data of the image that was the judgment target in the first judgment step. It includes a second extraction step (eg, step S14) for extracting data. The method according to the embodiment includes a second determination step (for example, step S15) in which the information processing device determines which of the k types of classification the data of the image extracted in the second extraction step corresponds to. do. By these means, the classification accuracy of images can be further increased for classification of the k types among the j types. Therefore, images on the display device can be classified with higher precision.
또한, 실시 형태의 정보 처리 장치(1)는, 기계 학습을 이용하여, 표시 장치의 화상 표시면을 촬상한 화상(예를 들어, 판정 대상 화상 데이터(100) 또는 참조 데이터(223)에 포함되는 화상 데이터의 화상)이 j종류(예를 들어, j=8)의 분류 중 어느 것에 해당하는지 판정할 수 있는 정보 처리 장치이다. 정보 처리 장치(1)는, 미리 준비된 당해 j종류의 분류에 대응한 화상의 데이터를 포함하는 교사 데이터(예를 들어, 참조 데이터(223))를 기억하는 기억부(예를 들어, 기억부(22))와, 당해 기억부로부터 당해 교사 데이터를 읽어내어 기계 학습을 행하는 연산부(예를 들어, 연산부(21))를 구비한다. 당해 연산부는, 당해 교사 데이터에 기초하여, 화상이 당해 j종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하고, 당해 j종류 중 k종류(예를 들어, k=2)의 분류에 대응한 화상의 데이터를 포함하는 당해 교사 데이터의 일부(예를 들어, 참조 데이터(223) 중 데이터 세트 DS1, DS2)에 기초하여, 화상이 당해 k종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행한다. j 및 k는 2 이상의 자연수이다. k는 j보다도 작다. 이들에 의해, 정보 처리 장치(1)에 의한 화상의 분류에 대하여, 당해 j종류 중 당해 k종류의 분류에 대하여, 화상의 분류 정밀도를 보다 높일 수 있다. 따라서, 보다 고정밀도로 표시 장치의 화상을 분류할 수 있다.In addition, the
또한, 실시 형태에 의한 방법은, 표시 장치의 화상 표시면을 촬상한 화상(예를 들어, 판정 대상 화상 데이터(100) 또는 참조 데이터(223)에 포함되는 화상 데이터의 화상)의 콘트라스트 강조 방법을 포함한다. 실시 형태에 의한 방법은, 정보 처리 장치(예를 들어, 정보 처리 장치(1))가, 당해 화상의 콘트라스트 강조를 행하는 스텝(예를 들어, 스텝 S12)을 포함한다. 당해 화상에 포함되는 화소의 계조값의 콘트라스트 강조 전의 값과 콘트라스트 강조 후의 값의 관계를 나타내는 그래프(예를 들어, 그래프 L31 등)는, 2개의 변곡점(예를 들어, Inflection_1, Inflection_2)을 갖는 곡선이다. 이들에 의해, 화상의 콘트라스트 강조에 있어서, 표시 불량에 의해 발생하는 특징을 보다 선명하게 하기 위한 보다 적절한 파라미터의 설정이 가능해진다. 즉, 2개의 변곡점의 설정에 의해, 표시 불량에 의해 발생하는 특징을 보다 선명하게 할 수 있게 된다.Additionally, the method according to the embodiment includes a method of emphasizing the contrast of an image captured on the image display surface of a display device (for example, an image of image data included in the judgment
또한, 2개의 변곡점 중 한쪽(예를 들어, Inflection_1)을 포함하는 곡선 및 당해 2개의 변곡점 중 다른 쪽(예를 들어, Inflection_2)을 포함하는 곡선은, 시그모이드 곡선이다. 따라서, 콘트라스트 강조 후의 화상의 계조값이 각 변곡점을 사이에 두고 단계적으로 올라, 전체로서 3단계적인 계조값의 고저를 갖는 콘트라스트 강조 후의 화상을 얻을 수 있다.Additionally, a curve including one of the two inflection points (e.g., Inflection_1) and a curve including the other of the two inflection points (e.g., Inflection_2) are sigmoid curves. Accordingly, the gradation value of the contrast-enhanced image increases step by step across each inflection point, so that a contrast-enhanced image having three levels of gradation values as a whole can be obtained.
또한, 2개의 변곡점 중 한쪽(예를 들어, Inflection_1)은, 그래프(예를 들어, 그래프 L31 등)에 있어서 화상(예를 들어, 판정 대상 화상 데이터(100) 또는 참조 데이터(223)에 포함되는 화상 데이터의 화상)에 포함되는 복수의 화소의 최빈 계조값보다도 낮은 계조값의 위치에 있고, 당해 2개의 변곡점 중 다른 쪽(예를 들어, Inflection_2)은, 당해 그래프에 있어서 당해 화상에 포함되는 복수의 화소의 최빈 계조값보다도 높은 계조값의 위치에 있다. 따라서, 콘트라스트 강조에 의해, 양품의 표시 장치를 촬상한 화소에 보다 많이 포함되는 화소의 최빈 계조값보다도 낮은 계조값의 화소 및 당해 최빈 계조값보다도 높은 계조값의 화소를 보다 선명하게 할 수 있다.Additionally, one of the two inflection points (e.g., Inflection_1) is included in the image (e.g., judgment
또한, 실시 형태의 정보 처리 장치(1)는, 표시 장치의 화상 표시면을 촬상한 화상(예를 들어, 판정 대상 화상 데이터(100) 또는 참조 데이터(223)에 포함되는 화상 데이터의 화상)의 콘트라스트 강조를 행할 수 있는 정보 처리 장치이다. 정보 처리 장치(1)는, 콘트라스트 강조를 행하는 화상 처리부(예를 들어, 화상 처리부(51))를 구비한다. 당해 화상에 포함되는 화소의 계조값의 콘트라스트 강조 전의 값과 콘트라스트 강조 후의 값의 관계를 나타내는 그래프는, 2개의 변곡점(예를 들어, Inflection_1, Inflection_2)을 갖는 곡선이다. 이들에 의해, 화상의 콘트라스트 강조에 있어서, 표시 불량에 의해 발생하는 특징을 보다 선명하게 하기 위한 보다 적절한 파라미터의 설정이 가능한 정보 처리 장치(1)를 제공할 수 있다. 즉, 2개의 변곡점의 설정에 의해, 표시 불량에 의해 발생하는 특징을 보다 선명하게 할 수 있게 된다.In addition, the
또한, 상술한 실시 형태에서는, j=8, k=2이지만, 이것은 어디까지나 일례이며 이것에 한정되는 것은 아니다. j 및 k는 2 이상의 자연수이며, 또한, k가 j보다 작으면 된다. 필연적으로, j는 3 이상이라고 할 수 있다. 또한, j종류 중 j 미만 종류를 대상으로 한 제2 검사 스텝, 제2 판정 스텝은, 복수회 행해져도 된다. 이 경우, 복수회 행해지는 제2 검사 스텝, 제2 판정 스텝에서는 각각, j종류로부터 각각 다른 k종류로 한정된 분류가 행해진다. 또한, 복수회 행해지는 제2 검사 스텝(또는 제2 판정 스텝) 중 1개가 j종류 중 k종류를 대상으로 하고, 다른 1개가 j종류 중 h종류를 대상으로 하도록, 복수회 행해지는 제2 검사 스텝, 제2 판정 스텝의 각각에서 분류수가 각각 달라도 된다.Additionally, in the above-described embodiment, j = 8 and k = 2, but this is only an example and is not limited to this. j and k are natural numbers of 2 or more, and k may be smaller than j. Inevitably, j can be said to be 3 or more. Additionally, the second inspection step and the second judgment step targeting types less than j among j types may be performed multiple times. In this case, in the second inspection step and the second judgment step, which are performed multiple times, classification limited to k types that differ from j type is performed, respectively. In addition, the second inspection performed multiple times is such that one of the second inspection steps (or second judgment steps) performed multiple times targets k types among j types, and the other targets h types among j types. The number of classifications may be different in each step and the second judgment step.
또한, 상술한 실시 형태에서는, 제2 기계 학습 스텝에서 이용되는 교사 데이터는, 제1 기계 학습 스텝에서 이용되는 교사 데이터의 일부이지만, 제1 기계 학습 스텝에서 이용되는 교사 데이터와, 제2 기계 학습 스텝에서 이용되는 교사 데이터가 별도여도 된다.Additionally, in the above-described embodiment, the teacher data used in the second machine learning step is a part of the teacher data used in the first machine learning step, but the teacher data used in the first machine learning step and the second machine learning step The teacher data used by the staff may be separate.
또한, 상술한 실시 형태에서는, 판정 대상 화상 데이터(100) 및 참조 데이터(223)가, 대형 점등 검사 장치라 불리는, 복수의 표시 패널의 촬상을 일괄로 행할 수 있는 장치를 사용하여 촬상된 복수의 화상 데이터를 포함하고 있지만, 이것은 어디까지나 표시 장치의 화상 표시면을 촬상한 화상의 데이터의 일 형태예이며 이것에 한정되는 것은 아니다. 표시 장치의 화상 표시면을 촬상한 화상은, 예를 들어 스마트폰의 화상 표시면을 촬상한 화상 등, 표시 패널만의 상태가 아닌 표시 장치의 화상 표시면을 촬상한 화상이어도 된다.In addition, in the above-described embodiment, the judgment
또한, 상술한 실시 형태에서는, CNN이 채용되고 있지만, 이것은 기계 학습 알고리즘의 구체예에 지나지 않고, 이것에 한정되는 것은 아니다. 상술한 실시 형태에 있어서의 CNN 대신에, 다른 기계 학습 알고리즘에 기초한 기계 학습이 채용되어도 된다.In addition, although CNN is adopted in the above-described embodiment, this is only a specific example of a machine learning algorithm and is not limited to this. Instead of CNN in the above-described embodiment, machine learning based on another machine learning algorithm may be employed.
또한, 본 실시 형태에 있어서 설명한 양태에 의해 초래되는 다른 작용 효과에 대하여 본 명세서 기재로부터 명확한 것, 또는 당업자에게 있어서 적절히 상도할 수 있는 것에 대해서는, 당연히 본 개시에 의해 초래되는 것으로 이해된다.In addition, other functional effects brought about by the aspects described in the present embodiment are understood to be obvious from the description in the present specification, or can be appropriately imagined by those skilled in the art, as being brought about by the present disclosure.
1: 정보 처리 장치
21: 연산부
22: 기억부
30: 출력부
40: 취득부
50: 처리부
51: 화상 처리부
60: 판정부
62: 한정 분류 처리부
70: 기계 학습부
100: 판정 대상 화상 데이터
221: 기계 학습 프로그램
222: 화상 처리 프로그램
223: 참조 데이터
224: 설정 데이터
NN: 뉴럴 네트워크1: Information processing device
21: calculation unit
22: memory unit
30: output unit
40: Acquisition department
50: processing unit
51: image processing unit
60: Judgment panel
62: Limited classification processing unit
70: Machine learning department
100: Image data to be judged
221: Machine learning programs
222: Image processing program
223: Reference data
224: Setting data
NN: Neural Network
Claims (6)
정보 처리 장치가, 미리 준비된 상기 j종류의 분류에 대응한 상기 화상의 데이터를 포함하는 교사 데이터에 기초하여, 화상이 상기 j종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제1 기계 학습 스텝과,
상기 정보 처리 장치가, 상기 j종류 중 k종류의 분류에 대응한 상기 화상의 데이터를 포함하는 교사 데이터에 기초하여, 화상이 상기 k종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하는 제2 기계 학습 스텝을 포함하고,
j 및 k는 2 이상의 자연수이며, k는 j보다도 작은,
표시 장치의 검사 방법.A display device inspection method that uses machine learning to determine which of j types of classification an image captured on the image display surface of a display device corresponds to,
A first machine, the information processing device performs machine learning to determine which of the j types of classifications an image corresponds to, based on teacher data including data of the images corresponding to the j types of classifications prepared in advance. learning steps,
The information processing device performs machine learning to determine which of the k types of classification an image corresponds to, based on teacher data including data of the image corresponding to the k type of classification among the j types. 2 Includes machine learning steps,
j and k are natural numbers greater than or equal to 2, and k is smaller than j,
Inspection method of display device.
상기 k종류의 분류 중 1종류는, 표시 불량으로 간주되는 표시 출력이 발생하지 않는 양품으로서 취급되는 표시 장치의 분류인, 표시 장치의 검사 방법.According to paragraph 1,
One type of the k types of classification is a classification of a display device that is treated as a good product that does not produce display output that is considered to be a display defect.
상기 제2 기계 학습 스텝에서 이용되는 교사 데이터는, 상기 제1 기계 학습 스텝에서 이용되는 교사 데이터의 일부인, 표시 장치의 검사 방법.According to claim 1 or 2,
The teacher data used in the second machine learning step is a part of the teacher data used in the first machine learning step.
상기 화상이 상기 j종류의 분류 중 어느 것에 해당하는지의 판정을, 상기 정보 처리 장치가 상기 제1 기계 학습 스텝 후 또한 상기 제2 기계 학습 스텝 전에 행하는 제1 검사 스텝과,
상기 정보 처리 장치가, 상기 제1 검사 스텝에서 판정 대상이 된 상기 화상의 데이터 중 상기 제1 검사 스텝에서 상기 k종류의 분류 중 어느 것에 해당한다고 판정된 상기 화상의 데이터를 추출하는 제1 추출 스텝과,
상기 제1 추출 스텝에서 추출된 데이터에 의한 상기 화상이 상기 k종류의 분류 중 어느 것에 해당하는지의 판정을, 상기 정보 처리 장치가 상기 제2 기계 학습 스텝 후에 행하는 제2 검사 스텝을 포함하는, 표시 장치의 검사 방법.According to any one of claims 1 to 3,
a first inspection step in which the information processing device determines which of the j types of classification the image corresponds to after the first machine learning step and before the second machine learning step;
A first extraction step in which the information processing device extracts data of the image determined to correspond to any of the k types of classification in the first inspection step from among data of the image that has been determined in the first inspection step. class,
A display comprising a second inspection step in which the information processing device determines which of the k types of classification the image based on the data extracted in the first extraction step corresponds to after the second machine learning step. How to inspect the device.
상기 교사 데이터와는 다른 상기 화상의 데이터가, 상기 j종류의 분류 중 어느 것에 해당하는지를 상기 정보 처리 장치가 판정하는 제1 판정 스텝과,
상기 정보 처리 장치가, 상기 제1 판정 스텝에서 판정 대상이 된 상기 화상의 데이터 중 상기 제1 판정 스텝에서 상기 k종류의 분류 중 어느 것에 해당한다고 판정된 상기 화상의 데이터를 추출하는 제2 추출 스텝과,
상기 제2 추출 스텝에서 추출된 상기 화상의 데이터가 상기 k종류의 분류 중 어느 것에 해당하는지를 상기 정보 처리 장치가 판정하는 제2 판정 스텝을 포함하는, 표시 장치의 검사 방법.According to any one of claims 1 to 4,
a first judgment step in which the information processing device determines which of the j types of classification the data of the image different from the teacher data corresponds to;
A second extraction step in which the information processing device extracts data of the image determined to correspond to any of the k types of classification in the first judgment step from among data of the image that has been determined in the first judgment step. class,
An inspection method for a display device, comprising a second determination step in which the information processing device determines which of the k types of classification the data of the image extracted in the second extraction step corresponds to.
상기 정보 처리 장치는,
미리 준비된 상기 j종류의 분류에 대응한 상기 화상의 데이터를 포함하는 교사 데이터를 기억하는 기억부와,
상기 기억부로부터 상기 교사 데이터를 읽어내어 기계 학습을 행하는 연산부를 구비하고,
상기 연산부는,
상기 교사 데이터에 기초하여, 화상이 상기 j종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하고,
상기 j종류 중 k종류의 분류에 대응한 상기 화상의 데이터를 포함하는 상기 교사 데이터의 일부에 기초하여, 화상이 상기 k종류의 분류 중 어느 것에 해당하는지 판정하기 위한 기계 학습을 행하고,
j 및 k는 2 이상의 자연수이며, k는 j보다도 작은,
정보 처리 장치.An information processing device that uses machine learning to determine which of j types of classification an image captured on the image display surface of a display device corresponds to,
The information processing device,
a storage unit for storing teacher data including data of the image corresponding to the j type classification prepared in advance;
an arithmetic unit that reads the teacher data from the storage unit and performs machine learning;
The calculation unit is,
Based on the teacher data, machine learning is performed to determine which of the j types of classification the image corresponds to,
Based on a portion of the teacher data including data of the image corresponding to k types of classification among the j types, machine learning is performed to determine which of the k types of classification the image corresponds to,
j and k are natural numbers greater than or equal to 2, and k is smaller than j,
Information processing device.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPJP-P-2021-191229 | 2021-11-25 | ||
JP2021191229 | 2021-11-25 | ||
PCT/JP2022/033674 WO2023095416A1 (en) | 2021-11-25 | 2022-09-08 | Display device inspection method, and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240093896A true KR20240093896A (en) | 2024-06-24 |
Family
ID=86539157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020247017192A Pending KR20240093896A (en) | 2021-11-25 | 2022-09-08 | Inspection method and information processing device for display device |
Country Status (4)
Country | Link |
---|---|
JP (1) | JPWO2023095416A1 (en) |
KR (1) | KR20240093896A (en) |
CN (1) | CN118265904A (en) |
WO (1) | WO2023095416A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009180583A (en) | 2008-01-30 | 2009-08-13 | Fujifilm Corp | Method and apparatus for evaluating brightness unevenness of display |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5022174B2 (en) * | 2007-10-22 | 2012-09-12 | 株式会社日立製作所 | Defect classification method and apparatus |
JP6113024B2 (en) * | 2013-08-19 | 2017-04-12 | 株式会社Screenホールディングス | Classifier acquisition method, defect classification method, defect classification device, and program |
KR101813223B1 (en) * | 2016-05-11 | 2018-01-30 | 한국과학기술원 | Method and apparatus for detecting and classifying surface defect of image |
CN108846841A (en) * | 2018-07-02 | 2018-11-20 | 北京百度网讯科技有限公司 | Display screen quality determining method, device, electronic equipment and storage medium |
JP7028322B2 (en) * | 2018-07-09 | 2022-03-02 | 富士通株式会社 | Information processing equipment, information processing methods and information processing programs |
JP7070334B2 (en) * | 2018-10-30 | 2022-05-18 | オムロン株式会社 | Image classification device, image inspection device, and image classification method |
JP6630912B1 (en) * | 2019-01-14 | 2020-01-15 | 株式会社デンケン | Inspection device and inspection method |
JP2021033564A (en) * | 2019-08-22 | 2021-03-01 | 株式会社Ye Digital | Image classification method, image classification device and image classification program |
CN111044525B (en) * | 2019-12-30 | 2021-10-29 | 歌尔股份有限公司 | Product defect detection method, device and system |
JP7423368B2 (en) * | 2020-03-23 | 2024-01-29 | イビデン株式会社 | Defect detection device and method |
-
2022
- 2022-09-08 JP JP2023563524A patent/JPWO2023095416A1/ja active Pending
- 2022-09-08 CN CN202280076274.1A patent/CN118265904A/en active Pending
- 2022-09-08 WO PCT/JP2022/033674 patent/WO2023095416A1/en active Application Filing
- 2022-09-08 KR KR1020247017192A patent/KR20240093896A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009180583A (en) | 2008-01-30 | 2009-08-13 | Fujifilm Corp | Method and apparatus for evaluating brightness unevenness of display |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023095416A1 (en) | 2023-06-01 |
WO2023095416A1 (en) | 2023-06-01 |
CN118265904A (en) | 2024-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110274908B (en) | Defect inspection apparatus, defect inspection method, and computer-readable recording medium | |
US11176650B2 (en) | Data generation apparatus, data generation method, and data generation program | |
JP4160258B2 (en) | A new perceptual threshold determination for gradient-based local contour detection | |
WO2019117065A1 (en) | Data generation device, data generation method and data generation program | |
JP6798619B2 (en) | Information processing equipment, information processing programs and information processing methods | |
JP3264932B2 (en) | Method and apparatus for separating foreground from background in images containing text | |
KR102154393B1 (en) | Automated defect classification method based on machine learning | |
Siu et al. | A framework for synthetic image generation and augmentation for improving automatic sewer pipe defect detection | |
US11348349B2 (en) | Training data increment method, electronic apparatus and computer-readable medium | |
CN113469921B (en) | Image defect repairing method, system, computer device and storage medium | |
CN113016023B (en) | Information processing method and computer-readable non-transitory recording medium | |
CN113642576B (en) | Method and device for generating training image set in target detection and semantic segmentation tasks | |
CN114445410A (en) | Circuit board detection method based on image recognition, computer and readable storage medium | |
CN118967672A (en) | Industrial defect detection method, system, device and storage medium | |
KR20200039043A (en) | Object recognition device and operating method for the same | |
KR20230127933A (en) | Method and system of detecting defect | |
JP2007200246A (en) | Method for evaluating image processing algorithm, method, device, and program for generating same algorithm, and recording medium | |
CN109902751B (en) | Dial Digit Character Recognition Method Fusion Convolutional Neural Network and Half-word Template Matching | |
US20130259373A1 (en) | Image processing device capable of determining types of images accurately | |
CN106997590A (en) | A kind of image procossing and detecting system based on detection product performance | |
JP7336033B2 (en) | Data augmentation-based matter analysis model learning device and method | |
CN206897873U (en) | A kind of image procossing and detecting system based on detection product performance | |
KR20240093896A (en) | Inspection method and information processing device for display device | |
KR20240074005A (en) | Image contrast enhancement method and information processing device | |
US12159449B2 (en) | Image recognition device, image recognition system, image recognition method, and non-transitry computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20240523 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application |