[go: up one dir, main page]

KR101711708B1 - Method and apparatus for detecting center point of region in OCT image - Google Patents

Method and apparatus for detecting center point of region in OCT image Download PDF

Info

Publication number
KR101711708B1
KR101711708B1 KR1020140183452A KR20140183452A KR101711708B1 KR 101711708 B1 KR101711708 B1 KR 101711708B1 KR 1020140183452 A KR1020140183452 A KR 1020140183452A KR 20140183452 A KR20140183452 A KR 20140183452A KR 101711708 B1 KR101711708 B1 KR 101711708B1
Authority
KR
South Korea
Prior art keywords
point
distance
candidate
area
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020140183452A
Other languages
Korean (ko)
Other versions
KR20160074851A (en
Inventor
김필운
정효상
정영리
Original Assignee
삼성전자주식회사
주식회사 오즈텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 주식회사 오즈텍 filed Critical 삼성전자주식회사
Priority to KR1020140183452A priority Critical patent/KR101711708B1/en
Publication of KR20160074851A publication Critical patent/KR20160074851A/en
Application granted granted Critical
Publication of KR101711708B1 publication Critical patent/KR101711708B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S436/00Chemistry: analytical and immunological testing
    • Y10S436/807Apparatus included in process claim, e.g. physical support structures

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

OCT 영상에서 영역의 중심점 검출 방법 및 그 장치가 제공된다. 본 발명의 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법은 OCT 영상을 획득하는 단계; 획득한 영상을 미리 정해진 임계값에 의해 이진화하는 단계; 이진화 영상으로부터 검출하고자 하는 영역을 후보점으로 선별하는 단계; 각 후보점에 대하여 십자 방향으로 확장하면서 검출하고자 하는 영역의 경계 지점까지 트래킹하는 단계; 및 각 후보점 중에서 경계 지점까지의 거리가 최대인 후보점을 중심점으로 산출하는 단계를 포함한다. A method and an apparatus for detecting a center point of an area in an OCT image are provided. According to an embodiment of the present invention, there is provided a method of detecting a center point of an area in an OCT image, comprising: obtaining an OCT image; Binarizing the acquired image by a predetermined threshold value; Selecting an area to be detected from the binarized image as a candidate point; Tracking each border point of the region to be detected while expanding in the cross direction with respect to each candidate point; And calculating a candidate point having a maximum distance from each candidate point to the boundary point as a center point.

Description

OCT 영상에서 영역의 중심점 검출 방법 및 그 장치{Method and apparatus for detecting center point of region in OCT image} [0001] The present invention relates to a method and a device for detecting a center point of an area in an OCT image,

본 발명은 OCT 영상에서 영역의 중심점 검출 방법 및 그 장치에 관한 것으로, 특히, OCT 영상 내의 이물질 영역을 검출하는 OCT 영상에서 영역의 중심점 검출 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for detecting a center point of an area in an OCT image, and more particularly, to a method and an apparatus for detecting a center point of an area in an OCT image for detecting a foreign object area in the OCT image.

최근, 의료 영상 분야에서, 컴퓨터 단층 촬영이나 자기 공명 영상 촬영보다 구자고 간단한 광 간섭성 단층 촬영(OCT; Optical Coherence Tomography)의 사용이 시도되고 있다. Recently, the use of simple optical coherence tomography (OCT) has been attempted in the field of medical imaging, rather than computerized tomography or magnetic resonance imaging.

광 간섭성 단층 촬영은 저 코히어런트(low coherence) 광을 생체와 같은 다중 산란 물질에 조사하고 물질로부터 반사된 광을 검출하여 단층 화상을 얻는 장치로서 주로 의료 분야에서 사용하였으나, 간단한 구조 및 OCT 영상의 정확한 생성에 의해 제품 검사 분야로 그 범위가 확대되고 있다. Optical coherence tomography is a device for obtaining low-coherence light on multiple scattering materials such as living bodies and detecting reflected light from a material to obtain a tomographic image. Due to the accurate generation of the image, the scope of the product inspection field is expanding.

한편, 제품 검사시, 검사 대상 제품의 표면 상에 형성된 이물질을 판별하는 것이 중요한 요소이나, 촬영된 영상으로부터 이물질 영역을 판별하는 방법은 대량의 화소에 대한 연산을 필요로 하여 연산부하가 증가하고 해당 영역의 위치 및 크기의 산출이 복잡한 문제점이 있다. On the other hand, when inspecting a product, it is important to identify a foreign object formed on the surface of a product to be inspected. However, a method of discriminating a foreign object region from a captured image requires calculation for a large number of pixels, The calculation of the position and size of the area is complicated.

KRKR 06578670657867 BB

상기와 같은 종래 기술의 문제점을 해결하기 위해, 본 발명의 일 실시예는 OCT 영상에서 여러 가지 영역들에 대한 위치의 지정 및 해당 영역의 크기 산출을 GPU를 이용하여 병렬 처리할 수 있는 OCT 영상에서 영역의 중심점 검출 방법 및 그 장치를 제공하고자 한다.According to an aspect of the present invention, there is provided an OCT image processing method and apparatus capable of performing parallel processing using a GPU for designating a position of a plurality of regions and calculating a size of a corresponding region in an OCT image, A method of detecting a center point of a region and an apparatus therefor.

위와 같은 과제를 해결하기 위한 본 발명의 일 측면에 따르면, OCT 영상에서 영역의 중심점 검출 방법이 제공된다. 상기 OCT 영상에서 영역의 중심점 검출 방법은 OCT 영상을 획득하는 단계; 상기 획득한 영상을 미리 정해진 임계값에 의해 이진화하는 단계; 상기 이진화 영상으로부터 검출하고자 하는 영역을 후보점으로 선별하는 단계; 각 후보점에 대하여 십자 방향으로 확장하면서 상기 검출하고자 하는 영역의 경계 지점까지 트래킹하는 단계; 및 상기 각 후보점 중에서 상기 경계 지점까지의 거리가 최대인 후보점을 중심점으로 산출하는 단계를 포함할 수 있다. According to an aspect of the present invention, there is provided a method of detecting a center point of an area in an OCT image. A method of detecting a center point of an area in an OCT image includes: obtaining an OCT image; Binarizing the acquired image by a predetermined threshold value; Selecting an area to be detected from the binarized image as a candidate point; Tracking each border point of the region to be detected while expanding in the cross direction with respect to each candidate point; And calculating a candidate point having a maximum distance from the candidate points to the boundary point as a center point.

일 실시예에서, 상기 검출하고자 하는 영역은 밝기가 "1"이고, 이물질에 대응하는 영역일 수 있다. In one embodiment, the region to be detected has a brightness of "1 " and may be a region corresponding to a foreign substance.

일 실시예에서, 상기 트래킹하는 단계는 임의의 후보점을 기준으로 수직 또는 수평 방향으로 1 화소씩 확장한 위치가 상기 검출하고자 하는 영역과 동일한 밝기를 갖는지를 판별하는 단계; 상기 해당 후보점에 대하여 상기 확장한 각각의 위치가 상기 검출하고자 하는 영역과 모두 상이한 밝기인 경우, 상기 해당 후보점에 대한 상기 경계 지점까지의 거리를 산출하는 단계; 및 상기 해당 후보점에 대하여 상기 확장한 각각의 위치의 밝기가 상기 검출하고자 하는 영역의 밝기와 적어도 하나의 방향에 대하여 동일한 밝기인 경우, 동일한 밝기의 방향으로 트래킹 범위를 확장하는 단계를 포함할 수 있다. In one embodiment, the tracking step may include determining whether a position expanded by one pixel in a vertical or horizontal direction with respect to an arbitrary candidate point has the same brightness as the area to be detected; Calculating a distance to the boundary point with respect to the corresponding candidate point when each of the expanded positions is different in brightness from the area to be detected; And expanding the tracking range in the direction of the same brightness when the brightness of each of the extended positions with respect to the corresponding candidate point is the same brightness as the brightness of the area to be detected with respect to at least one direction have.

일 실시예에서, 상기 중심점을 산출하는 단계는 상기 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰지를 판단하는 단계; 상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 큰 경우, 상기 해당 후보점을 신규 중심점으로 등록하는 단계; 및 상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 작은 경우, 상기 해당 후보점을 제거하는 단계를 포함할 수 있다. In one embodiment, the step of calculating the center point may include determining whether the distance to the boundary point of the corresponding candidate point is larger than the distance to the boundary point of the previously registered center point; Registering the corresponding candidate point as a new center point when the distance to the boundary point of the corresponding candidate point is larger than the distance to the boundary point of the previously registered center point; And removing the corresponding candidate point when the distance to the boundary point of the corresponding candidate point is smaller than the distance to the boundary point of the previously registered center point.

일 실시예에서, 상기 트래킹하는 단계는 상기 각 후보점에 대하여 병렬로 수행할 수 있다. In one embodiment, the tracking may be performed in parallel for each of the candidate points.

본 발명의 다른 측면에 따르면, OCT 영상에서 영역의 중심점 검출 장치가 제공된다. 상기 OCT 영상에서 영역의 중심점 검출 장치는 획득된 OCT 영상을 저장하는 영상 저장부; 상기 저장된 영상을 미리 정해진 임계값에 의해 이진화하여 검출하고자 하는 영역을 후보점으로 선별하는 이진화 영상 산출부; 각 후보점에 대하여 십자 방향으로 확장하면서 상기 검출하고자 하는 영역의 경계 지점까지 트래킹하는 트래킹부; 및 상기 각 후보점 중에서 상기 경계 지점까지의 거리가 최대인 후보점을 중심점으로 산출하는 중심점 산출부를 포함할 수 있다. According to another aspect of the present invention, there is provided an apparatus for detecting a center point of an area in an OCT image. An apparatus for detecting a center point of an area in the OCT image includes an image storage unit for storing the obtained OCT image; A binarization image calculator for binarizing the stored image by a predetermined threshold value to select an area to be detected as a candidate point; A tracking unit extending in the cross direction with respect to each candidate point and tracking the boundary point of the region to be detected; And a center point calculating unit for calculating a candidate point having a maximum distance from each of the candidate points to the boundary point as a center point.

일 실시예에서, 상기 트래킹부는 임의의 후보점을 기준으로 수직 또는 수평 방향으로 1 화소씩 확장한 위치가 상기 검출하고자 하는 영역과 동일한 밝기를 갖는지를 판별하는 판별부; 상기 해당 후보점에 대하여 상기 확장한 각각의 위치가 상기 검출하고자 하는 영역과 모두 상이한 밝기인 경우, 상기 해당 후보점에 대한 상기 경계 지점까지의 거리를 산출하는 최대 거리 산출부; 및 상기 해당 후보점에 대하여 상기 확장한 각각의 위치의 밝기가 상기 검출하고자 하는 영역의 밝기와 적어도 하나의 방향에 대하여 동일한 밝기인 경우, 동일한 밝기의 방향으로 트래킹 범위를 확장하는 트래킹 범위 조정부를 포함할 수 있다. In one embodiment, the tracking unit may include: a determination unit that determines whether a position expanded by one pixel in a vertical or horizontal direction based on an arbitrary candidate point has the same brightness as the area to be detected; A maximum distance calculating unit for calculating a distance to the boundary point with respect to the corresponding candidate point when each of the expanded positions of the corresponding candidate point is different from all of the areas to be detected; And a tracking range adjuster for expanding the tracking range in the same brightness direction when the brightness of each of the extended positions with respect to the corresponding candidate point is the same brightness as at least one direction with respect to the brightness of the area to be detected can do.

일 실시예에서, 상기 중심점 산출부는 상기 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰지를 판단하여, 상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 큰 경우, 상기 해당 후보점을 신규 중심점으로 등록하고, 상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 작은 경우, 상기 해당 후보점을 제거할 수 있다. In one embodiment, the center point calculating unit determines whether the distance to the boundary point of the corresponding candidate point is larger than the distance to the boundary point of the previously registered center point, and if the distance to the boundary point of the corresponding candidate point is larger than the distance When the distance to the boundary point of the corresponding candidate point is smaller than the distance to the boundary point of the previously registered center point, The candidate point can be removed.

일 실시예에서, 상기 트래킹부는 상기 각 후보점에 대하여 병렬 처리할 수 있다. In one embodiment, the tracking unit can perform parallel processing on each of the candidate points.

본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법 및 그 장치는 후보점에 대한 중심점 여부의 판단시 후보점들 사이의 영향 없이 단독으로 수행할 수 있고 따라서 병렬 처리가 가능하며 GPU를 이용하여 고속 연산을 수행할 수 있다. The method and apparatus for detecting a center point of an area in an OCT image according to an exemplary embodiment of the present invention can be performed independently without influence between candidate points in determining a center point for a candidate point, So that high-speed operation can be performed.

또한 본 발명의 일 실시예는 OCT 영상 해석에서 지정된 위치에 지정된 크기의 폐쇄 영역을 검출할 수 있어 특정 위치에서 이물질 검출 여부를 판단할 수 있고, 따라서 적용 분야를 제품의 결함 검사로 확대할 수 있다.  Further, according to an embodiment of the present invention, it is possible to detect a closed area of a designated size at a designated position in the OCT image analysis, thereby determining whether or not to detect a foreign substance at a specific position, .

또한, 본 발명의 일 실시예는 제품 결함 검사에 활용하여 제품 결합 검사를 고속으로 수행할 수 있어 제품의 검사 시간을 단축함으로써 제품의 생산 수율을 향상시킬 수 있다.  In addition, one embodiment of the present invention can be applied to product defect inspection, so that the product combination inspection can be performed at high speed, thereby shortening the inspection time of the product, thereby improving the production yield of the product.

도 1은 본 발명의 일 실시예에 따른 OCT 시스템의 개략적 구성도이다.
도 2는 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법을 나타낸 순서도이다.
도 3은 도 2의 십자 방향 영역 트래킹의 세부적인 구성을 나타낸 순서도이다.
도 4는 도 3의 십자 방향 영역 트래킹을 설명하기 위한 개념도이다.
도 5는 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법에 이용한 중심점 검출 예이다.
도 6은 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 장치의 세부구성을 나타낸 블록도이다.
도 7은 도 6의 트래킹부의 세부구성을 나타낸 블록도이다.
1 is a schematic block diagram of an OCT system according to an embodiment of the present invention.
2 is a flowchart illustrating a method of detecting a center point of an area in an OCT image according to an embodiment of the present invention.
3 is a flowchart showing the detailed configuration of the cross-directional area tracking of FIG.
4 is a conceptual diagram for explaining the tracking of the cross-directional region of FIG. 3;
5 is an example of detection of a center point used in a method of detecting a center point of an area in an OCT image according to an embodiment of the present invention.
6 is a block diagram illustrating a detailed configuration of an apparatus for detecting a center point of an OCT image according to an exemplary embodiment of the present invention.
7 is a block diagram showing the detailed configuration of the tracking unit of FIG.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is not limited to the embodiments described herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification.

도 1은 본 발명의 일 실시예에 따른 OCT 시스템의 개략적 구성도이다. 이하에서는 도면을 참조하여 본 발명의 실시예에 따른 OCT 시스템을 보다 상세히 설명하도록 한다. 1 is a schematic block diagram of an OCT system according to an embodiment of the present invention. Hereinafter, an OCT system according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1을 참조하면, 본 발명의 일 실시예에 따른 OCT 시스템은 광 간섭성 단층 촬영 장치(10), 중심점 검출 장치(20) 및 검사 대상(30)을 포함한다. 여기서, 검사 대상(30)은 이물질 검사를 위한 제품일 수 있다. Referring to FIG. 1, an OCT system according to an embodiment of the present invention includes an optical coherence tomography apparatus 10, a center point detection apparatus 20, and an object to be examined 30. Here, the object 30 to be inspected may be a product for inspection of a foreign object.

광 간섭성 단층 촬영 장치(10)는 광원(110), 광 커플러(120), 레퍼런스부(130), 스캐닝 프로브(140), 및 광 단층 촬영부(150)를 포함한다. The optical coherence tomography apparatus 10 includes a light source 110, an optical coupler 120, a reference unit 130, a scanning probe 140, and a tomographic imaging unit 150.

광원(110)은 간섭 길이가 수 마이크로미터 정도인 광과 같이, 광 대역폭이 넓어서 간섭 길이가 짧은 광을 발생할 수 있다. 예를 들면, 광원은 중심파장이 840㎚인 근적외선 파장 대역(800㎚ ~ 1550㎚)을 갖고, 반치폭(FWHM, Full Width Half Maximum)이 50㎚이며, 최대 출력 파워는 5.3㎽의 특성을 가질 수 있다. The light source 110 can generate light having a wide optical bandwidth and a short interference length, such as light having an interference length of about several micrometers. For example, the light source has a near-infrared wavelength band (800 nm to 1550 nm) with a center wavelength of 840 nm, a full width half maximum (FWHM) of 50 nm and a maximum output power of 5.3 mW have.

광 커플러(120)는 광원(110)으로부터 발생된 광을 수신한 후, 수신한 광을 분할하여 광섬유를 통하여 레퍼런스부(130) 및 스캐닝 프로브(140)로 전달할 수 있다. 이와 반대로, 광 커플러(120)는 레퍼런스부(130)로부터 제 1 반사 광 및 스캐닝 프로브(140)로부터 제 2 반사 광을 전달받아 광 단층 촬영부(150)로 전달할 수 있다. The optical coupler 120 may receive the light generated from the light source 110, divide the received light, and transmit the split light to the reference unit 130 and the scanning probe 140 through the optical fiber. The optical coupler 120 may transmit the first reflected light from the reference unit 130 and the second reflected light from the scanning probe 140 to the optical tomography unit 150.

레퍼런스부(130)는 광 커플러(120)로부터 분할된 광을 수신하여 위상 스캔하고 반사시켜, 제 1 반사 광을 광 커플러(120)로 전달할 수 있으며, 콜리메이터(132), 포커싱 렌즈(134), 및 레퍼런스 미러(136)를 포함할 수 있다.The reference unit 130 receives the divided light from the optical coupler 120 and performs phase scanning and reflection to transmit the first reflected light to the optical coupler 120. The reference unit 130 includes a collimator 132, And a reference mirror 136.

보다 상세하게는, 콜리메이터(132)는 광 커플러(120)로부터 출사된 광을 수신하여 평행 광으로 변환시켜 포커싱 렌즈(134)로 출사할 수 있다. 포커싱 렌즈(134)는 콜리메이터(132)를 통하여 변환된 평행 광이 하나의 포커스로 모이도록 평행 광의 포커스 거리를 조절할 수 있다. 레퍼런스 미러(136)는 포커싱 렌즈(134)를 통하여 하나의 포커스로 모인 광을 수신한 후 반사시켜 생성된 제 1 반사 광을 포커싱 렌즈(134)로 다시 전달함으로써, 광 경로를 변경할 수 있다.More specifically, the collimator 132 receives the light emitted from the optical coupler 120, converts the light into parallel light, and outputs the parallel light to the focusing lens 134. The focusing lens 134 can adjust the focus distance of the parallel light so that the parallel light converted through the collimator 132 converges into one focus. The reference mirror 136 can change the optical path by receiving the light collected in one focus through the focusing lens 134 and then reflecting the generated first reflected light to the focusing lens 134 again.

스캐닝 프로브(140)는 광 커플러(120)로부터 분할되어 입사된 광을 검사 대상(30)에 조사하여, 검사 대상(30)으로부터의 제 2 반사 광을 광 커플러(120)로 전달할 수 있으며, 콜리메이터(142), 스캐닝 미러(144), 및 스캔 렌즈(146)를 포함할 수 있다.The scanning probe 140 can transmit the second reflected light from the inspection object 30 to the optical coupler 120 by irradiating the light to be inspected 30 by splitting the incident light from the optical coupler 120, A scan mirror 142, a scanning mirror 144, and a scan lens 146.

보다 상세하게는, 콜리메이터(142)는 광 커플러(120)를 통하여 분할되어 입사된 광을 수신하여 평행 광으로 변환할 수 있다. 스캐닝 미러(144)는 콜리메이터(142)로부터 평행 광을 전달받아 평형광의 광 경로를 변경한 후 검사 대상(30)으로 광을 조사하며, 검사 대상(30)으로부터 반사된 제 2 반사 광을 스캔한 후 제 2 반사 광의 광 경로를 변경하여 광 커플러(120)로 전달할 수 있다. 스캔 렌즈(146)는 스캐닝 미러(144)를 통하여 조사된 광을 검사 대상(30)에 하나의 포커스로 조사되도록 광의 포커스를 조절할 수 있다. More specifically, the collimator 142 is divided through the optical coupler 120 and receives incident light to convert the light into parallel light. The scanning mirror 144 receives the collimated light from the collimator 142 to change the optical path of the balanced light, irradiates the light to the inspection target 30, and scans the second reflected light reflected from the inspection target 30 The optical path of the second reflected light can be changed and transmitted to the optical coupler 120. [ The scan lens 146 can adjust the focus of the light so that the light irradiated through the scanning mirror 144 is irradiated to the inspection target 30 with one focus.

광 단층 촬영부(150)는 광 커플러(120)로부터 입사된 제 1 반사 광 및 제 2 반사 광을 전기적 신호로 변환하여, 검사 대상(30)에 대한 OCT 영상을 생성할 수 있으며, 콜리메이터(152), 회절격자(154), 포커싱 렌즈(156), 및 라인 스캔 카메라(158)를 포함할 수 있다.The optical tomographic imaging unit 150 converts the first reflected light and the second reflected light incident from the optical coupler 120 into electrical signals to generate an OCT image for the object 30 to be inspected. The collimator 152 ), A diffraction grating 154, a focusing lens 156, and a line scan camera 158.

보다 상세하게는, 콜리메이터(152)는 레퍼런스부(130)와 스캐닝 프로브(140)로부터 반사된 제 1 반사 광 및 제 2 반사 광을 광 커플러(120)를 통하여 수신하여 평행 광으로 변환시킬 수 있다. 회절격자(154)는 콜리메이터(152)를 통하여 변환된 평형광을 수신하여 각 파장별로 회절시킬 수 있다. 포커싱 렌즈(156)는 회절격자(154)를 통하여 회절된 평행 광을 각 파장 대역에 따라 하나의 포커스로 모이도록 평행 광의 포커스 거리를 조절할 수 있다. 라인 스캔 카메라(158)는 포커싱 렌즈(156)를 통하여 각 파장 대역에 따라 하나의 포커스로 모인 광을 라인 상태로 스캔하여 검사 대상(30)의 영상을 생성할 수 있으며, 예를 들면, CMOS 카메라를 포함할 수 있다. More specifically, the collimator 152 receives the first reflected light and the second reflected light reflected from the reference unit 130 and the scanning probe 140 through the optical coupler 120, and converts the first reflected light and the second reflected light into parallel light . The diffraction grating 154 can receive the converted balanced light through the collimator 152 and diffract it by wavelength. The focusing lens 156 can adjust the focus distance of the parallel light so that the parallel light diffracted through the diffraction grating 154 is gathered into one focus according to each wavelength band. The line scan camera 158 can scan the light collected in one focus according to each wavelength band through the focusing lens 156 in a line state to generate an image of the inspection object 30. For example, . ≪ / RTI >

중심점 검출 장치(20)는 OCT 영상에서 나타나는 영역들에 대하여 각 영역들의 위치를 독립적으로 지정할 수 있고 또한 십자 방향 트래킹을 활용하여 해당 영역의 크기를 산출할 수 있으므로 영역 기반 분석이 가능하다. 이러한 중심점 검출 장치(20)는 제품 표면의 이물질 영역과 같은 의미 있는 영역 수집 시에 해당 영역의 위치와 크기에 대한 수집에 활용할 수 있으므로 영상 해석에 중요한 기능을 가질 수 있다.The center-point detector 20 can independently specify the positions of the respective regions with respect to the regions appearing in the OCT image, and can also calculate the sizes of the regions using the cross-direction tracking, so that the region-based analysis is possible. Such a center-point detecting device 20 can be used for collecting the position and size of a corresponding area when collecting a meaningful area such as a foreign object area on the surface of the product, and thus can have an important function in image analysis.

또한, 중심점 검출 장치(20)는 영상 처리에서 영역 검출에 관련된 것으로서 위치를 기반으로 영역의 존재 여부를 판단하고 영역의 중심점임을 트래킹하여 검증하는 방식으로 수행된다. 여기서 영역의 중심점은 OCT 영상을 미리 설정된 임계값에 의해 이진화한 모든 위치에서 판별 작업을 통해 결정되며, 이러한 판별 작업은 십자 방향 영역 트래킹 방식으로 수행되고, 트래킹의 정도에 따라 해당 영역의 크기를 산출할 수 있다. In addition, the center-point detection device 20 is related to area detection in the image processing. The center-point detection device 20 determines whether or not there is an area based on the position, and performs tracking and verification of the center point of the area. Here, the center point of the region is determined through a discrimination operation at every position where the OCT image is binarized by a predetermined threshold value. This discrimination operation is performed by the cross direction region tracking method, and the size of the corresponding region is calculated according to the degree of tracking can do.

이하 도 2 내지 5를 참조하여 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법을 더 상세하게 설명한다. 도 2는 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법을 나타낸 순서도이고, 도 3은 도 2의 십자 방향 영역 트래킹의 세부적인 구성을 나타낸 순서도이며, 도 4는 도 3의 십자 방향 영역 트래킹을 설명하기 위한 개념도이며, 도 5는 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법에 이용한 중심점 검출 예이다. Hereinafter, a method of detecting a center point of an area in an OCT image according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. FIG. 2 is a flowchart illustrating a method of detecting a center point of an area in an OCT image according to an embodiment of the present invention. FIG. 3 is a flowchart illustrating a detailed configuration of the cross- FIG. 5 is an example of detection of a center point used in a method of detecting a center point of an area in an OCT image according to an embodiment of the present invention.

OCT 영상에서 영역의 중심점 검출 방법(200)은 OCT 영상을 획득하는 단계(S201), OCT 영상을 이진화하는 단계(S202), 후보점에 대한 십자 방향 영역을 트래킹하는 단계(S203 내지 S205), 후보점 중에서 중심점을 산출하는 단계(S206 내지 S209), 및 영역의 크기를 산출하는 단계(S210)로 구성된다. The method 200 for detecting a center point of an area in an OCT image may include a step S201 of obtaining an OCT image, a step S202 of binarizing an OCT image, a step S203 to S205 of tracking a cross direction region with respect to a candidate point, Calculating a center point in the points (S206 to S209), and calculating a size of the area (S210).

보다 상세히 설명하면, 도 2에 도시된 바와 같이, 먼저, 광 간섭성 단층 촬영 장치(10)로부터 OCT 영상을 획득할 수 있다(단계 S201). More specifically, as shown in FIG. 2, first, an OCT image can be obtained from the optical coherence tomography apparatus 10 (step S201).

다음으로, 광 간섭성 단층 촬영 장치(10)로부터 획득하여 중심점 검출 장치(20)에 저장된 OCT 영상을 미리 정해진 임계값에 의해 이진화할 수 있다(단계 S202). 여기서, OCT 영상의 크기를 R × C(R,C는 자연수)로, 각 화소의 좌표값을 r, c라고 가정하면, 이진화 영상(B)은 아래의 식으로 표현할 수 있다.Next, the OCT image acquired from the optical coherence tomography apparatus 10 and stored in the central point detecting apparatus 20 can be binarized by a predetermined threshold value (step S202). Assuming that the size of the OCT image is R x C (R, C is a natural number) and the coordinate values of each pixel are r, c, the binarized image B can be expressed by the following equation.

Figure 112014123343892-pat00001
Figure 112014123343892-pat00001

여기서, T는 이진화 영상의 임계치이고, I(r,c)는 화소의 좌표(r,c)에서의 밝기이다. Here, T is the threshold value of the binarized image, and I (r, c) is the brightness at the coordinates (r, c) of the pixel.

다음으로, 이진화 영상으로부터 검출하고자 하는 영역을 후보점으로 선별할 수 있다(단계 S203). 여기서, 검출하고자 하는 영역은 수학식 1에서 밝기가 "1"인 영역이고, 예를 들면, 이물질에 대응하는 영역일 수 있다. 즉, 위의 이진화 영상에서 각 밝기 "1"을 갖는 화소를 중심점에 대한 후보점으로서 선별할 수 있다. Next, an area to be detected from the binarized image can be selected as a candidate point (step S203). Here, the region to be detected is a region whose brightness is "1 " in Equation (1), and may be, for example, a region corresponding to a foreign substance. That is, the pixel having the brightness "1" in the above binarized image can be selected as a candidate point for the center point.

다음으로, 영역에 대한 트래킹을 위한 임의의 후보점을 선택할 수 있다(단계 S204). 도 2에서는 개별 후보점들에 대한 순차적인 트래킹을 예로 설명하여 선별된 후보점 중에서 하나의 후보점을 선택하여 트래킹을 수행하는 것으로 설명하였으나, 트래킹을 병렬로 처리하는 경우에는 병렬 처리 수에 따른 개수의 후보점을 선택할 수 있다. Next, an arbitrary candidate point for tracking for the area can be selected (step S204). In FIG. 2, sequential tracking of individual candidate points is described as an example, and one of the selected candidate points is selected to perform tracking. However, when tracking is performed in parallel, the number of parallel processes Can be selected.

다음으로, 선택된 후보점에 대하여 십자 방향으로 확장하면서 검출하고자 하는 영역의 경계 지점까지 트래킹할 수 있다(단계 S205). 즉, 도 4에 도시된 바와 같이, 선택된 후보점을 중심으로 수평 및 수직 양방향에 대하여 십자 방향으로 확장하면서 해당 위치에 대한 화소의 밝기를 판별하여 화소의 밝기가 상이한 경계 지점까지 영역에 대한 트래킹을 수행할 수 있다. 도 4에서, 각각의 원은 화소를 표시하며, 검정색 원은 이진화 영상에서 "0"의 밝기이고, 백색원은 "1"의 밝기이다. 여기서, 트래킹 대상 후보점 C(r,c)은 회색원으로 표시된다. Next, the boundary point of the region to be detected can be tracked while extending in the cross direction with respect to the selected candidate point (Step S205). That is, as shown in FIG. 4, the brightness of the pixel for the position is expanded while expanding in the cross direction with respect to both the horizontal and vertical directions about the selected candidate point, and the tracking for the area up to the boundary point where the brightness of the pixel is different Can be performed. In Figure 4, each circle represents a pixel, the black circle is the brightness of "0" in the binarized image, and the white circle is the brightness of "1". Here, the tracking target candidate point C (r, c) is indicated by a gray circle.

이와 같은 트래킹 단계를 도 3을 참조하여 더 상세하게 설명한다. Such a tracking step will be described in more detail with reference to FIG.

먼저, 임의의 후보점을 기준으로 수직 또는 수평 방향으로 1 화소씩 확장한 위치가 검출하고자 하는 영역과 동일한 밝기를 갖는지를 판별할 수 있다(단계 S301). 도 4(a)에 도시된 바와 같이, 후보점 C(r,c)에 대하여 십자 방향으로 1화소씩 확장한 위치, 즉, 수평 방향 B(r,c-1) 및 B(r,c+1)와 수직 방향 B(r+1,c) 및 B(r-1,c)에 대한 밝기의 값을 판별할 수 있다. First, it can be determined whether a position expanded by one pixel in the vertical or horizontal direction with respect to an arbitrary candidate point has the same brightness as an area to be detected (step S301). (R, c-1) and B (r, c + 1), which are positions extended in the cross direction by one pixel with respect to the candidate point C (r, c) 1) and the vertical directions B (r + 1, c) and B (r-1, c).

다음으로, 해당 후보점에 대하여 확장한 각각의 위치가 검출하고자 하는 영역과 모두 상이한 밝기인지를 판단하여(단계 S302), 해당 후보점에 대하여 확장한 각각의 위치가 검출하고자 하는 영역과 모두 상이한 밝기인 경우, 즉, 해당 위치가 모두 "0"의 밝기를 갖는 경우, 해당 후보점에 대한 경계 지점까지의 거리를 산출할 수 있다(단계 S303). 여기서, 검출하고자 하는 영역과 상이한 밝기를 갖는 트래킹 위치는 "0"의 밝기를 갖기 때문에, 결과적으로 검출하고자 하는 영역, 즉 이물질 영역의 경계 지점을 의미한다. 다시 말하면, 십자 방향 트래킹 위치의 밝기가 모두 "0"인 경우, 해당 후보점을 중심으로 최대 트래킹 범위이므로, 해당 후보점에서 경계 지점까지의 거리를 산출할 수 있다. 이와 같이 해당 후보점에 대한 경계 지점까지의 거리가 산출되면 해당 후보점에 대한 트래킹을 종료하고, 도 2의 단계 S206으로 진행할 수 있다. Next, it is determined whether each of the expanded positions of the candidate point is different from the detected region (step S302). If each of the positions extended for the candidate point is different from the brightness of the region to be detected , I.e., if the corresponding positions have brightness of "0 ", the distance to the boundary point with respect to the candidate point can be calculated (step S303). Here, since the tracking position having a brightness different from that of the area to be detected has brightness of "0 ", it means the area to be detected, that is, the boundary point of the foreign substance area. In other words, when the brightness of the cross-direction tracking positions is all "0", since the maximum tracking range is around the candidate point, the distance from the candidate point to the boundary point can be calculated. When the distance to the boundary point of the candidate point is calculated as described above, the tracking of the corresponding point is terminated and the process can proceed to step S206 of FIG.

단계 S302의 판단 결과, 해당 후보점에 대하여 확장한 각각의 위치의 밝기가 검출하고자 하는 영역의 밝기와 적어도 하나의 방향에 대하여 동일한 밝기인 경우, 즉, 수평 및 수직 방향으로 확장한 위치에 대하여 적어도 하나가 "1"의 밝기를 갖는 경우, 동일한 밝기의 방향으로 트래킹 범위를 확장할 수 있고(단계 S304), 다시 단계 S301로 복귀하여 해당 후보점에 대하여 십자 방향으로 확장한 위치의 세기를 판별할 수 있다. 도 4(b) 및 도 4(c)에 도시된 바와 같이, 후보점 C(r,c)에 대하여 2화소씩 확장한 위치, 즉, 수평 방향 B(r,c-2) 및 B(r,c+2)와 수직 방향 B(r+2,c) 및 B(r-2,c)로 트래킹 범위를 확장할 수 있고, 후보점 C(r,c)에 대하여 3화소씩 확장한 위치, 즉, 수평 방향 B(r,c-3) 및 B(r,c+3)와 수직 방향 B(r+3,c) 및 B(r-3,c)로 트래킹 범위를 단계적으로 확장할 수 있다. If it is determined in step S302 that the brightness of each position extended to the candidate point is the same brightness as the brightness of the area to be detected in at least one direction, If one has the brightness of "1 ", the tracking range can be extended in the same brightness direction (step S304), and the process returns to step S301 to determine the intensity of the position extended in the cross direction with respect to the candidate point . C (r, c-2) and B (r, c), which are positions extended by two pixels with respect to the candidate point C (r, c), as shown in Figs. 4 (r, c) can be extended to the candidate point C (r, c) by three pixels in the vertical direction B (r + 2, c) , That is, the tracking range is gradually expanded in the horizontal directions B (r, c-3) and B (r, c + 3) and the vertical directions B (r + 3, c) and B .

단계 S304의 트래킹 범위 확장 및 단계 S301의 해당 위치 판별은 트래킹 위치, 즉, 십자 방향으로 확장한 위치의 밝기가 모두 "0"일 때까지, 즉, 검출하고자 하는 영역의 경계 지점까지 반복적으로 수행될 수 있다.The extension of the tracking range in step S304 and the determination of the corresponding position in step S301 are performed repeatedly until the brightness at the tracking position, that is, the position expanded in the cross direction, is all "0 & .

이와 같은 도 2의 단계 S205 및 도 3의 트래킹 단계는 각 후보점에 대하여 독립적으로 구성되기 때문에 병렬로 수행할 수 있다. 즉, 한 후보점이 중심점인지를 학인하기 위해 해당 영역을 십자 방향으로 트래킹하는 경우, 다른 후보점이나 중심점으로 결정된 후보점들이 현재 트래킹 연산중인 후보점의 중심점에 대한 중심점 여부의 결정에 영향을 주지 않기 때문에 각각에 대한 병렬 수행이 가능하다. 따라서, 다수의 후보점에 대한 트래킹의 성능을 극대화하기 위해 병렬 처리를 기반으로 GPU(Graphic processing unit)를 이용하여 구현될 수 있다. 예를 들면, GPU의 스레드(thread)는 모든 후보점에 할당하고 스레드의 번호를 활용하여 트래킹 위치를 결정할 수 있다. 여기서, 이진화 영상은 컴퓨터의 메모리와 같은 중심점 검출 장치(20)의 저장부에 저장될 때 실제 물리적 메모리 주소를 가진다. 따라서 이진화 영상 데이터가 선형 메모리에 순차적으로 할당되면 2차원 좌표 값을 활용하여 후보점의 물리적 메모리 주소 값을 산출할 수 있다. 또한 후보점이 트래킹의 범위를 확장할 때 수평 및 수직 방향에 존재하는 이진화 영상의 화소들의 주소를 산출할 수 있다. The step S205 of FIG. 2 and the tracking step of FIG. 3 can be performed in parallel because they are independently configured for each candidate point. That is, in the case where a candidate point is tracked in the cross direction so as to recognize that the candidate point is the center point, the candidate points determined as other candidate points or center points do not influence the determination of whether or not the center point is the center point of the candidate point Therefore, parallel execution is possible for each. Therefore, it can be implemented using GPU (Graphic processing unit) based on parallel processing in order to maximize the tracking performance for a plurality of candidate points. For example, a GPU thread can assign to all candidate points and use the number of threads to determine the tracking position. Here, the binarized image has an actual physical memory address when it is stored in the storage unit of the central point detecting apparatus 20 such as a memory of a computer. Therefore, when the binary image data is sequentially allocated to the linear memory, the physical memory address value of the candidate point can be calculated by using the two-dimensional coordinate value. Also, when the candidate point extends the range of tracking, the addresses of the pixels of the binarized image existing in the horizontal and vertical directions can be calculated.

다시 도 1을 참조하여, 각 후보점 중에서 경계 지점까지의 거리가 최대인 후보점을 중심점으로 산출할 수 있다. 예를 들면, 단계 S205에서 트래킹한 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰지를 판단하여(단계 S206), 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰 경우, 해당 후보점을 신규 중심점으로 등록할 수 있다(단계 S207). 이때, 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 작은 경우, 해당 후보점을 제거하고 단계 S204로 복귀하여 다음 후보점에 대한 트래킹 및 중심점 판별(단계 S204 내지 단계 S206)을 수행할 수 있다. 여기서, 최초 트래킹시 또는 중심점 판별시에는 기등록된 중심점이 없기 때문에, 최초 선택된 후보점을 중심점으로 등록할 수 있다. Referring again to FIG. 1, a candidate point having a maximum distance from the candidate point to the boundary point can be calculated from the center point. For example, it is determined whether the distance to the boundary point of the candidate point tracked in step S205 is larger than the distance to the boundary point of the previously registered center point (step S206), and the distance to the boundary point of the candidate point If it is larger than the distance to the boundary point of the registered center point, the corresponding candidate point can be registered as the new center point (step S207). At this time, if the distance to the boundary point of the candidate point is smaller than the distance to the boundary point of the previously registered center point, the corresponding point is removed and the process returns to step S204 to determine the tracking and center point for the next candidate point Step S206). Here, at the time of initial tracking or determination of the center point, since there is no pre-registered center point, the first selected candidate point can be registered as the center point.

다음으로, 후보점이 존재하지 않는지를 판단하여(단계 S208), 후보점이 존재하지 않는다고 판단한 경우에는, 즉, 모든 후보점에 대한 트래킹이 완료된 경우, 최종 등록된 신규 중심점을 중심점으로 확정하여 해당 검출하고자 하는 영역에 대한 중심점을 산출할 수 있다(단계 S209). Next, it is judged whether there is no candidate point (step S208). When it is judged that there is no candidate point, that is, when tracking for all candidate points is completed, the finally registered new center point is determined as the center point, (Step S209).

도 2에서는 단계 S205의 십자 방향 영역 트래킹을 각각의 후보점에 대하여 수행한 직후 중심점의 여부를 판단하는 것으로 설명하였으나, 이에 한정되지 않고, 십자 방향 영역 트래킹을 병렬로 처리한 경우에는 트래킹 완료된 모든 후보점에 대하여 단계 S206 내지 단계 S208만을 반복 수행하여 중심점을 확정할 수 있다. In the example of FIG. 2, it is determined whether or not the center point is determined immediately after the cross direction region tracking in step S205 is performed for each candidate point. However, the present invention is not limited to this case. In the case where the cross direction region tracking is processed in parallel, The center point can be determined by repeating only steps S206 to S208 with respect to the point.

다음으로, 검출하자고 자는 영역에 대한 중심점을 기반으로 해당 영역의 크기를 산출할 수 있다(단계 S210). 예를 들면, 중심점과 경계 지점까지의 거리를 이용하여 해당 영역에 포함되는 화소의 수를 산출하고, 따라서, 해당 영역에 대응하는 크기를 산출할 수 있다. Next, the size of the corresponding area can be calculated based on the center point of the area to be detected (step S210). For example, it is possible to calculate the number of pixels included in the area using the distance to the center point and the boundary point, and thus calculate the size corresponding to the area.

도 5에 도시된 바와 같이, 상기와 같은 십자 방향 영역 트래킹 방법을 이용하여 영역의 중심점을 검색하고 크기를 산출한 예로부터, 검사 영역 내의 이물질 위치 및 영역을 정확하게 검출할 수 있다. 도 5에서, 내부에 도시된 청색 점선은 검사 영역을 나타내며, 적색 점선으로 된 원은 본 발명의 실시예에 따른 십자 방향 영역 트래킹 방법을 이용한 영역의 중심점 검출 방법에 의해 검사 영역 내부에 존재하는 영역들의 중심점을 검출하고 그 중심점에서 수평 및 수직으로 산출된 크기를 기반으로 타원으로 나타낸 것이다. As shown in FIG. 5, since the center point of the area is searched and the size is calculated by using the cross-directional area tracking method, the position and the area of the foreign object in the inspection area can be accurately detected. In FIG. 5, the blue dashed line represents the inspection region, and the circle with the red dotted line represents the region existing within the inspection region by the method of detecting the center point of the region using the cross direction region tracking method according to the embodiment of the present invention. Of the center point and the ellipse based on the size calculated horizontally and vertically at the center point.

이와 같은 방법에 의해 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 방법은 후보점에 대한 중심점 여부의 판단시 후보점들 사이의 영향 없이 단독으로 수행할 수 있고 따라서 병렬 처리가 가능하며 GPU를 이용하여 고속 연산을 수행할 수 있으며, 특정 위치에서 이물질 검출 여부를 판단할 수 있고, 따라서 적용 분야를 제품의 결함 검사로 확대할 수 있으며, 제품 결합 검사를 고속으로 수행할 수 있어 제품의 검사 시간을 단축함으로써 제품의 생산 수율을 향상시킬 수 있다. According to the method, the method of detecting a center point of an area in an OCT image according to an embodiment of the present invention can be performed independently without influence between candidate points in determining a center point for a candidate point, Speed operation can be performed using the GPU, and it is possible to determine whether or not foreign matter is detected at a specific position. Therefore, the application field can be extended to defect inspection of the product, and the product combination inspection can be performed at a high speed, The production yield of the product can be improved by shortening the inspection time.

상기와 같은 방법들은 도 1에 도시된 바와 같은 OCT 영상에서 영역의 중심점 검출 장치(20)에 의해 구현될 수 있고, 특히, 이러한 단계들을 수행하는 소프트웨어 프로그램으로 구현될 수 있으며, 이 경우, 이러한 프로그램들은 컴퓨터 판독가능한 기록 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다. The above methods may be implemented by a device 20 for detecting a center of a region in an OCT image as shown in FIG. 1, and in particular, a software program for performing these steps. In this case, May be stored in a computer-readable recording medium or transmitted by a computer data signal coupled with a carrier wave in a transmission medium or a communication network.

이 때, 컴퓨터 판독 가능한 기록 매체는 컴퓨터 시스템에 의해 판독가능한 데이터가 저장되는 모든 종류의 기록 장치를 포함하며, 예를 들면, ROM, RAM, CD-ROM, DVD-ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크, 광 데이터 저장장치 등일 수 있다. At this time, the computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. For example, ROM, RAM, CD-ROM, DVD-ROM, DVD- , A floppy disk, a hard disk, an optical data storage device, or the like.

이하, 도 6 및 도 7을 참조하여 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 장치를 설명한다. 도 6은 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 장치의 세부구성을 나타낸 블록도이고, 도 7은 도 6의 트래킹부의 세부구성을 나타낸 블록도이다. Hereinafter, an apparatus for detecting a center point of an area in an OCT image according to an embodiment of the present invention will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a block diagram illustrating a detailed configuration of an apparatus for detecting a center point of an OCT image according to an exemplary embodiment of the present invention, and FIG. 7 is a block diagram illustrating a detailed configuration of the tracking unit of FIG.

OCT 영상에서 영역의 중심점 검출 장치(20)는 영상 저장부(210), 이진화 영상 산출부(220), 트래킹부(230), 중심점 산출부(240), 및 영역 산출부(250)를 포함할 수 있다.  The center point detecting apparatus 20 of the region in the OCT image includes an image storing unit 210, a binarized image calculating unit 220, a tracking unit 230, a center point calculating unit 240, and an area calculating unit 250 .

영상 저장부(210)는 광 간섭성 단층 촬영 장치(10)로부터 획득된 OCT 영상을 저장할 수 있다. 또한 영상 저장부(210)는 이진화 영상 산출부(220)에 의해 산출된 이진화 영상을 저장할 수 있다. The image storage unit 210 may store the OCT image acquired from the optical coherence tomography apparatus 10. Also, the image storage unit 210 may store the binarized image calculated by the binarization image calculation unit 220.

이진화 영상 산출부(220)는 영상 저장부(210)에 저장된 영상을 미리 정해진 임계값에 의해 이진화하여 검출하고자 하는 영역을 후보점으로 선별할 수 있다. 여기서, 이진화 영상은 상기의 수학식 1에 의해 산출될 수 있고, 이때, 검출하고자 하는 영역은 밝기가 "1"인 화소들이며, 이물질에 대응하는 영역일 수 있다. 또한, 이진화 영상 산출부(220)는 선별된 후보점 영역을 영상 저장부(210)에 저장할 수 있다. The binarization image calculation unit 220 may binarize the image stored in the image storage unit 210 according to a predetermined threshold to select a region to be detected as a candidate point. Here, the binarized image can be calculated by Equation (1), and the area to be detected is a pixel having a brightness of "1 ", and may be a region corresponding to a foreign object. In addition, the binarization image calculation unit 220 may store the selected candidate point region in the image storage unit 210.

트래킹부(230)는 도 4에 도시된 바와 같이 각 후보점에 대하여 십자 방향으로 확장하면서 검출하고자 하는 영역의 경계 지점까지 트래킹할 수 있으며, 도 7에 도시된 바와 같이, 트래킹 범위 조정부(232), 판별부(234), 및 최대 거리 산출부(236)를 포함할 수 있다. 4, the tracking unit 230 may track the boundary point of the region to be detected while expanding in the cross direction with respect to each candidate point as shown in FIG. 4. As shown in FIG. 7, the tracking range adjusting unit 232, A determination unit 234, and a maximum distance calculation unit 236. [

트래킹 범위 조정부(232)는 해당 후보점에 대하여 확장한 각각의 위치의 밝기가 검출하고자 하는 영역의 밝기와 적어도 하나의 방향에 대하여 동일한 밝기인 경우, 즉, 수평 또는 수직 방향에 대하여 상이한 밝기를 갖는 경계 지점에 도달하지 않은 경우, 동일한 밝기의 방향으로 트래킹 범위를 확장할 수 있다. 예를 들면, 트래킹 범위 조정부(232)는 해당 후보점에 대하여 검사하고자 하는 영역의 경계 지점에 도달할 때까지, 수평 또는 수직 방향으로 1화소씩 트래킹 범위를 확장할 수 있다. If the brightness of each position extended to the candidate point is equal to the brightness of the region to be detected with respect to at least one direction, that is, the tracking range adjustment unit 232 has different brightness for the horizontal or vertical direction When the boundary point is not reached, the tracking range can be extended in the direction of the same brightness. For example, the tracking range adjustment unit 232 may extend the tracking range by one pixel in the horizontal or vertical direction until reaching the boundary point of the region to be inspected with respect to the candidate point.

판별부(234)는 임의의 후보점을 기준으로 수직 또는 수평 방향으로 1 화소씩 확장한 위치가 검출하고자 하는 영역과 동일한 밝기를 갖는지를 판별할 수 있다. 즉, 판별부(234)는 후보점에 대한 십자 방향 위치가 후보점과 동일 영역인지 또는 경계 지점인지를 판별할 수 있다. 또한, 판별부(234)는 트래킹의 범위를 조정하거나 최대 거리를 산출하기 위해 해당 후보점에 대하여 확장한 각각의 위치가 검출하고자 하는 영역과 모두 상이한 밝기인지를 판단할 수 있다. The determination unit 234 can determine whether a position expanded by one pixel in the vertical or horizontal direction has the same brightness as an area to be detected based on an arbitrary candidate point. That is, the determining unit 234 can determine whether the crosswise position of the candidate point is the same as the candidate point or the boundary point. The determination unit 234 can determine whether each of the positions extended to the candidate point is different from the region to be detected in order to adjust the range of the tracking or calculate the maximum distance.

최대 거리 산출부(236)는 해당 후보점에 대하여 확장한 각각의 위치가 검출하고자 하는 영역과 모두 상이한 밝기인 경우, 해당 후보점에 대한 경계 지점까지의 거리를 산출할 수 있다. 즉, 최대 거리 산출부(236)는 십자 방향 트래킹 위치의 밝기가 모두 "0"인 경우, 해당 화소는 검출하고자 하는 영역의 경계 지점에 대응하므로, 해당 후보점과 거리를 최대 거리로서 산출할 수 있다. The maximum distance calculating unit 236 can calculate the distance to the boundary point of the candidate point when each of the positions extended for the candidate point is different from the brightness of the region to be detected. That is, when all the brightnesses of the cross-direction tracking positions are "0 ", the maximum distance calculating unit 236 calculates the maximum distance between the candidate point and the distance corresponding to the boundary point of the area to be detected have.

이러한 트래킹부(230)는 현재 트래킹 연산중인 후보점의 중심점에 대한 중심점 여부의 결정에 영향을 주지 않기 때문 GPU를 이용하여 각 후보점들에 대하여 병렬 처리할 수 있다. Since the tracking unit 230 does not affect the determination of whether or not the center point of the candidate point is currently being tracked, it is possible to perform parallel processing on each candidate point using the GPU.

중심점 산출부(240)는 각 후보점 중에서 경계 지점까지의 거리가 최대인 후보점을 중심점으로 산출할 수 있다. 즉, 중심점 산출부(240)는 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰지를 판단하여, 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰 경우, 해당 후보점을 신규 중심점으로 등록하고, 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 작은 경우, 해당 후보점을 제거할 수 있다. 따라서, 중심점 산출부(240)는 상기와 같은 동작을 모든 후보점들에 대하여 수행함으로써 최종적으로 중심점을 확정할 수 있다. The center point calculating unit 240 can calculate the candidate point having the maximum distance from the candidate points to the boundary point as a center point. That is, the center-point calculator 240 determines whether the distance to the boundary point of the candidate point is larger than the distance to the boundary point of the previously registered center point, and the distance to the boundary point of the corresponding candidate point is larger than the distance If the candidate point is registered as a new center point and the distance to the boundary point of the candidate point is smaller than the distance to the boundary point of the previously registered center point, have. Accordingly, the center-point calculator 240 can finally determine the center-point by performing the above-described operation on all the candidate points.

영역 산출부(250)는 검출하고자 하는 영역에 대한 중심점을 기반으로 해당 영역의 크기를 산출할 수 있다. 예를 들면, 중심점과 경계 지점까지의 거리를 이용하여 해당 영역에 포함되는 화소의 수를 산출하고, 따라서 해당 영역에 대응하는 크기를 산출할 수 있다. The area calculating unit 250 may calculate the size of the area based on the center point of the area to be detected. For example, the number of pixels included in the corresponding area can be calculated using the distance to the center point and the boundary point, and the size corresponding to the corresponding area can be calculated.

이러한 구성에 의해, 본 발명의 일 실시예에 따른 OCT 영상에서 영역의 중심점 검출 장치는 후보점에 대한 중심점 여부의 판단시 후보점들 사이의 영향 없이 단독으로 수행할 수 있고 따라서 병렬 처리가 가능하며 GPU를 이용하여 고속 연산을 수행할 수 있으며, 특정 위치에서 이물질 검출 여부를 판단할 수 있고, 따라서 적용 분야를 제품의 결함 검사로 확대할 수 있으며, 제품 결합 검사를 고속으로 수행할 수 있어 제품의 검사 시간을 단축함으로써 제품의 생산 수율을 향상시킬 수 있다. With this configuration, the apparatus for detecting a center point of an area in an OCT image according to an exemplary embodiment of the present invention can be independently performed without influence between candidate points in determining a center point for a candidate point, Speed operation can be performed using the GPU, and it is possible to determine whether or not foreign matter is detected at a specific position. Therefore, the application field can be extended to defect inspection of the product, and the product combination inspection can be performed at a high speed, The production yield of the product can be improved by shortening the inspection time.

이상에서 본 발명의 일 실시예에 대하여 설명하였으나, 본 발명의 사상은 본 명세서에 제시되는 실시 예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서, 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시 예를 용이하게 제안할 수 있을 것이나, 이 또한 본 발명의 사상범위 내에 든다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

10 : 광 간섭성 단층 촬영 장치
110 : 광원 120 : 광 커플러
130: 레퍼런스부 132 : 콜리메이터
134 : 포커싱 렌즈 136 : 레퍼런스 미러
140 : 스캐닝 프로브 142 : 콜리메이터
144 : 스캐닝 미러 146 : 스캔 렌즈
150 : 광 단층 촬영부 152 : 콜리메이터
154 : 회절격자 156 : 포커싱 렌즈
158 : 라인 스캔 카메라 20 : 중심점 검출 장치
210 : 영상 저장부 220 : 이진화 영상 산출부
230 : 트래킹부 232 : 트래킹 범위 조정부
234 : 판별부 236 : 최대 거리 산출부
240 : 중심점 산출부 250 : 영역 산출부
30 : 검사 대상
10: Optical coherence tomography apparatus
110: Light source 120: Optocoupler
130: Reference part 132: Collimator
134: focusing lens 136: reference mirror
140: scanning probe 142: collimator
144: scanning mirror 146: scan lens
150: optical tomographic part 152: collimator
154: diffraction grating 156: focusing lens
158: Line scan camera 20: Center point detection device
210: Image storage unit 220: Binarization image calculation unit
230: tracking unit 232: tracking range adjustment unit
234: discrimination unit 236: maximum distance calculation unit
240: center-point calculating unit 250: area calculating unit
30: subject to inspection

Claims (10)

OCT 영상을 획득하는 단계;
상기 획득한 영상을 미리 정해진 임계값에 의해 이진화하는 단계;
상기 이진화 영상으로부터 검출하고자 하는 영역을 후보점으로 선별하는 단계;
각 후보점에 대하여 십자 방향으로 확장하면서 상기 검출하고자 하는 영역의 경계 지점까지 트래킹하는 단계; 및
상기 각 후보점 중에서 상기 경계 지점까지의 거리가 최대인 후보점을 중심점으로 산출하는 단계를 포함하며,
상기 트래킹하는 단계는,
임의의 후보점을 기준으로 수직 또는 수평 방향으로 1 화소씩 확장한 위치가 상기 검출하고자 하는 영역과 동일한 밝기를 갖는지를 판별하는 단계;
상기 해당 후보점에 대하여 상기 확장한 각각의 위치가 상기 검출하고자 하는 영역과 모두 상이한 밝기인 경우, 상기 해당 후보점에 대한 상기 경계 지점까지의 거리를 산출하는 단계; 및
상기 해당 후보점에 대하여 상기 확장한 각각의 위치의 밝기가 상기 검출하고자하는 영역의 밝기와 적어도 하나의 방향에 대하여 동일한 밝기인 경우, 동일한 밝기의 방향으로 트래킹 범위를 확장하는 단계를 포함하는, OCT 영상에서 영역의 중심점 검출 방법.
Obtaining an OCT image;
Binarizing the acquired image by a predetermined threshold value;
Selecting an area to be detected from the binarized image as a candidate point;
Tracking each border point of the region to be detected while expanding in the cross direction with respect to each candidate point; And
Calculating a candidate point having a maximum distance from each of the candidate points to the boundary point as a center point,
Wherein the tracking comprises:
Determining whether a position expanded by one pixel in a vertical or horizontal direction based on an arbitrary candidate point has the same brightness as the area to be detected;
Calculating a distance to the boundary point with respect to the corresponding candidate point when each of the expanded positions is different in brightness from the area to be detected; And
Expanding the tracking range in the direction of the same brightness when the brightness of each of the extended positions with respect to the corresponding candidate point is the same brightness for at least one direction as the brightness of the area to be detected, A method of detecting a center point of an area in an image.
제 1 항에 있어서,
상기 검출하고자 하는 영역은 밝기가 "1"이고, 이물질에 대응하는 영역인, OCT 영상에서 영역의 중심점 검출 방법.
The method according to claim 1,
Wherein the region to be detected has a brightness of "1 ", and is a region corresponding to a foreign substance.
삭제delete 제 1 항에 있어서,
상기 중심점을 산출하는 단계는,
상기 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰지를 판단하는 단계;
상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 큰 경우, 상기 해당 후보점을 신규 중심점으로 등록하는 단계; 및
상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 작은 경우, 상기 해당 후보점을 제거하는 단계를 포함하는, OCT 영상에서 영역의 중심점 검출 방법.
The method according to claim 1,
The step of calculating the center-
Determining whether a distance to the boundary point of the corresponding candidate point is greater than a distance to a boundary point of the previously registered center point;
Registering the corresponding candidate point as a new center point when the distance to the boundary point of the corresponding candidate point is larger than the distance to the boundary point of the previously registered center point; And
And removing the corresponding candidate point when the distance to the boundary point of the corresponding candidate point is smaller than the distance to the boundary point of the previously registered center point.
제 1 항에 있어서,
상기 트래킹하는 단계는 상기 각 후보점에 대하여 병렬로 수행하는, OCT 영상에서 영역의 중심점 검출 방법.
The method according to claim 1,
Wherein the tracking is performed in parallel with respect to each of the candidate points.
획득된 OCT 영상을 저장하는 영상 저장부;
상기 저장된 영상을 미리 정해진 임계값에 의해 이진화하여 검출하고자 하는 영역을 후보점으로 선별하는 이진화 영상 산출부;
각 후보점에 대하여 십자 방향으로 확장하면서 상기 검출하고자 하는 영역의 경계 지점까지 트래킹하는 트래킹부; 및
상기 각 후보점 중에서 상기 경계 지점까지의 거리가 최대인 후보점을 중심점으로 산출하는 중심점 산출부를 포함하며,
상기 트래킹부는,
임의의 후보점을 기준으로 수직 또는 수평 방향으로 1 화소씩 확장한 위치가 상기 검출하고자 하는 영역과 동일한 밝기를 갖는지를 판별하는 판별부;
상기 해당 후보점에 대하여 상기 확장한 각각의 위치가 상기 검출하고자 하는 영역과 모두 상이한 밝기인 경우, 상기 해당 후보점에 대한 상기 경계 지점까지의 거리를 산출하는 최대 거리 산출부; 및
상기 해당 후보점에 대하여 상기 확장한 각각의 위치의 밝기가 상기 검출하고자 하는 영역의 밝기와 적어도 하나의 방향에 대하여 동일한 밝기인 경우, 동일한 밝기의 방향으로 트래킹 범위를 확장하는 트래킹 범위 조정부를 포함하는, OCT 영상에서 영역의 중심점 검출 장치.
An image storage unit for storing the obtained OCT image;
A binarization image calculator for binarizing the stored image by a predetermined threshold value to select an area to be detected as a candidate point;
A tracking unit extending in the cross direction with respect to each candidate point and tracking the boundary point of the region to be detected; And
And a center point calculation unit for calculating a candidate point having a maximum distance from the candidate points to the boundary point as a center point,
The tracking unit includes:
A discrimination unit for discriminating whether a position expanded by one pixel in the vertical or horizontal direction based on an arbitrary candidate point has the same brightness as the area to be detected;
A maximum distance calculating unit for calculating a distance to the boundary point with respect to the corresponding candidate point when each of the expanded positions of the corresponding candidate point is different from all of the areas to be detected; And
And a tracking range adjuster for expanding the tracking range in the same brightness direction when the brightness of each of the extended positions with respect to the corresponding candidate point is the same brightness for at least one direction as the brightness of the area to be detected , An apparatus for detecting a center point of an area in an OCT image.
제 6 항에 있어서,
상기 검출하고자 하는 영역은 밝기가 "1"이고, 이물질에 대응하는 영역인, OCT 영상에서 영역의 중심점 검출 장치.
The method according to claim 6,
Wherein the region to be detected has a brightness of "1 " and corresponds to a foreign object.
삭제delete 제 6 항에 있어서,
상기 중심점 산출부는 상기 해당 후보점의 경계 지점까지의 거리가 기등록된 중심점의 경계 지점까지의 거리보다 큰지를 판단하여, 상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 큰 경우, 상기 해당 후보점을 신규 중심점으로 등록하고, 상기 해당 후보점의 경계 지점까지의 거리가 상기 기등록된 중심점의 경계 지점까지의 거리보다 작은 경우, 상기 해당 후보점을 제거하는, OCT 영상에서 영역의 중심점 검출 장치.
The method according to claim 6,
The center point calculation unit may determine whether the distance to the boundary point of the corresponding candidate point is greater than the distance to the boundary point of the previously registered center point so that the distance to the boundary point of the corresponding candidate point is larger than the boundary point The candidate point is registered as a new center point and if the distance to the boundary point of the corresponding candidate point is smaller than the distance to the boundary point of the previously registered center point, The center point of the region in the OCT image.
제 6 항에 있어서,
상기 트래킹부는 상기 각 후보점에 대하여 병렬 처리하는, OCT 영상에서 영역의 중심점 검출 장치.
The method according to claim 6,
Wherein the tracking unit performs parallel processing on each of the candidate points.
KR1020140183452A 2014-12-18 2014-12-18 Method and apparatus for detecting center point of region in OCT image Expired - Fee Related KR101711708B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140183452A KR101711708B1 (en) 2014-12-18 2014-12-18 Method and apparatus for detecting center point of region in OCT image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140183452A KR101711708B1 (en) 2014-12-18 2014-12-18 Method and apparatus for detecting center point of region in OCT image

Publications (2)

Publication Number Publication Date
KR20160074851A KR20160074851A (en) 2016-06-29
KR101711708B1 true KR101711708B1 (en) 2017-03-03

Family

ID=56365443

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140183452A Expired - Fee Related KR101711708B1 (en) 2014-12-18 2014-12-18 Method and apparatus for detecting center point of region in OCT image

Country Status (1)

Country Link
KR (1) KR101711708B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117788464B (en) * 2024-02-26 2024-04-30 卡松科技股份有限公司 Industrial gear oil impurity visual detection method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164318A (en) * 2009-01-13 2010-07-29 Nippon Steel Corp Method and device for inspecting flaw
JP2012145568A (en) * 2010-12-21 2012-08-02 Panasonic Corp Optical tomographic image acquisition device
JP2012237585A (en) 2011-05-10 2012-12-06 Toppan Printing Co Ltd Defect inspection method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657867B1 (en) 2005-10-08 2006-12-15 건국대학교 산학협력단 Apparatus and method for detecting center point of mass region using iterative adaptive histogram smoothing
KR101337788B1 (en) * 2007-03-06 2013-12-06 고려대학교 산학협력단 Potable polarization-sensitive optical coherence imaging system for skin diagnoses

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164318A (en) * 2009-01-13 2010-07-29 Nippon Steel Corp Method and device for inspecting flaw
JP2012145568A (en) * 2010-12-21 2012-08-02 Panasonic Corp Optical tomographic image acquisition device
JP2012237585A (en) 2011-05-10 2012-12-06 Toppan Printing Co Ltd Defect inspection method

Also Published As

Publication number Publication date
KR20160074851A (en) 2016-06-29

Similar Documents

Publication Publication Date Title
JP6671426B2 (en) Detection of defects on wafers using defect identification information
JP6810505B2 (en) Teacher data creation method and equipment and defect inspection method and equipment
JP6515344B2 (en) Defect detection apparatus and defect detection method
US9552636B2 (en) Detecting defects on a wafer using defect-specific and multi-channel information
Wang Designs and implementations of automated systems for pavement surface distress survey
JP2009511897A (en) Object reconstruction method and system
KR102045079B1 (en) Inspection apparatus using terahertz wave
US11378521B2 (en) Optical condition determination system and optical condition determination method
JP2015172570A (en) Measurement instrument and measurement method
WO2016080442A1 (en) Quality evaluation method and quality evaluation device
JP2017040600A (en) Inspection method, inspection device, image processor, program and record medium
KR20200080367A (en) System and method for detecting bad contact lens
IL262170A (en) System, method and computer program product for correcting a difference image generated from a comparison of target and reference dies
KR20150072049A (en) Object recognition apparatus using spectrometer and method thereof
TW201941327A (en) Nuisance mining for novel defect discovery
JP5655045B2 (en) Optical surface defect inspection apparatus and optical surface defect inspection method
KR101711708B1 (en) Method and apparatus for detecting center point of region in OCT image
US9039183B2 (en) Ophthalmoscopes
CN111563870B (en) Image processing method and apparatus, detection method and apparatus, and storage medium
CN111640085B (en) Image processing method and apparatus, detection method and apparatus, and storage medium
JP6811874B2 (en) Image creation device, image creation method, image creation program
JP2022104899A (en) How to perform high dynamic range charged particle analysis
JP7265248B2 (en) Microspectrometer with automatic sample detection
KR102139311B1 (en) Appratus and method for measuring contact lens
CN105241816A (en) Terahertz imaging device and method

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20141218

PA0201 Request for examination
N231 Notification of change of applicant
PN2301 Change of applicant

Patent event date: 20150507

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160308

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20161124

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170223

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170223

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20201206