[go: up one dir, main page]

KR101528604B1 - Method and Apparatus for Processing Image - Google Patents

Method and Apparatus for Processing Image Download PDF

Info

Publication number
KR101528604B1
KR101528604B1 KR1020130072667A KR20130072667A KR101528604B1 KR 101528604 B1 KR101528604 B1 KR 101528604B1 KR 1020130072667 A KR1020130072667 A KR 1020130072667A KR 20130072667 A KR20130072667 A KR 20130072667A KR 101528604 B1 KR101528604 B1 KR 101528604B1
Authority
KR
South Korea
Prior art keywords
pixel
scan
image
lines
change point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020130072667A
Other languages
Korean (ko)
Other versions
KR20150000332A (en
Inventor
박시몽
이주헌
Original Assignee
주식회사 내비오닉스코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 내비오닉스코리아 filed Critical 주식회사 내비오닉스코리아
Priority to KR1020130072667A priority Critical patent/KR101528604B1/en
Publication of KR20150000332A publication Critical patent/KR20150000332A/en
Application granted granted Critical
Publication of KR101528604B1 publication Critical patent/KR101528604B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이미지 처리 장치 및 방법에 관한 것으로, 복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하는 단계, 그리고 제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 단계를 포함한다.The present invention relates to an image processing apparatus and method, comprising the steps of: scanning at least one pixel line in an image composed of a plurality of pixels in a predetermined direction to extract a change point of the pixel for each pixel line; A first distance between a changing point of the first pixel of the line and a changing point of the second pixel of the second pixel line located at one side of the first pixel line and a changing point of the first pixel, And determining a finishing point of the scan by comparing a second distance between the changing points of the third pixel of the third pixel line and a predetermined threshold.

Description

이미지 처리 방법 및 장치{Method and Apparatus for Processing Image}TECHNICAL FIELD The present invention relates to an image processing method and apparatus,

본 발명은 이미지 처리 방법 및 장치에 관한 것으로, 보다 자세하게는 이미지에 있는 대상체 주변의 노이즈를 제거하여 대상체의 형태를 추출할 수 있는 이미지 처리 방법 및 장치에 관한 것이다.The present invention relates to an image processing method and apparatus, and more particularly, to an image processing method and apparatus capable of extracting a shape of a target object by removing noise around an object in the image.

최근에는 디지털 기기의 발달로 인하여 디지털 카메라 또는 핸드폰 등을 사용하여 언제 어디서나 쉽게 주변의 영상을 촬영할 수 있다. 이러한 디지털 카메라 또는 핸드폰 등과 같이 영상을 촬영할 수 있는 디지털 기기들은 그 내부에 영상을 촬영하기 위한 화상 센서를 구비하고 있다.In recent years, due to the development of digital devices, digital cameras or mobile phones can be used to easily capture images at anytime and anywhere. Digital devices capable of capturing an image such as a digital camera or a mobile phone have an image sensor for capturing an image therein.

하지만, 화상 센서로 촬영된 영상 데이터에 노이즈가 포함될 경우, 촬영된 영상 데이터를 디스플레이하게 되면 영상을 정확하게 출력하지 못하게 된다. 또한, 물체나 대상을 식별하기 위해 가장 필요한 정보는 대상체의 형태에 대한 정보이나 영상 데이터에 노이즈가 포함될 경우, 노이즈의 영향으로 인해 대상체의 형태를 정확하게 파악하기 힘들게 된다.However, when noise is included in the image data photographed by the image sensor, if the photographed image data is displayed, the image can not be output correctly. In addition, when the information about the shape of the object or the image data includes noise, it is difficult to accurately grasp the shape of the object due to the influence of the noise.

이에 따라, 현재에는 노이즈를 보다 효과적으로 저감하여 영상 데이터에 있는 이미지를 정확하게 출력하기 위한 연구가 진행되고 있으며, 특히, 영상 데이터에 있는 대상체의 형태 이외의 주변 노이즈를 최소화하고, 대상체의 윤곽선을 추출하기 위한 연구가 이루어지고 있다. Accordingly, research is currently under way to more accurately reduce the noise and output the image in the image data. In particular, in order to minimize ambient noise other than the shape of the object in the image data and to extract the contour of the object Research is underway.

그러나, 일반적인 환경에서 촬영된 영상 데이터의 경우, 대상체의 주변 영상 즉, 배경에는 노이즈가 항상 존재하고, 이러한 영상 데이터에서 대상체의 윤곽선을 추출할 경우, 배경에 있는 노이즈의 영향으로 인해 대상체의 형태를 제대로 파악하는 것이 거의 불가능하거나 상당히 힘든 문제점이 있었다.However, in the case of image data photographed in a general environment, when the contour of the object is extracted from the surrounding image of the object, that is, the background is always present in the background, the shape of the object due to the influence of noise in the background It was almost impossible to grasp correctly or there was a problem that was quite difficult.

KRKR 1996-00032961996-0003296 AA

따라서 본 발명이 해결하고자 하는 과제는 입력 받은 이미지 내부에 있는 대상체를 기준으로 이미지를 복수 개의 단편(slice)으로 나누고, 복수 개의 단편 각각에서 추출된 대상체의 윤곽선을 결합하여 대상체의 최종 윤곽선을 보다 정확하게 추출할 수 있는 이미지 처리 방법 및 장치를 제공하는 것이다.Accordingly, an object of the present invention is to divide an image into a plurality of slices on the basis of a target object inside an input image, combine the contours of the object extracted from each of the plurality of fragments, And to provide an image processing method and apparatus capable of extracting images.

상기한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 이미지 처리 방법은 복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하는 단계, 그리고 제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 단계를 포함한다.According to an aspect of the present invention, there is provided an image processing method comprising: scanning at least one pixel line in an image composed of a plurality of pixels in a predetermined direction to extract a change point of the pixel for each pixel line; And a first distance between a change point of the first pixel of the first pixel line and a change point of the second pixel of the second pixel line located at one side of the first pixel line, And comparing the second distance between the change points of the third pixel of the third pixel line located on the other side of the first pixel line with a predetermined threshold to determine the end point of the scan.

상기 스캔의 종료 시점을 결정하는 단계는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하는 단계를 포함할 수 있다.The step of determining the end point of the scan may include continuing the scan to extract another pixel change point of the first pixel line if both the first and second distances are greater than the threshold .

상기 스캔의 종료 시점을 결정하는 단계는, 상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행하는 단계를 포함할 수 있다.The method of claim 1, wherein determining the end of the scan comprises: if the first and second distances are greater than the threshold and the other is less than the threshold, Grouping may be performed in a direction of a pixel line in which a distance between both sides is smaller than the threshold value and the other is larger than the threshold value.

상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료하는 단계를 더 포함할 수 있다.Wherein if the number of lines of the grouped pixel lines is smaller than a predetermined number of lines, the scanning is continued to extract another pixel change point with respect to the grouped pixel lines, and if the number of lines of the grouped pixel lines is smaller than the predetermined number of lines And terminating the scan if the size is larger.

상기 스캔의 종료 시점을 결정하는 단계는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료하는 단계를 포함할 수 있다.The ending point of the scan may include terminating the scan if the first and second distances are both less than the threshold.

상기 픽셀의 변화점을 추출하는 단계는, 상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출하는 단계를 포함할 수 있다.The step of extracting the change point of the pixel may include extracting a pixel whose value of the pixel is larger than a predetermined reference value as a change point of the pixel.

한편, 본 발명의 일 실시예에 따른 이미지 처리 장치는 복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하고, 제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 추출부를 포함한다.Meanwhile, the image processing apparatus according to an embodiment of the present invention scans at least one pixel line in an image made up of a plurality of pixels along a predetermined direction to extract change points of the pixels for each pixel line, A first distance between a changing point of the first pixel of the line and a changing point of the second pixel of the second pixel line located at one side of the first pixel line and a changing point of the first pixel, And an extracting unit for comparing the second distance between the change points of the third pixel of the third pixel line and a predetermined threshold to determine the end point of the scan.

상기 추출부는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행할 수 있다.The extraction unit may continue the scan to extract another pixel change point of the first pixel line if both the first and second distances are greater than the threshold value.

상기 추출부는, 상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행할 수 있다.The extraction unit groups the pixels in the direction of a pixel line having a distance smaller than the threshold value from the first pixel line if any one of the first and second distances is larger than the threshold and the other is smaller than the threshold, Can be grouped up to a pixel line where one side is smaller than the threshold value and the other side is larger than the threshold value.

상기 추출부는, 상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료할 수 있다.Wherein the extracting unit continues the scan so as to extract another pixel change point for the grouped pixel line if the number of lines of the grouped pixel line is smaller than a predetermined number of lines, If the number of lines is larger than the predetermined number of lines, the scan can be terminated.

상기 추출부는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료할 수 있다.The extractor may terminate the scan if the first and second distances are all less than the threshold.

상기 추출부는, 상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출할 수 있다.The extracting unit may extract a pixel having a pixel value larger than a predetermined reference value as a change point of the pixel.

이와 같이 본 발명의 실시예에 따른 이미지 처리 방법 및 장치에 따르면, 입력 받은 이미지 내부에 있는 대상체를 기준으로 이미지를 복수 개의 단편으로 나누고, 복수 개의 단편 각각에서 추출된 대상체의 윤곽선을 결합하여 대상체의 최종 윤곽선을 보다 정확하게 추출할 수 있는 장점이 있다.According to the image processing method and apparatus according to the embodiment of the present invention, an image is divided into a plurality of fragments on the basis of a target object in the input image, and contours of the target extracted from each of the plurality of fragments are combined, There is an advantage that the final contour line can be extracted more accurately.

즉, 대상체의 주변에 있는 노이즈를 제거하여 대상체의 형태를 제대로 파악할 수 있는 장점이 있다.That is, there is an advantage that the shape of the object can be grasped correctly by removing the noise around the object.

도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 구성도이다.
도 2는 입력 받은 이미지의 예이다.
도 3은 입력 받은 이미지에서 소벨 알고리즘을 이용하여 개략적으로 추출된 대상체의 윤곽선을 보여주는 예이다.
도 4는 복수 개의 단편으로 나누어진 상하 이미지의 예이다.
도 5는 상편에 있는 복수 개의 단편에서 추출된 대상체의 윤곽선을 보여주는 예이다.
도 6은 이미지를 Left 스캔한 Left 스위핑을 보여주는 예이다.
도 7은 이미지를 Top 스캔한 Top 스위핑을 보여주는 예이다.
도 8 및 도 9는 소벨 알고리즘이 수행된 이미지에서 대상체의 윤곽선을 추출하기 위한 Top 스위핑하는 과정을 보여주는 예이다.
도 10은 데이터 패턴을 이용한 스위핑을 보여주는 예이다.
도 11은 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑을 보여주는 예이다.
도 12 및 도 13은 본 발명의 일 실시예에 의한 8번 단편 내지 13번 단편에서 대상체의 윤곽선을 추출하는 과정을 보여주는 예이다.
도 14는 반복적인 윤곽선 추출 과정을 통해 추출된 대상체의 윤곽선을 보여주는 예이다.
도 15는 대상체의 주변에 있는 노이즈를 제거한 이미지를 보여주는 예이다.
도 16은 대상체의 최종 윤곽선을 보여주는 예이다.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 과정을 보여주는 동작 흐름도이다.
1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention.
2 is an example of an input image.
FIG. 3 shows an outline of a subject extracted roughly using a Sobel algorithm in an input image.
4 is an example of the upper and lower images divided into a plurality of fragments.
Fig. 5 is an example showing contours of a target object extracted from a plurality of fragments on the upper side.
6 shows an example of Left sweeping in which an image is left-scanned.
FIG. 7 shows an example of top sweeping in which an image is top-scanned.
FIGS. 8 and 9 are examples of a top sweeping process for extracting contours of a target object in an image in which the Sobel algorithm is performed.
10 is an example showing sweeping using a data pattern.
11 shows an example of threshold sweeping using the distance between simple sweeping results.
FIGS. 12 and 13 show an example of a process of extracting contours of a target object from fragments # 8 through # 13 according to an embodiment of the present invention.
FIG. 14 is an example showing contours of extracted objects through an iterative contour extraction process.
Fig. 15 is an example showing an image in which the noise around the object is removed.
16 is an example showing the final contour of the object.
17 is a flowchart illustrating an image processing process according to an embodiment of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 도면 중 일부는 표현이 명확할 수 있도록 반전 처리하여 도시하였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. Some of the drawings are shown in reversed processing so that the expressions can be made clear.

도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 구성도, 도 2는 입력 받은 이미지의 예, 도 3은 입력 받은 이미지에서 소벨 알고리즘을 이용하여 개략적으로 추출된 대상체의 윤곽선을 보여주는 예, 도 4는 복수 개의 단편으로 나누어진 상하 이미지의 예 및 도 5는 상편에 있는 복수 개의 단편에서 추출된 대상체의 윤곽선을 보여주는 예를 나타낸다.FIG. 1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention. FIG. 2 shows an example of an input image. FIG. 3 shows an outline of a target object extracted roughly using a Sobel algorithm in an input image. Fig. 4 shows an example of the upper and lower images divided into a plurality of fragments, and Fig. 5 shows an example showing the contours of the object extracted from the plurality of fragments on the upper side.

도 1에 도시한 바와 같이, 이미지 처리 장치(100)는 전처리부(110), 분할부(120), 추출부(130), 결합부(140) 및 후처리부(150)를 포함하여 구성된다.As shown in FIG. 1, the image processing apparatus 100 includes a preprocessing unit 110, a dividing unit 120, an extracting unit 130, a combining unit 140, and a post-processing unit 150.

전처리부(110)는 도 2에서와 같이, 디지털 카메라 또는 핸드폰 등을 포함한 디지털 기기에서 입력 받은 이미지에 대하여 전처리 동작을 수행할 수 있다. 즉, 전처리부(110)는 전처리 과정을 통해 입력 받은 이미지에 있는 노이즈를 저감시킬 수 있는데, 특히, 모션 블러(motion blur)를 제거하는 알고리즘 및 영상의 가장자리를 선명(sharpen)하게 하는 알고리즘을 이용하여 필요에 따라 이미지에 있는 노이즈를 전반적으로 줄일 수 있다. As shown in FIG. 2, the preprocessing unit 110 may perform a preprocessing operation on an image input from a digital device including a digital camera or a mobile phone. That is, the preprocessing unit 110 can reduce the noise in the input image through the preprocessing process. Particularly, the preprocessing unit 110 uses an algorithm for eliminating motion blur and an algorithm for sharpening the edge of the image Thereby reducing overall noise in the image as needed.

또한, 전처리부(110)는 도 3에서와 같이, 전처리 과정에서 노이즈가 저감된 이미지에 있는 대상체의 윤곽선을 개략적으로 추출할 수 있다. 전처리부(110)는 전처리 과정 시 대상체의 윤곽선을 개략적으로 추출하기 위하여 소벨(Sobel) 알고리즘 또는 프리윗(Prewitt) 알고리즘 등을 사용할 수 있다. 소벨 알고리즘은 대상체(물체)와 배경의 경계로, 픽셀의 밝기가 급격하게 변하는 불연속점인 윤곽선(에지)을 추출할 수 있는 가장 대표적인 1차 미분 연산자로, 수직, 수평 또는 대각선과 같이 모든 방향에 있는 에지를 추출할 수 있으나, 그 중에서도 대각선 방향의 에지를 추출하는데 유리하며, 잡음에 대체적으로 강한 장점이 있다. 프리윗(Prewitt) 알고리즘은 대각선 방향보다는 수직 및 수평 방향의 에지를 추출하는데 주로 사용되고, 수행 속도가 빠른 장점이 있다. 상술한 전처리 과정은 설정된 조건에 따라 생략될 수 있음은 물론이다.Also, as shown in FIG. 3, the preprocessing unit 110 can roughly extract the contour of the object in the noise-reduced image in the preprocessing process. The preprocessing unit 110 may use a Sobel algorithm or a Prewitt algorithm to roughly extract the contour of the object during the preprocessing process. The Sobel algorithm is the most representative first-order differential operator capable of extracting a contour (edge) that is a discontinuity point where the brightness of a pixel changes suddenly at the boundary between an object (object) and a background. It is advantageous to extract edges in the diagonal direction, and there is generally a strong advantage in noise. Prewitt algorithm is mainly used for extracting vertical and horizontal edges rather than diagonal direction, and has a high speed of execution. It goes without saying that the above-described preprocessing process can be omitted according to the set conditions.

한편, 이미지에 나타나는 대상체는 하기의 조건을 만족시켜야 한다.On the other hand, the object appearing in the image must satisfy the following conditions.

첫째, 대상체의 형태가 전부 이미지에 나타나야 하고, 둘째, 대상체는 이미지의 중심부에 위치하여야 한다. 셋째, 대상체의 양 끝점에 해당하는 부분이 가급적 이미지의 중심선에 있어야 한다. 이러한 대상체의 조건을 만족시키기 위하여 전처리 과정을 수행하는 도중이나 전처리 과정을 수행한 후, 이미지 내부에 있는 대상체의 위치를 조정하는 동작을 수행할 수 있다.First, the shape of the object should all appear in the image. Second, the object should be located in the center of the image. Third, the parts corresponding to both end points of the object should be at the center line of the image as much as possible. In order to satisfy the condition of the object, it is possible to perform the operation of adjusting the position of the object in the image after performing the preprocessing process or the preprocessing process.

분할부(120)는 도 4에 도시한 바와 같이, 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 이미지를 상하로 나눌 수 있으며, 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나눌 수 있다. 여기서, 상하로 나눈 이미지를 각각 상편(top slice) 및 하편(bottom slice)이라고 하며, 상편 및 하편을 각각 동일한 수(예컨대, 도 4에서는 20개)의 단편으로 나눌 수 있다.As shown in FIG. 4, the dividing unit 120 divides the image into upper and lower images based on both end points of the object in the input image, divides the upper and lower images into a plurality of slices have. Here, the upper and lower images are referred to as top slice and bottom slice, respectively, and the upper and lower halves can be divided into the same number (for example, 20 in FIG. 4).

추출부(130)는 복수 개의 단편 각각에서 대상체의 윤곽선을 추출할 수 있는데, 보다 자세하게는 도 5에서와 같이, 상편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출한 후, 하편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출할 수 있다. 5, the extraction unit 130 extracts contours of a target object from a plurality of fragments constituting the upper fragment, and then extracts contours of a plurality of fragments constituting the lower fragment The outline of the object can be extracted from the fragment.

보다 구체적으로 설명하면, 추출부(130)는 단편을 이루고 있는 적어도 하나의 픽셀 라인(pixel line)을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 검색된 픽셀의 변화점을 조합하여 대상체의 윤곽선을 추출할 수 있다. 즉, 추출부(130)는 스위핑(Sweeping) 알고리즘을 이용하여 복수 개의 픽셀 라인 각각을 미리 정해진 방향에 따라 스캔함으로써 각 픽셀 라인에서 형상이나 색을 나타내는 픽셀(데이터)의 구분점을 찾아낼 수 있고, 이를 응용하여 대상체의 윤곽선(또는 명암의 밝기나 색의 전환점)을 추출할 수 있다.More specifically, the extracting unit 130 scans at least one pixel line, which is a fragment, along a predetermined direction to search for a change point of a pixel for each pixel line, The outline of the object can be extracted. That is, the extracting unit 130 may scan the plurality of pixel lines in a predetermined direction by using a sweeping algorithm to find a pixel (data) dividing point indicating a shape or a color in each pixel line , And the contour of the object (or the turning point of the brightness or the color) of the object can be extracted by applying this.

이하에서는 대상체의 윤곽선을 추출하기 위해 사용하는 스위핑 알고리즘에 대하여 보다 상세하게 설명하도록 한다.Hereinafter, the sweeping algorithm used to extract the contour of the object will be described in more detail.

우선적으로, 스위핑 알고리즘은 1) 선형 스캔을 이용한 단순 스위핑(Simple Sweeping) 알고리즘, 2) 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘 및 3) 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘 등으로 이루어질 수 있다.First, sweeping algorithms can be classified as follows: 1) a simple sweeping algorithm using linear scans, 2) a pattern sweeping algorithm using data patterns, and 3) a threshold sweeping algorithm using the distance between simple sweeping results ≪ / RTI >

이 중에서, 1) 선형 스캔을 이용한 단순 스위핑 알고리즘은 단편을 이루고 있는 복수 개의 픽셀 라인을 따라 선형 스캔이 진행되는 도중에 미리 정해진 조건을 만족하는 픽셀(데이터)이 발견되면, 스캔을 중지하거나 경우에 따라 행이나 열의 끝까지 계속 스캔을 수행할 수 있도록 하여 발견된 픽셀을 상술한 픽셀의 변화점으로 선택하는 알고리즘으로, 선형 스캔(linear scan)을 기본으로 하여 이루어질 수 있다. Among them, 1) a simple sweeping algorithm using a linear scan, when a pixel (data) satisfying a predetermined condition is found during a linear scan along a plurality of pixel lines forming a fragment, An algorithm of selecting a pixel found as a change point of the pixel by performing a scan continuously to the end of a row or a column and may be performed on the basis of a linear scan.

선형 스캔은 복수 개의 픽셀 라인 각각을 선형적으로 스캔하는 것으로, 선형 스캔의 방향은 하나의 축에 대하여 양방향으로 이루어질 수 있다. 예를 들어, 이차원(2D) 이미지에서 선형 스캔은 네 개의 스캔 방향 즉, Top 스캔(위쪽에서 아래쪽 방향으로 스캔), Bottom 스캔(아래쪽에서 위쪽 방향으로 스캔), Right 스캔(오른쪽에서 왼쪽 방향으로 스캔) 및 Left 스캔(왼쪽에서 오른쪽 방향으로 스캔)을 포함하며, 스위핑 알고리즘은 스캔 방향에 따라 Top 스위핑, Bottom 스위핑, Right 스위핑 및 Left 스위핑으로 나눌 수 있다. 여기서, 선형 스캔은 특정한 데이터의 탐색, 데이터의 차이, 특정한 데이터의 범위나 집합에 포함된 값 등의 선택 조건에 따라 임의로 설정할 수 있으며, 선형 스캔의 종료 시점은 찾고자 하는 성질이나 용도에 따라 임의로 결정할 수 있음은 물론이다.A linear scan is a linear scan of each of a plurality of pixel lines, and the direction of the linear scan may be bi-directional with respect to one axis. For example, in a two-dimensional (2D) image, a linear scan can be performed in four scan directions: Top scan (scan from top to bottom), Bottom scan (scan from bottom to top), Right scan ) And Left scan (scan from left to right), and the sweep algorithm can be divided into Top Sweep, Bottom Sweep, Right Sweep, and Left Sweep according to the scan direction. Here, the linear scan can be arbitrarily set according to selection conditions such as searching for specific data, difference in data, a range of specific data or a value included in a set, and the end point of the linear scan can be determined arbitrarily Of course.

도 6은 이미지를 Left 스캔한 Left 스위핑을 보여주는 예 및 도 7은 이미지를 Top 스캔한 Top 스위핑을 보여주는 예를 나타낸다. FIG. 6 shows an example showing left sweeping in which an image is left-scanned, and FIG. 7 shows an example showing top sweeping in which an image is top-scanned.

도 6을 참조하면, Left 스위핑 알고리즘은 12개의 픽셀 라인 각각을 왼쪽에서 오른쪽 방향으로 스캔하여 각 픽셀 라인에서 5 이상의 값을 가지는 픽셀이 있는지 검색하고, 선형 스캔이 진행되는 도중에 5 이상의 값을 가지는 픽셀이 발견되면, 그 행이나 열의 스캔을 중지하도록 하여 픽셀의 변화점을 추출할 수 있다. 도 7은 도 6과 같은 조건으로 12개의 픽셀 라인 각각을 위쪽에서 아래쪽 방향으로 스캔하여 각 픽셀 라인에서 5 이상의 값을 가지는 픽셀이 있는지 검색하고, 선형 스캔이 진행되는 도중에 5 이상의 값을 가지는 픽셀이 발견되면, 그 행이나 열의 스캔을 중지하도록 하여 픽셀의 변화점을 추출할 수 있다.Referring to FIG. 6, the left sweep algorithm scans each of the twelve pixel lines from left to right to search for a pixel having a value of 5 or more in each pixel line, It is possible to extract the change point of the pixel by stopping the scan of the row or the column. FIG. 7 is a diagram illustrating a method of scanning each of the twelve pixel lines in the downward direction under the same conditions as in FIG. 6, searching for a pixel having a value of 5 or more in each pixel line, If found, the scan of the row or column is stopped, and the change point of the pixel can be extracted.

도 8 및 도 9는 소벨 알고리즘이 수행된 이미지에서 대상체의 윤곽선을 추출하기 위한 Top 스위핑하는 과정을 보여주는 예이다.FIGS. 8 and 9 are examples of a top sweeping process for extracting contours of a target object in an image in which the Sobel algorithm is performed.

도 8에서와 같이, 소벨 알고리즘이 수행되어 대상체의 윤곽선이 개략적으로 추출된 이미지에서 Top 스위핑을 수행하면, 도 9에 도시한 대상체의 상부에 해당하는 윤곽선이 추출될 수 있다. As shown in FIG. 8, when the Sobel algorithm is performed and top sweeping is performed on the image in which the contour of the object is roughly extracted, the contour corresponding to the upper part of the object shown in FIG. 9 can be extracted.

다음으로, 2) 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘은 두 개 이상의 특정한 정보에 대한 배열을 찾는 알고리즘으로, 예컨대, 흑백 이미지에서 ‘검정-하양-검정’과 같은 쌍을 찾는 것을 패턴 스캔이라고 한다. Next, 2) a pattern sweeping algorithm using a data pattern is an algorithm for finding an array of two or more specific pieces of information. For example, finding a pair such as 'black-white-black' do.

도 10은 데이터 패턴을 이용한 스위핑을 보여주는 예로서, 도 6에 도시한 12개의 픽셀 라인으로 이루어진 이미지를 Left 패턴 스캔(왼쪽에서 오른쪽 방향으로 패턴 스캔)하여 각 픽셀 라인에서 ‘0-8’의 패턴이 있는지 검색하고, 패턴 스캔이 진행되는 도중에 ‘0-8’의 패턴이 발견되면, 발견하는 즉시 스캔을 중지하도록 하여 도 10에서와 같은 패턴 스위핑의 결과를 추출할 수 있다.FIG. 10 shows an example of sweeping using a data pattern. In FIG. 6, an image composed of 12 pixel lines shown in FIG. 6 is subjected to Left pattern scan (pattern scan from left to right) If a pattern of '0-8' is found during the pattern scan, the scan is stopped immediately upon detection, and the result of pattern sweeping as shown in FIG. 10 can be extracted.

이와 같이, 추출부(130)는 선형 스캔을 이용한 단순 스위핑(Simple Sweeping) 알고리즘이나 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘을 이용하여 복수 개의 픽셀 라인 각각에서 미리 정해진 조건을 만족하는 픽셀이 있는지 검색하고, 검색된 픽셀을 결합하여 대상체의 윤곽선을 추출할 수 있는 것이다. As described above, the extracting unit 130 may search for a pixel satisfying a predetermined condition in each of a plurality of pixel lines by using a simple sweeping algorithm using a linear scan or a pattern sweeping algorithm using a data pattern And combines the retrieved pixels to extract the contour of the object.

또한, 추출부(130)는 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다.The extraction unit 130 scans at least one pixel line constituting the fragment in accordance with a predetermined direction to search for a change point of the pixel for each pixel line and determines whether the change point of the pixel or both sides of the change point of the pixel The edge of the pixel can be extracted by comparing the distance between the pixel change points on the pixel line located with the predetermined threshold value to determine the end point of the scan and further searching for the change point of the pixel according to the end point of the determined scan.

보다 상세하게 설명하면, 추출부(130)는 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘(이하, ‘임계치 스위핑 알고리즘’이라고 함)을 사용하여 대상체의 윤곽선을 추출할 수 있는데, 여기서, 임계치 스위핑 알고리즘은 선형 스캔을 이용한 단순 스위핑의 수행 결과를 이용하여 각 픽셀 라인에서 선형 스캔을 종료할지 여부를 결정하는 알고리즘이다.More specifically, the extractor 130 may extract a contour of a target object using a threshold sweep algorithm using a distance between simple sweep results (hereinafter referred to as a 'threshold sweep algorithm'), where , And the threshold sweep algorithm is an algorithm for determining whether to terminate the linear scan on each pixel line using the result of simple sweeping using linear scan.

도 11은 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑을 보여주는 예이다.11 shows an example of threshold sweeping using the distance between simple sweeping results.

도 11을 참조하면, 여러 개의 스캔 라인(픽셀 라인)이 있고, 스캔 라인 ‘n’, 스캔 라인 ‘n-1’ 및 스캔 라인 ‘n+1’에서 찾아낸 픽셀의 변화점을 S(n), S(n-1) 및 S(n+1)이라고 각각 가정하면, S(n)과 S(n-1) 간의 거리를 ㅿn(n-1)로 나타내고, S(n)과 S(n+1) 간의 거리를 ㅿn(n+1)으로 나타낼 수 있다. 만약, ㅿn(n-1)과 ㅿn(n+1)이 모두 미리 설정된 임계치(Dmax)보다 크면, 스캔 라인 ‘n’에서의 스캔을 계속 진행하여 픽셀의 변화점을 계속 추출하고, ㅿn(n-1)과 ㅿn(n+1)이 모두 임계치(Dmax)보다 크지 않으면, 스캔 라인 ‘n’에서의 스캔을 종료하여 픽셀의 변화점을 추출하는 동작을 중단할 수 있다. 또한, ㅿn(n-1)과 ㅿn(n+1) 중에서 어느 하나의 거리만 임계치(Dmax)보다 크면, 스캔 라인 ‘n’에서의 스캔은 일시 종료 상태가 되며, 다른 스캔 라인에서의 스캔은 계속 진행될 수 있다.Referring to FIG. 11, there are a plurality of scan lines (pixel lines) and the change points of the pixels found in the scan lines' n ',' n-1 'and' n + When each is assumed that S (n-1) and S (n + 1), represents the distance between S (n) and S (n-1) with DELTA n (n-1), S (n) and S (n +1) can be expressed as ㅿ n (n + 1). If both of n n (n-1) and n n (n + 1) are greater than a predetermined threshold value D max, scanning continues on the scan line 'n' to continue extracting the change point of the pixel, If both n (n-1) and n (n + 1) are not greater than the threshold value Dmax, the scan at the scan line 'n' is terminated and the operation of extracting the change point of the pixel can be stopped. If only one of the distances of nn (n-1) and nn (n + 1) is larger than the threshold value Dmax, the scan in the scan line 'n' The scan can continue.

그리고, 전체 스캔 라인에 대한 스캔이 완료되면, 일시 종료된 스캔 라인이 있는지 여부를 판단하고, 있으면 일시 종료 상태의 스캔 라인을 기준으로 임계치(Dmax)보다 작은 거리에 있는 스캔 라인 쪽으로 다음 일시 종료 상태의 스캔 라인까지 스캔 라인을 그룹화할 수 있다. 예를 들어, ㅿn(n-1)이 임계치(Dmax)보다 크고, ㅿn(n+1), ㅿn+1(n+2) 및 ㅿn+2(n+3)은 임계치(Dmax)보다 작고, ㅿn+3(n+4)이 임계치(Dmax)보다 크다면, n 및 (n+3)번째 스캔 라인은 일시 종료 상태의 스캔 라인이고, 따라서 n 내지 (n+3)번째 스캔 라인은 하나의 그룹으로 묶일 수 있으며, 이 스캔 라인 그룹 전후의 스캔 라인들에 대하여 동떨어져 있게 된다.When the scan for the entire scan line is completed, it is determined whether or not there is a temporarily terminated scan line. If the scan line is temporarily terminated, the next scan end line is shifted toward the scan line at a distance smaller than the threshold value Dmax, The scan lines can be grouped up to the scan line of FIG. For example, DELTA n (n-1) is larger than the threshold value (Dmax), DELTA n (n + 1), DELTA n + 1 (n + 2), and DELTA n + 2 (n + 3) is the threshold value (Dmax ) smaller, DELTA n + 3 (n + 4) side is larger than the threshold value (Dmax), n and (n + 3) th scanning line is a scanning line of the temporary termination state, and thus n to (n + 3) th The scan lines may be grouped into a group, and they are spaced apart from the scan lines before and after the scan line group.

이렇게 그룹화된 스캔 라인 중 라인 수가 미리 정해져 있는 라인 수보다 작은 스캔 라인 그룹의 경우 이 그룹에 포함되어 있는 스캔 라인을 더 스캔하여 다음 픽셀 변화점을 찾는다. 라인 수가 미리 정해져 있는 라인 수보다 큰 스캔 라인 그룹의 경우에는 일시 종료 상태를 해제하고 스캔을 종료할 수 있다.In the case of a scan line group in which the number of lines is smaller than the predetermined number of lines in the grouped scan lines, the scan lines included in the group are further scanned to find the next pixel change point. In the case of a scan line group in which the number of lines is larger than the predetermined number of lines, the temporary end state can be released and the scan can be terminated.

이와 같이, 추출부(130)는 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑 알고리즘을 사용하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다.As described above, the extracting unit 130 searches for a change point of a pixel for each pixel line using a threshold sweeping algorithm using the distance between simple sweeping results, and detects a change point of the pixel and a pixel line And determines the end point of the scan by searching the change point of the pixel according to the end point of the determined scan to extract the contour of the object.

결합부(140)는 윤곽선이 추출된 복수 개의 단편을 결합할 수 있는데, 보다 구체적으로는 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고, 산출된 표준편차를 이용하여 복수 개의 단편을 결합할 수 있다. 즉, 결합부(140)는 각 단편에 있는 윤곽선 정보의 표준편차를 산출하고, 윤곽선 정보의 표준편차를 이용하여 복수 개의 단편을 결합할 수 있는데, 여기서, 윤곽선 정보는 단편에 있는 중심선으로부터 윤곽선까지의 직선 거리를 나타내거나 (X, Y)에 대한 좌표 정보로 나타낼 수 있다.More specifically, the combining unit 140 may calculate a standard deviation for each of a plurality of fragments from which the outlines are extracted, and calculate a plurality of fragments using the calculated standard deviation, Can be combined. That is, the combining unit 140 may calculate the standard deviation of the contour information in each fragment, and may combine a plurality of fragments using the standard deviation of the contour information, wherein the contour information is from the center line to the contour in the fragment (X, Y), or may be represented by coordinate information with respect to (X, Y).

결합부(140)는 각 단편에 있는 윤곽선 정보에 대한 표준편차를 산출하기 위하여 각 단편에 있는 윤곽선 정보의 평균인 윤곽선의 평균 정보를 우선적으로 산출하고, 각 단편에 있는 윤곽선의 정보가 윤곽선의 평균 정보로부터 떨어져 있는 거리를 구하여 표준편차를 산출함으로써 이를 기반으로 복수 개의 단편을 결합할 수 있다.In order to calculate the standard deviation of the contour information in each fragment, the combining unit 140 preferentially calculates the average information of the contour, which is the average of the contour information in each fragment, and the information of the contour in each fragment is the average By taking the distance away from the information and calculating the standard deviation, it is possible to combine multiple fragments based on this.

보다 자세하게 설명하면, 결합부(140)는 미리 정해진 허용표준편차보다 표준편차가 작은 단편 중에서 표준편차가 최소인 기준 단편을 선택하고, 선택된 기준 단편을 기준으로 기준 단편의 양 측에 위치한 단편들을 차례로 결합해 나감으로써 결합 이미지를 생성할 수 있다. 허용표준편차는 최대로 허용 가능한 표준편차로, 결합부(140)는 표준편차가 허용표준편차보다 작은 단편 중에서 표준편차가 가장 작은 기준 단편을 선택할 수 있고, 선택된 기준 단편의 양 측에 허용표준편차보다 표준편차가 작은 단편이 있으면, 기준 단편과 해당 단편을 하나의 단편으로 결합하여 결합 이미지를 생성할 수 있다. 여기서, 적합한 단편이 하나도 없거나 정해진 표준편차 이내의 단편의 수가 어느 한도를 미치지 못할 때에는 주어진 이미지를 거부 또는 실패로 간주할 수 있다.More specifically, the combining unit 140 selects a reference fragment having a minimum standard deviation among fragments having a standard deviation smaller than a predetermined allowable standard deviation, and sequentially selects the fragments located on both sides of the reference fragment on the basis of the selected reference fragment You can combine to create a combined image. The permissible standard deviation is the maximum allowable standard deviation. The combining unit 140 can select the reference segment having the smallest standard deviation among the segments having the standard deviation smaller than the allowable standard deviation, If there is a fragment with a smaller standard deviation, the reference fragment and the fragment may be combined into one fragment to generate a combined image. Here, a given image can be regarded as rejection or failure when there are no suitable fragments or the number of fragments within a specified standard deviation does not reach a certain limit.

또한, 결합부(140)는 결합 이미지에 포함된 각 단편에 대하여 커브 피팅(curve-fitting)을 수행하여 가상의 윤곽선 정보를 계산하고, 각 단편에 있는 원래의 윤곽선 정보와 가상의 윤곽선 정보를 비교하여 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이를 검출할 수 있다. 그리고, 결합부(140)는 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 작거나 같은 구간에 대해서는 원래의 윤곽선 정보를 그대로 사용하고, 검출된 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 구간에 대해서는 그 구간에 해당되는 원래의 윤곽선 정보를 가상의 윤곽선 정보로 대체할 수 있다. 즉, 결합부(140)는 각 단편에서 추출된 원래의 윤곽선 정보 중에서 노이즈로 판단되는 원래의 윤곽선 정보에 대해서는 가상의 윤곽선 정보로 대체하여 노이즈를 제거할 수 있다.In addition, the combining unit 140 performs curve-fitting on each fragment included in the combined image to calculate virtual contour information, and compares the original contour information and the virtual contour information in each fragment So that the difference between the original outline information and the virtual outline information can be detected. Then, the combining unit 140 uses the original outline information as it is for a section where the difference between the original outline information and the virtual outline information is smaller than or equal to a predetermined reference difference, and uses the detected original outline information and the virtual outline information The original outline information corresponding to the section in which the information difference is larger than the predetermined reference difference can be replaced with the virtual outline information. That is, the combining unit 140 can remove noise from original contour information extracted from each fragment by replacing the original contour information determined as noise with virtual contour information.

한편, 결합부(140)는 기준 단편의 양 측에 위치한 단편의 표준편차가 허용표준편차보다 작지 않으면, 표준편차가 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 가상의 윤곽선 정보에 따라 제1 단편의 윤곽선 정보를 수정하고, 윤곽선 정보가 수정된 제1 단편과 결합 이미지를 결합할 수 있다. 여기서, 가상의 윤곽선 정보는 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.On the other hand, when the standard deviation of the fragment located on both sides of the reference fragment is not smaller than the allowable standard deviation, the combining unit 140 calculates virtual contour information for the first fragment whose standard deviation is not smaller than the allowable standard deviation, The contour information of the first fragment may be corrected according to the contour information of the contour information, and the combined first image and the combined contour information may be combined. Here, the virtual contour information can be calculated using the contour information and the preset polynomial for the fragment in the combined image.

보다 상세하게 설명하면, 결합부(140)는 기준 단편과 인접하게 위치한 단편 중에서 허용표준편차보다 표준편차가 작은 단편이 없는 경우, 이전에 합쳐진 결합 이미지에 있는 윤곽선 정보를 기준으로 다항식을 검출하고, 검출된 다항식을 이용하여 허용표준편차보다 표준편차가 큰 제1 단편에 대하여 커브 피팅(curve-fitting)을 수행할 수 있다. 여기서, 커브 피팅은 주어진 데이터 집합에 함수를 맞추는 과정 중의 하나로, 선형 함수, 다항식 함수나 지수 함수 등을 사용하여 수행할 수 있다. 즉, 커브 피팅은 데이터를 근사적으로 나타낼 때는 주어진 데이터 사이의 값을 추정할 때 많이 사용되며, 다항식을 이용하여 데이터 집합을 커브 피팅하는 경우, 다항식이 데이터들을 모두 통과하거나 데이터들이 모두 통과하지 않고 전체적으로 데이터를 근사적으로 잘 나타내도록 커브 피팅할 수 있다. More specifically, if there is no fragment having a standard deviation smaller than the allowable standard deviation among the fragments positioned adjacent to the reference fragment, the combining unit 140 detects the polynomial based on the contour information in the previously combined image, The detected polynomial can be used to perform curve-fitting on the first piece having a larger standard deviation than the allowable standard deviation. Here, curve fitting is one of the process of fitting a function to a given data set, and can be performed using a linear function, a polynomial function, or an exponential function. In other words, curve fitting is often used when estimating the value between given data when approximating data, and when fitting a data set by curve fitting using polynomial, the polynomial passes through all the data, Curve fitting can be done to approximate the data as a whole.

도 12 및 도 13은 본 발명의 일 실시예에 의한 8번 단편 내지 13번 단편에서 대상체의 윤곽선을 추출하는 과정을 보여주는 예이다. FIGS. 12 and 13 show an example of a process of extracting contours of a target object from fragments # 8 through # 13 according to an embodiment of the present invention.

도 12를 참조하여 예를 들어 설명하면, 허용표준편차를 15라고 가정하고, 8번에서 13번까지의 단편들을 보면, 8번 단편의 표준편차는 33.5, 9번 단편은 26.3, 10번은 14.8, 11번은 8.6, 12번은 12, 13번은 5.1로 산출될 수 있다. 이러한 경우, 13번 단편은 표준편차가 5.1인 기준 단편으로, 최고의 신뢰도를 가지게 되고, 10번 내지 12번 단편의 표준편차가 허용표준편차보다 작으므로 13번 단편은 10번부터 12번 단편들과 결합되어 결합 이미지를 생성하게 된다. 그리고, 10번부터 13번 단편까지의 윤곽선 정보는 그대로 사용하게 된다. 12, it is assumed that the allowable standard deviation is 15. In the fragments 8 to 13, the standard deviation of the 8th fragment is 33.5, the fragment 9 is 26.3, the fragment 10 is 14.8, 11 can be calculated as 8.6, 12 as 12, and 13 as 5.1. In this case, the 13th fragment is the reference fragment with a standard deviation of 5.1 and has the highest reliability. Since the standard deviation of the 10th to 12th fragments is smaller than the allowable standard deviation, the 13th fragment is divided into 10th to 12th fragments Thereby creating a combined image. Then, the contour information from the 10th to 13th fragments is used as it is.

하지만, 합쳐진 단편들인 결합 이미지에 이웃한 9번 단편은 허용표준편차인 15를 초과하므로 9번 단편의 윤곽선 정보는 삭제되고 대신에 10, 11, 12, 13번 단편의 윤곽선 정보를 기준으로 커브 피팅을 수행하여 다항식을 검출하고, 검출된 다항식을 이용하여 9번 단편에 상응되는 가상의 윤곽선 정보를 계산하고 합쳐지게 된다. 그리고 8번 단편 역시 같은 방법으로 합쳐지게 된다. 이러한 예에 대한 결과는 도 13에 나타나 있으며, 10번에서 13번까지의 단편에는 원래의 데이터인 윤곽선 정보가 사용되었으나, 8번과 9번의 단편은 다항식을 이용한 가상의 윤곽선 정보로 수정되어 있는 것을 알 수 있다.However, since the 9th piece adjacent to the combined image, which is the combined pieces, exceeds the allowable standard deviation of 15, the contour information of the 9th piece is deleted. Instead, the curve fitting is performed based on the contour information of the 10th, 11th, 12th, And the virtual contour information corresponding to the 9th fragment is calculated and combined using the detected polynomial. And the 8th fragment will be merged in the same way. The result of this example is shown in Fig. 13, in which the original data, outline information, is used for the fragments 10 to 13, but fragments 8 and 9 are modified to the virtual contour information using the polynomial Able to know.

도 14는 반복적인 윤곽선 추출 과정을 통해 추출된 대상체의 윤곽선을 보여주는 예로, 합쳐진 단편을 기준으로 다시 단편을 결합하는 과정을 반복하여 도 14와 같은 대상체의 윤곽선을 추출할 수 있다. 만약, 이웃한 단편 중 허용표준편차 미만의 단편이 없는 경우, 또 다시 커브 피팅(Curve-fitting) 과정을 반복하고 합쳐진 단편을 기준으로 다시 결합(Merge) 과정을 반복하는데, 이러한 반복은 모든 단편들이 하나로 합쳐질 때까지 수행될 수 있다.14 illustrates an outline of a target object extracted through an iterative contour extraction process. Referring to FIG. 14, a contour of a target object as shown in FIG. 14 can be extracted by repeating the process of combining fragments based on the merged fragment. If there are no fragments less than the allowable standard deviation among the neighboring fragments, the curve fitting process is repeated, and the merge process is repeated based on the combined fragments. Can be performed until one is combined.

후처리부(150)는 윤곽선이 추출된 대상체의 이미지에 대하여 후처리 동작을 수행할 수 있는데, 보다 상세하게는 상편에 사용된 스위핑 이미지에서 윤곽선 추출의 결과 선을 중심으로 상하 일정 간격 이상의 점들을 지울 수 있다(Band-pass Filtering). 그리고, 후처리부(150)는 추출부(130)에서 필터링된 이미지를 가지고 상술한 윤곽선을 추출하는 동작을 다시 반복하도록 할 수 있다. 이때, 반복하는 횟수나 밴드 패스(band-pass)에서 사용되는 간격 등은 사용되는 이미지의 상태나 찾고자 하는 대상체의 특징에 따라 필요에 맞게 조정할 수 있다.The post-processing unit 150 can perform a post-processing operation on the image of the object from which the outline has been extracted. More specifically, the post-processing unit 150 removes vertices having a predetermined interval from the outline of the sweeping image Band-pass filtering. Then, the post-processing unit 150 may repeat the operation of extracting the outline with the filtered image by the extracting unit 130. [ At this time, the number of iterations and the interval used in the band-pass can be adjusted according to the state of the image to be used or the characteristic of the object to be searched.

도 15는 대상체의 주변에 있는 노이즈를 제거한 이미지를 보여주는 예 및 도 16은 대상체의 최종 윤곽선을 보여주는 예로, 후처리부(150)는 도 15와 같이, 상편과 하편의 윤곽선을 기준으로 초기에 사용되었던 윤곽선의 추출 이미지에서 바깥쪽, 즉, 대상체 외부에 해당하는 부분을 지울 수 있다(Noise Removal).15 is an example showing an image in which noises around the object are removed, and FIG. 16 is an example showing a final contour line of the object. As shown in FIG. 15, the post- In the extracted image of the contour, the part outside the object, ie, the part outside the object, can be removed (Noise Removal).

또한, 후처리부(150)는 추출부(130)에서 노이즈를 제거한 윤곽선 이미지를 기준으로 다시 윤곽선의 추출 동작을 적용하도록 할 수 있다. 이때, 필요에 따라 상술한 과정을 전체적이나 부분적으로 반복할 수 있으며, 다른 알고리즘을 적용하여 도 16과 같은 최종 윤곽선을 추출하는 것도 가능하다. 여기서, 최종 윤곽선은 사용 이미지에 따라 완전히 닫혀있는 예컨대, 모든 테두리가 연결되어 있는 윤곽선인 경우도 있겠지만 대부분 부분적으로 테두리가 연결되지 않고 열려 있게 된다. 이때, 원하는 용도에 따라 열려 있는 윤곽선을 닫아야 할 경우, 이를 위한 알고리즘은 노이즈 제거와는 다른 것이며 커브 피팅이나 다른 알고리즘을 사용할 수 있다.In addition, the post-processing unit 150 may apply the extracting operation of the outline based on the outline image from which the noise is removed by the extracting unit 130. [ At this time, the above-described process can be repeated in whole or in part as needed, and it is also possible to extract the final contour line as shown in FIG. 16 by applying another algorithm. Here, the final outline may be completely closed according to the used image, for example, an outline to which all the outlines are connected, but the outline is mostly partially opened without being connected. At this time, if you need to close an open contour according to the intended use, the algorithm for this is different from noise removal and can use curve fitting or other algorithms.

하기에서는 본 발명의 일 실시예에 의한 영상 처리 과정에 대하여 설명하도록 한다.Hereinafter, an image processing process according to an embodiment of the present invention will be described.

도 17은 본 발명의 일 실시예에 따른 이미지 처리 과정을 보여주는 동작 흐름도를 나타낸다.17 is a flowchart illustrating an image processing process according to an embodiment of the present invention.

도 17에 도시한 바와 같이, 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 이미지를 상하로 나누고(S210), 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나눈다(S220). 여기서, 상하로 나눈 이미지를 각각 상편(top slice) 및 하편(bottom slice)이라고 하며, 상편 및 하편을 각각 동일한 수의 단편으로 나눌 수 있다.As shown in FIG. 17, an image is divided into upper and lower portions based on both end points of a target object in the input image (S210), and the upper and lower divided images are divided into a plurality of slices (S220). Here, the upper and lower images are referred to as a top slice and a bottom slice, respectively, and the upper and lower halves can be divided into the same number of fragments.

이와 같이, 이미지를 상하로 나누기 전에 디지털 카메라 또는 핸드폰 등을 포함한 디지털 기기에서 입력 받은 이미지에 대하여 전처리 동작을 수행할 수 있다. 즉, 전처리 과정을 통해 입력 받은 이미지에 있는 노이즈를 저감시킬 수 있는데, 특히, 모션 블러(motion blur)를 제거하는 알고리즘 및 영상의 가장자리를 선명(sharpen)하게 하는 알고리즘을 이용하여 필요에 따라 이미지에 있는 노이즈를 전반적으로 줄일 수 있다. In this way, before the image is divided into upper and lower parts, a preprocessing operation can be performed on an image input from a digital device including a digital camera or a mobile phone. In other words, it is possible to reduce the noise in the input image through the preprocessing process. In particular, by using an algorithm for eliminating the motion blur and an algorithm for sharpening the edge of the image, The overall noise can be reduced.

또한, 전처리 과정에서 노이즈가 저감된 이미지에 있는 대상체의 윤곽선을 개략적으로 추출할 수 있다. 즉, 소벨(Sobel) 알고리즘 또는 프리윗(Prewitt) 알고리즘 등을 사용하여 전처리 과정 시 대상체의 윤곽선을 개략적으로 추출할 수 있다. 소벨 알고리즘은 대상체(물체)와 배경의 경계로, 픽셀의 밝기가 급격하게 변하는 불연속점인 윤곽선(에지)를 추출할 수 있는 가장 대표적인 1차 미분 연산자로, 수직, 수평 또는 대각선과 같이 모든 방향에 있는 에지를 추출할 수 있으나, 그 중에서도 대각선 방향의 에지를 추출하는데 유리하며, 잡음에 대체적으로 강한 장점이 있다. 프리윗(Prewitt) 알고리즘은 대각선 방향보다는 수직 및 수평 방향의 에지를 추출하는데 주로 사용되고, 수행 속도가 빠른 장점이 있다. 상술한 전처리 과정은 설정된 조건에 따라 생략될 수 있음은 물론이다.In addition, it is possible to roughly extract the contour of the object in the noise-reduced image in the preprocessing process. That is, the contour of the object can be roughly extracted during the preprocessing process using a Sobel algorithm or a Prewitt algorithm. The Sobel algorithm is the most representative first-order differential operator capable of extracting a contour (edge) that is a discontinuity point where the brightness of a pixel changes suddenly at the boundary between an object (object) and a background. It is advantageous to extract edges in the diagonal direction, and there is generally a strong advantage in noise. Prewitt algorithm is mainly used for extracting vertical and horizontal edges rather than diagonal direction, and has a high speed of execution. It goes without saying that the above-described preprocessing process can be omitted according to the set conditions.

한편, 이미지에 나타나는 대상체는 하기의 조건을 만족시켜야 한다.On the other hand, the object appearing in the image must satisfy the following conditions.

첫째, 대상체의 형태가 전부 이미지에 나타나야 하고, 둘째, 대상체는 이미지의 중심부에 위치하여야 한다. 셋째, 대상체의 양 끝점에 해당하는 부분이 가급적 이미지의 중심선에 있어야 한다. 이러한 대상체의 조건을 만족시키기 위하여 전처리 과정을 수행하는 도중이나 전처리 과정을 수행한 후, 이미지 내부에 있는 대상체의 위치를 조정하는 동작을 수행할 수 있다.First, the shape of the object should all appear in the image. Second, the object should be located in the center of the image. Third, the parts corresponding to both end points of the object should be at the center line of the image as much as possible. In order to satisfy the condition of the object, it is possible to perform the operation of adjusting the position of the object in the image after performing the preprocessing process or the preprocessing process.

그리고, 복수 개의 단편 각각에서 대상체의 윤곽선을 추출한다(S230). 즉, 상편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출한 후, 하편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출할 수 있다. Then, contours of the object are extracted from each of the plurality of fragments (S230). That is, the outline of the object can be extracted from a plurality of fragments constituting the upper fragment, and the outline of the object can be extracted from the plurality of fragments constituting the lower fragment.

보다 구체적으로 설명하면, 단편을 이루고 있는 적어도 하나의 픽셀 라인(pixel line)을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 검색된 픽셀의 변화점을 조합하여 대상체의 윤곽선을 추출할 수 있다. 즉, 추출부(130)는 스위핑(sweeping) 알고리즘을 사용하여 복수 개의 픽셀 라인 각각을 미리 정해진 방향에 따라 스캔함으로써 각 픽셀 라인에서 형상이나 색을 나타내는 픽셀(데이터)의 구분점을 찾아낼 수 있고, 이를 응용하여 대상체의 윤곽선(또는 명암의 밝기나 색의 전환점)을 추출할 수 있다.More specifically, at least one pixel line constituting a fragment is scanned in a predetermined direction to search for a change point of a pixel for each pixel line, and the change point of the retrieved pixel is combined, Can be extracted. That is, the extracting unit 130 can scan a plurality of pixel lines in a predetermined direction by using a sweeping algorithm to find a dividing point of pixels (data) representing a shape or a color in each pixel line , And the contour of the object (or the turning point of the brightness or the color) of the object can be extracted by applying this.

또한, 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다. 즉, 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘을 사용하여 대상체의 윤곽선을 추출할 수 있다. In addition, at least one pixel line constituting a fragment is scanned according to a predetermined direction to search for a change point of a pixel for each pixel line, and a change point of a pixel and a pixel in a pixel line located on both sides of the change point of the pixel And determines the end point of the scan. Further, the contour of the object can be extracted by additionally searching the change point of the pixel according to the end point of the determined scan. That is, a contour of a target object can be extracted using a threshold sweeping algorithm using the distance between simple sweeping results.

그런 다음, 윤곽선이 추출된 복수 개의 단편을 결합한다(S240).Then, a plurality of fragments from which the outline is extracted are combined (S240).

보다 구체적으로는 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고, 산출된 표준편차를 이용하여 복수 개의 단편을 결합할 수 있다. 즉, 각 단편에 있는 윤곽선 정보의 표준편차를 산출하고, 산출된 윤곽선 정보의 표준편차를 이용하여 복수 개의 단편을 결합할 수 있는데, 여기서, 윤곽선 정보는 단편에 있는 중심선으로부터 윤곽선까지의 직선 거리를 나타내거나 (X, Y)에 대한 좌표 정보로 나타낼 수 있다.More specifically, a standard deviation may be calculated for each of a plurality of fragments from which a contour is extracted, and a plurality of fragments may be combined using the calculated standard deviation. That is, it is possible to calculate the standard deviation of the contour information in each fragment, and combine a plurality of fragments using the standard deviation of the calculated contour information, wherein the contour information is the straight line distance from the center line to the contour in the fragment (X, Y), as shown in Fig.

그리고, 각 단편의 윤곽선 정보에 대한 표준편차를 산출하기 위하여 각 단편에 있는 윤곽선 정보의 평균인 윤곽선의 평균 정보를 우선적으로 산출하고, 각 단편에 있는 윤곽선의 정보가 윤곽선의 평균 정보로부터 떨어져 있는 거리를 구하여 표준편차를 산출하고, 이를 기반으로 하여 복수 개의 단편을 결합할 수 있다.In order to calculate the standard deviation of the contour information of each fragment, the average information of the contour, which is the average of the contour information in each fragment, is preferentially calculated, and the information of the contour in each fragment is calculated as the distance The standard deviation is calculated, and a plurality of fragments can be combined based on the standard deviation.

보다 자세하게 설명하면, 미리 정해진 허용표준편차보다 표준편차가 작은 단편 중에서 표준편차가 최소인 기준 단편을 선택하고, 선택된 기준 단편을 기준으로 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성할 수 있다. 허용표준편차는 최대로 허용 가능한 표준편차로, 표준편차가 허용표준편차보다 작은 단편 중에서 표준편차가 가장 작은 기준 단편을 선택할 수 있고, 선택된 기준 단편의 양 측에 허용표준편차보다 표준편차가 작은 단편이 있으면, 기준 단편과 해당 단편을 하나의 단편으로 결합하여 결합 이미지를 생성할 수 있다. 여기서, 적합한 단편이 하나도 없거나 정해진 표준편차 이내의 단편의 수가 어느 한도를 미치지 못할 때에는 주어진 이미지를 거부 또는 실패로 간주할 수 있다.More specifically, a reference fragment having a minimum standard deviation is selected from fragments whose standard deviation is smaller than a predetermined allowable standard deviation, and fragments located on both sides of the reference fragment are combined based on the selected reference fragment to generate a combined image . The allowable standard deviation is the maximum allowable standard deviation. A fraction with the smallest standard deviation among the fractions whose standard deviation is smaller than the allowable standard deviation can be selected and a standard deviation smaller than the allowable standard deviation on both sides of the selected reference fragment The combined image can be generated by combining the reference fragment and the fragment into one fragment. Here, a given image can be regarded as rejection or failure when there are no suitable fragments or the number of fragments within a specified standard deviation does not reach a certain limit.

또한, 결합 이미지에 있는 각 단편에 대하여 커브 피팅(curve-fitting)을 수행하여 가상의 윤곽선 정보를 계산하고, 각 단편에 있는 원래의 윤곽선 정보와 가상의 윤곽선 정보를 비교하여 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이를 검출할 수 있다. 그리고, 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 작거나 같은 구간에 대해서는 원래의 윤곽선 정보를 그대로 사용하고, 검출된 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 구간에 대해서는 그 구간에 해당되는 원래의 윤곽선 정보를 가상의 윤곽선 정보로 대체할 수 있다. 즉, 각 단편에서 추출된 원래의 윤곽선 정보 중에서 노이즈로 판단되는 원래의 윤곽선 정보에 대해서는 가상의 윤곽선 정보로 대체하여 노이즈를 제거할 수 있다.Further, curve-fitting is performed on each fragment in the combined image to calculate virtual contour information, and the original contour information in each fragment is compared with the virtual contour information to obtain the original contour information and virtual It is possible to detect the difference of the outline information of the image. When the difference between the original contour information and the virtual contour information is smaller than or equal to a predetermined reference difference, the original contour information is used as it is, and the difference between the detected original contour information and the virtual contour information is determined And for the section longer than the reference difference, the original contour information corresponding to the section can be replaced with the virtual contour information. That is, from the original outline information extracted from each fragment, original outline information determined as noise can be replaced with virtual outline information to remove noise.

그리고, 기준 단편의 양 측에 위치한 단편의 표준편차가 허용표준편차보다 작지 않으면, 표준편차가 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 가상의 윤곽선 정보에 따라 제1 단편의 윤곽선 정보를 수정하고, 윤곽선 정보가 수정된 제1 단편과 결합 이미지를 결합할 수 있다. 여기서, 가상의 윤곽선 정보는 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.If the standard deviation of the fragment located on both sides of the reference fragment is not smaller than the allowable standard deviation, the virtual contour information is calculated for the first fragment whose standard deviation is not smaller than the allowable standard deviation, 1 piece of contour information, and combine the combined first image and the combined image with the modified contour information. Here, the virtual contour information can be calculated using the contour information and the preset polynomial for the fragment in the combined image.

보다 상세하게 설명하면, 기준 단편과 인접하게 위치한 단편 중에서 허용표준편차보다 표준편차가 작은 단편이 없는 경우, 이전에 합쳐진 결합 이미지에 있는 윤곽선 정보를 기준으로 다항식을 검출하고, 검출된 다항식을 이용하여 허용표준편차보다 표준편차가 큰 제1 단편에 대하여 커브 피팅(curve-fitting)을 수행할 수 있다. 여기서, 커브 피팅은 주어진 데이터 집합에 함수를 맞추는 과정 중의 하나로, 선형 함수, 다항식 함수나 지수 함수 등을 사용하여 커브 피팅을 수행할 수 있다. 즉, 커브 피팅은 데이터를 근사적으로 나타낼 때는 주어진 데이터 사이의 값을 추정할 때 많이 사용되며, 다항식을 이용하여 데이터 집합을 커브 피팅하는 경우, 다항식이 데이터들을 모두 통과하거나 데이터들이 모두 통과하지 않고 전체적으로 데이터를 근사적으로 잘 나타내도록 커브 피팅할 수 있다. More specifically, if there is no fragment having a standard deviation smaller than the allowable standard deviation among the fragments positioned adjacent to the reference fragment, the polynomial is detected based on the contour information in the previously combined image and the detected polynomial is used It is possible to perform curve-fitting on the first piece having a standard deviation larger than the allowable standard deviation. Here, curve fitting is a process of fitting a function to a given data set, and curve fitting can be performed using a linear function, a polynomial function, an exponential function, or the like. In other words, curve fitting is often used when estimating the value between given data when approximating data, and when fitting a data set by curve fitting using polynomial, the polynomial passes through all the data, Curve fitting can be done to approximate the data as a whole.

또한, 커브 피팅이란 평면 위에 흩어진 점에 대하여 그들에게 알맞는 곡선을 계산하고 산출하는 것으로, 예를 들어, 어떤 파형을 표본화(sampling) 하고 데이터를 얻는 것을 말한다. 이 표본화한 데이터에 대하여 원래 파형 곡선의 함수(function)를 계산하고 적당한 것 등을 표시할 수 있으며, 함수와 각 측정 값과의 제곱오차합을 구하고, 그것이 최소가 되도록 각 변수에 계수를 부여해 나가는 방법으로, 이 방법에 의하여 측정된 각 점으로부터 곡선의 편차를 최소로 할 수 있다.Curve fitting is a method of calculating and calculating a curve suitable for scattered points on a plane, for example, sampling a certain waveform and obtaining data. For this sampled data, the function of the original waveform curve can be calculated and the appropriate one can be displayed. The sum of squared error between the function and each measured value is obtained, and a coefficient is given to each variable so that it is minimized. Method, the deviation of the curve from each point measured by this method can be minimized.

이후, 윤곽선이 추출된 대상체의 이미지에 대하여 후처리 동작을 수행할 수 있는데, 보다 상세하게는 윤곽선이 추출된 대상체의 이미지에 대하여 노이즈를 제거함으로써 대상체의 최종 윤곽선을 추출하는 동작을 수행할 수 있다.Thereafter, a post-processing operation can be performed on the image of the object from which the outline has been extracted. In more detail, an operation of extracting the final outline of the object by removing noise from the image of the extracted object can be performed .

본 발명의 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 이미지 처리 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include a computer-readable medium having program instructions for performing various computer-implemented operations. This medium records a program for executing the above-described image processing method. The medium may include program instructions, data files, data structures, etc., alone or in combination. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD and DVD, programmed instructions such as floptical disk and magneto-optical media, ROM, RAM, And a hardware device configured to store and execute the program. Or such medium may be a transmission medium, such as optical or metal lines, waveguides, etc., including a carrier wave that transmits a signal specifying a program command, data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, Of the right.

100: 이미지 처리 장치
110: 전처리부
120: 분할부
130: 추출부
140: 결합부
150: 후처리부
100: Image processing device
110:
120: minute installment
130:
140:
150: Post-

Claims (12)

복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하는 단계,
제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 단계, 그리고
상기 스캔의 종료가 결정되면 상기 제1 픽셀의 변화점을 상기 제1 픽셀 라인의 최종 변화점으로 결정하고, 상기 스캔의 종료가 결정되지 않으면 상기 제1 픽셀 라인의 스캔을 계속하는 단계
를 포함하는 이미지 처리 방법.
Scanning at least one pixel line in an image made up of a plurality of pixels along a predetermined direction to extract a change point of the pixel for each pixel line,
A first distance between a changing point of the first pixel of the first pixel line and a changing point of the second pixel of the second pixel line located at one side of the first pixel line and a changing point of the first pixel, Determining a finishing point of the scan by comparing a second distance between points of change of a third pixel of a third pixel line located on the other side of the first pixel and a predetermined threshold,
Determining a change point of the first pixel as a last change point of the first pixel line when the end of the scan is determined and continuing to scan the first pixel line if the end of the scan is not determined
/ RTI >
제 1 항에서,
상기 스캔의 종료 시점을 결정하는 단계는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하는 단계를 포함하는 이미지 처리 방법.
The method of claim 1,
Wherein determining the end of the scan comprises:
And if the first and second distances are both greater than the threshold, proceeding with the scan to extract another pixel change point of the first pixel line.
제 1 항에서,
상기 스캔의 종료 시점을 결정하는 단계는,
상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행하는 단계를 포함하는 이미지 처리 방법.
The method of claim 1,
Wherein determining the end of the scan comprises:
If one of the first and second distances is larger than the threshold value and the other is smaller than the threshold value, grouping is performed in a pixel line direction having a distance smaller than the threshold value from the first pixel line, And performing grouping up to a pixel line that is smaller than the threshold and the other is larger than the threshold.
제 3 항에서,
상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료하는 단계를 더 포함하는 이미지 처리 방법.
4. The method of claim 3,
Wherein if the number of lines of the grouped pixel lines is smaller than a predetermined number of lines, the scanning is continued to extract another pixel change point with respect to the grouped pixel lines, and if the number of lines of the grouped pixel lines is smaller than the predetermined number of lines And terminating the scan if the size of the image is larger.
제 1 항에서,
상기 스캔의 종료 시점을 결정하는 단계는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료하는 단계를 포함하는 이미지 처리 방법.
The method of claim 1,
Wherein determining the end of the scan comprises:
And terminating the scan if both the first and second distances are less than the threshold.
제 1 항에서,
상기 픽셀의 변화점을 추출하는 단계는,
상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출하는 단계를 포함하는 이미지 처리 방법.
The method of claim 1,
Wherein the step of extracting the change point of the pixel comprises:
And extracting a pixel whose value of the pixel is larger than a predetermined reference value as a change point of the pixel.
복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하고, 제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하며, 상기 스캔의 종료가 결정되면 상기 제1 픽셀의 변화점을 상기 제1 픽셀 라인의 최종 변화점으로 결정하고, 상기 스캔의 종료가 결정되지 않으면 상기 제1 픽셀 라인의 스캔을 계속하는 추출부
를 포함하는 이미지 처리 장치.
The method comprising the steps of: scanning at least one pixel line in an image of a plurality of pixels along a predetermined direction to extract a change point of the pixel for each pixel line; Between a change point of the first pixel and a change point of the third pixel of the third pixel line located on the other side of the first pixel line, a first distance between a change point of the second pixel of the second pixel line located at one side of the first pixel line, Determining a change point of the first pixel as a final change point of the first pixel line when the end of the scan is determined; Is not determined, the extraction unit
And the image processing apparatus.
제 7 항에서,
상기 추출부는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하는 이미지 처리 장치.
8. The method of claim 7,
The extracting unit extracts,
And if the first and second distances are both greater than the threshold, continue scanning to extract another pixel change point of the first pixel line.
제 7 항에서,
상기 추출부는,
상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행하는 이미지 처리 장치.
8. The method of claim 7,
The extracting unit extracts,
If one of the first and second distances is larger than the threshold value and the other is smaller than the threshold value, grouping is performed in a pixel line direction having a distance smaller than the threshold value from the first pixel line, Wherein the grouping is performed up to a pixel line that is smaller than the threshold value and the other of which is larger than the threshold value.
제 9 항에서,
상기 추출부는,
상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료하는 이미지 처리 장치.
The method of claim 9,
The extracting unit extracts,
Wherein if the number of lines of the grouped pixel lines is smaller than a predetermined number of lines, the scanning is continued to extract another pixel change point with respect to the grouped pixel lines, and if the number of lines of the grouped pixel lines is smaller than the predetermined number of lines And terminates the scanning if the size of the image is larger than the size of the image.
제 7 항에서,
상기 추출부는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료하는 이미지 처리 장치.
8. The method of claim 7,
The extracting unit extracts,
And terminates the scan if both the first and second distances are less than the threshold.
제 7 항에서,
상기 추출부는,
상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출하는 이미지 처리 장치.
8. The method of claim 7,
The extracting unit extracts,
And extracts, as a change point of the pixel, a pixel whose value of the pixel is larger than a predetermined reference value.
KR1020130072667A 2013-06-24 2013-06-24 Method and Apparatus for Processing Image Expired - Fee Related KR101528604B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130072667A KR101528604B1 (en) 2013-06-24 2013-06-24 Method and Apparatus for Processing Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130072667A KR101528604B1 (en) 2013-06-24 2013-06-24 Method and Apparatus for Processing Image

Publications (2)

Publication Number Publication Date
KR20150000332A KR20150000332A (en) 2015-01-02
KR101528604B1 true KR101528604B1 (en) 2015-06-12

Family

ID=52474489

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130072667A Expired - Fee Related KR101528604B1 (en) 2013-06-24 2013-06-24 Method and Apparatus for Processing Image

Country Status (1)

Country Link
KR (1) KR101528604B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11019335B2 (en) 2016-05-10 2021-05-25 Samsung Electronics Co., Ltd. Method for encoding/decoding image and device therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877362A (en) * 1994-09-08 1996-03-22 Toshiba Corp Image processor
JP2006228218A (en) * 2005-02-14 2006-08-31 Samsung Electronics Co Ltd Processing method for line pattern using convolution kernel, processor for line pattern, and medium stored with program for executing the processing method for line pattern
JP2007286930A (en) * 2006-04-18 2007-11-01 Juki Corp Method for detecting the center of gravity of an object
KR20120135819A (en) * 2011-06-07 2012-12-17 주식회사 에이디칩스 Scanline-based rendering method of graphics accelerators

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877362A (en) * 1994-09-08 1996-03-22 Toshiba Corp Image processor
JP2006228218A (en) * 2005-02-14 2006-08-31 Samsung Electronics Co Ltd Processing method for line pattern using convolution kernel, processor for line pattern, and medium stored with program for executing the processing method for line pattern
JP2007286930A (en) * 2006-04-18 2007-11-01 Juki Corp Method for detecting the center of gravity of an object
KR20120135819A (en) * 2011-06-07 2012-12-17 주식회사 에이디칩스 Scanline-based rendering method of graphics accelerators

Also Published As

Publication number Publication date
KR20150000332A (en) 2015-01-02

Similar Documents

Publication Publication Date Title
KR101636370B1 (en) Image processing apparatus and method
CN109146963B (en) An Image Position Offset Detection Method Based on Fast Feature Matching
US20100066737A1 (en) Dynamic-state estimating apparatus, dynamic-state estimating method, and program
US11281897B2 (en) Gesture shaking recognition method and apparatus, and gesture recognition method
KR101809543B1 (en) Method for recognizing contectless fingerprint and electronic apparatus for performing the same.
JP5874039B2 (en) Stereo image processing apparatus and stereo image processing method
WO2010093408A1 (en) Video matting based on foreground-background constraint propagation
JP5812705B2 (en) Crack detection method
KR101997048B1 (en) Method for recognizing distant multiple codes for logistics management and code recognizing apparatus using the same
KR20130072073A (en) Apparatus and method for extracting edge in image
JP2018128309A (en) Crack detection method
JP2001319239A (en) Device and method for extracting object contour
US12094183B2 (en) Geometric pattern matching method and device for performing the method
KR101528604B1 (en) Method and Apparatus for Processing Image
KR101528906B1 (en) Method and Apparatus for Processing Image
EP2887261B1 (en) Information processing device, information processing method, and program
Gowri et al. 2D Image data approximation using Savitzky Golay filter—Smoothing and differencing
JP7008408B2 (en) Crack detection method
KR101226913B1 (en) Method for preparing three dimensional profile map for composing images
Srikrishna et al. Realization of Human Eye Pupil Detection System using Canny Edge Detector and Circular Hough Transform Technique
JP2014238789A (en) Image processing program, image processing method and image processor
CN105741263A (en) Hand contour extraction and orientation-positioning algorithm
JP2011170554A (en) Object recognition device, object recognition method, and object recognition program
Guo et al. A fast page outline detection and dewarping method based on iterative cut and adaptive coordinate transform
CN105719269A (en) Method and apparatus for determining target object

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130624

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20140723

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20150121

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20150608

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20150609

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20190610

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20190610

Start annual number: 5

End annual number: 5

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20210319