KR101528604B1 - Method and Apparatus for Processing Image - Google Patents
Method and Apparatus for Processing Image Download PDFInfo
- Publication number
- KR101528604B1 KR101528604B1 KR1020130072667A KR20130072667A KR101528604B1 KR 101528604 B1 KR101528604 B1 KR 101528604B1 KR 1020130072667 A KR1020130072667 A KR 1020130072667A KR 20130072667 A KR20130072667 A KR 20130072667A KR 101528604 B1 KR101528604 B1 KR 101528604B1
- Authority
- KR
- South Korea
- Prior art keywords
- pixel
- scan
- image
- lines
- change point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
본 발명은 이미지 처리 장치 및 방법에 관한 것으로, 복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하는 단계, 그리고 제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 단계를 포함한다.The present invention relates to an image processing apparatus and method, comprising the steps of: scanning at least one pixel line in an image composed of a plurality of pixels in a predetermined direction to extract a change point of the pixel for each pixel line; A first distance between a changing point of the first pixel of the line and a changing point of the second pixel of the second pixel line located at one side of the first pixel line and a changing point of the first pixel, And determining a finishing point of the scan by comparing a second distance between the changing points of the third pixel of the third pixel line and a predetermined threshold.
Description
본 발명은 이미지 처리 방법 및 장치에 관한 것으로, 보다 자세하게는 이미지에 있는 대상체 주변의 노이즈를 제거하여 대상체의 형태를 추출할 수 있는 이미지 처리 방법 및 장치에 관한 것이다.The present invention relates to an image processing method and apparatus, and more particularly, to an image processing method and apparatus capable of extracting a shape of a target object by removing noise around an object in the image.
최근에는 디지털 기기의 발달로 인하여 디지털 카메라 또는 핸드폰 등을 사용하여 언제 어디서나 쉽게 주변의 영상을 촬영할 수 있다. 이러한 디지털 카메라 또는 핸드폰 등과 같이 영상을 촬영할 수 있는 디지털 기기들은 그 내부에 영상을 촬영하기 위한 화상 센서를 구비하고 있다.In recent years, due to the development of digital devices, digital cameras or mobile phones can be used to easily capture images at anytime and anywhere. Digital devices capable of capturing an image such as a digital camera or a mobile phone have an image sensor for capturing an image therein.
하지만, 화상 센서로 촬영된 영상 데이터에 노이즈가 포함될 경우, 촬영된 영상 데이터를 디스플레이하게 되면 영상을 정확하게 출력하지 못하게 된다. 또한, 물체나 대상을 식별하기 위해 가장 필요한 정보는 대상체의 형태에 대한 정보이나 영상 데이터에 노이즈가 포함될 경우, 노이즈의 영향으로 인해 대상체의 형태를 정확하게 파악하기 힘들게 된다.However, when noise is included in the image data photographed by the image sensor, if the photographed image data is displayed, the image can not be output correctly. In addition, when the information about the shape of the object or the image data includes noise, it is difficult to accurately grasp the shape of the object due to the influence of the noise.
이에 따라, 현재에는 노이즈를 보다 효과적으로 저감하여 영상 데이터에 있는 이미지를 정확하게 출력하기 위한 연구가 진행되고 있으며, 특히, 영상 데이터에 있는 대상체의 형태 이외의 주변 노이즈를 최소화하고, 대상체의 윤곽선을 추출하기 위한 연구가 이루어지고 있다. Accordingly, research is currently under way to more accurately reduce the noise and output the image in the image data. In particular, in order to minimize ambient noise other than the shape of the object in the image data and to extract the contour of the object Research is underway.
그러나, 일반적인 환경에서 촬영된 영상 데이터의 경우, 대상체의 주변 영상 즉, 배경에는 노이즈가 항상 존재하고, 이러한 영상 데이터에서 대상체의 윤곽선을 추출할 경우, 배경에 있는 노이즈의 영향으로 인해 대상체의 형태를 제대로 파악하는 것이 거의 불가능하거나 상당히 힘든 문제점이 있었다.However, in the case of image data photographed in a general environment, when the contour of the object is extracted from the surrounding image of the object, that is, the background is always present in the background, the shape of the object due to the influence of noise in the background It was almost impossible to grasp correctly or there was a problem that was quite difficult.
따라서 본 발명이 해결하고자 하는 과제는 입력 받은 이미지 내부에 있는 대상체를 기준으로 이미지를 복수 개의 단편(slice)으로 나누고, 복수 개의 단편 각각에서 추출된 대상체의 윤곽선을 결합하여 대상체의 최종 윤곽선을 보다 정확하게 추출할 수 있는 이미지 처리 방법 및 장치를 제공하는 것이다.Accordingly, an object of the present invention is to divide an image into a plurality of slices on the basis of a target object inside an input image, combine the contours of the object extracted from each of the plurality of fragments, And to provide an image processing method and apparatus capable of extracting images.
상기한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 이미지 처리 방법은 복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하는 단계, 그리고 제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 단계를 포함한다.According to an aspect of the present invention, there is provided an image processing method comprising: scanning at least one pixel line in an image composed of a plurality of pixels in a predetermined direction to extract a change point of the pixel for each pixel line; And a first distance between a change point of the first pixel of the first pixel line and a change point of the second pixel of the second pixel line located at one side of the first pixel line, And comparing the second distance between the change points of the third pixel of the third pixel line located on the other side of the first pixel line with a predetermined threshold to determine the end point of the scan.
상기 스캔의 종료 시점을 결정하는 단계는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하는 단계를 포함할 수 있다.The step of determining the end point of the scan may include continuing the scan to extract another pixel change point of the first pixel line if both the first and second distances are greater than the threshold .
상기 스캔의 종료 시점을 결정하는 단계는, 상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행하는 단계를 포함할 수 있다.The method of
상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료하는 단계를 더 포함할 수 있다.Wherein if the number of lines of the grouped pixel lines is smaller than a predetermined number of lines, the scanning is continued to extract another pixel change point with respect to the grouped pixel lines, and if the number of lines of the grouped pixel lines is smaller than the predetermined number of lines And terminating the scan if the size is larger.
상기 스캔의 종료 시점을 결정하는 단계는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료하는 단계를 포함할 수 있다.The ending point of the scan may include terminating the scan if the first and second distances are both less than the threshold.
상기 픽셀의 변화점을 추출하는 단계는, 상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출하는 단계를 포함할 수 있다.The step of extracting the change point of the pixel may include extracting a pixel whose value of the pixel is larger than a predetermined reference value as a change point of the pixel.
한편, 본 발명의 일 실시예에 따른 이미지 처리 장치는 복수 개의 픽셀로 이루어진 이미지에서 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 상기 픽셀의 변화점을 추출하고, 제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 추출부를 포함한다.Meanwhile, the image processing apparatus according to an embodiment of the present invention scans at least one pixel line in an image made up of a plurality of pixels along a predetermined direction to extract change points of the pixels for each pixel line, A first distance between a changing point of the first pixel of the line and a changing point of the second pixel of the second pixel line located at one side of the first pixel line and a changing point of the first pixel, And an extracting unit for comparing the second distance between the change points of the third pixel of the third pixel line and a predetermined threshold to determine the end point of the scan.
상기 추출부는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행할 수 있다.The extraction unit may continue the scan to extract another pixel change point of the first pixel line if both the first and second distances are greater than the threshold value.
상기 추출부는, 상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행할 수 있다.The extraction unit groups the pixels in the direction of a pixel line having a distance smaller than the threshold value from the first pixel line if any one of the first and second distances is larger than the threshold and the other is smaller than the threshold, Can be grouped up to a pixel line where one side is smaller than the threshold value and the other side is larger than the threshold value.
상기 추출부는, 상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료할 수 있다.Wherein the extracting unit continues the scan so as to extract another pixel change point for the grouped pixel line if the number of lines of the grouped pixel line is smaller than a predetermined number of lines, If the number of lines is larger than the predetermined number of lines, the scan can be terminated.
상기 추출부는, 상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료할 수 있다.The extractor may terminate the scan if the first and second distances are all less than the threshold.
상기 추출부는, 상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출할 수 있다.The extracting unit may extract a pixel having a pixel value larger than a predetermined reference value as a change point of the pixel.
이와 같이 본 발명의 실시예에 따른 이미지 처리 방법 및 장치에 따르면, 입력 받은 이미지 내부에 있는 대상체를 기준으로 이미지를 복수 개의 단편으로 나누고, 복수 개의 단편 각각에서 추출된 대상체의 윤곽선을 결합하여 대상체의 최종 윤곽선을 보다 정확하게 추출할 수 있는 장점이 있다.According to the image processing method and apparatus according to the embodiment of the present invention, an image is divided into a plurality of fragments on the basis of a target object in the input image, and contours of the target extracted from each of the plurality of fragments are combined, There is an advantage that the final contour line can be extracted more accurately.
즉, 대상체의 주변에 있는 노이즈를 제거하여 대상체의 형태를 제대로 파악할 수 있는 장점이 있다.That is, there is an advantage that the shape of the object can be grasped correctly by removing the noise around the object.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 구성도이다.
도 2는 입력 받은 이미지의 예이다.
도 3은 입력 받은 이미지에서 소벨 알고리즘을 이용하여 개략적으로 추출된 대상체의 윤곽선을 보여주는 예이다.
도 4는 복수 개의 단편으로 나누어진 상하 이미지의 예이다.
도 5는 상편에 있는 복수 개의 단편에서 추출된 대상체의 윤곽선을 보여주는 예이다.
도 6은 이미지를 Left 스캔한 Left 스위핑을 보여주는 예이다.
도 7은 이미지를 Top 스캔한 Top 스위핑을 보여주는 예이다.
도 8 및 도 9는 소벨 알고리즘이 수행된 이미지에서 대상체의 윤곽선을 추출하기 위한 Top 스위핑하는 과정을 보여주는 예이다.
도 10은 데이터 패턴을 이용한 스위핑을 보여주는 예이다.
도 11은 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑을 보여주는 예이다.
도 12 및 도 13은 본 발명의 일 실시예에 의한 8번 단편 내지 13번 단편에서 대상체의 윤곽선을 추출하는 과정을 보여주는 예이다.
도 14는 반복적인 윤곽선 추출 과정을 통해 추출된 대상체의 윤곽선을 보여주는 예이다.
도 15는 대상체의 주변에 있는 노이즈를 제거한 이미지를 보여주는 예이다.
도 16은 대상체의 최종 윤곽선을 보여주는 예이다.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 과정을 보여주는 동작 흐름도이다.1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention.
2 is an example of an input image.
FIG. 3 shows an outline of a subject extracted roughly using a Sobel algorithm in an input image.
4 is an example of the upper and lower images divided into a plurality of fragments.
Fig. 5 is an example showing contours of a target object extracted from a plurality of fragments on the upper side.
6 shows an example of Left sweeping in which an image is left-scanned.
FIG. 7 shows an example of top sweeping in which an image is top-scanned.
FIGS. 8 and 9 are examples of a top sweeping process for extracting contours of a target object in an image in which the Sobel algorithm is performed.
10 is an example showing sweeping using a data pattern.
11 shows an example of threshold sweeping using the distance between simple sweeping results.
FIGS. 12 and 13 show an example of a process of extracting contours of a target object from
FIG. 14 is an example showing contours of extracted objects through an iterative contour extraction process.
Fig. 15 is an example showing an image in which the noise around the object is removed.
16 is an example showing the final contour of the object.
17 is a flowchart illustrating an image processing process according to an embodiment of the present invention.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 도면 중 일부는 표현이 명확할 수 있도록 반전 처리하여 도시하였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. Some of the drawings are shown in reversed processing so that the expressions can be made clear.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 구성도, 도 2는 입력 받은 이미지의 예, 도 3은 입력 받은 이미지에서 소벨 알고리즘을 이용하여 개략적으로 추출된 대상체의 윤곽선을 보여주는 예, 도 4는 복수 개의 단편으로 나누어진 상하 이미지의 예 및 도 5는 상편에 있는 복수 개의 단편에서 추출된 대상체의 윤곽선을 보여주는 예를 나타낸다.FIG. 1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention. FIG. 2 shows an example of an input image. FIG. 3 shows an outline of a target object extracted roughly using a Sobel algorithm in an input image. Fig. 4 shows an example of the upper and lower images divided into a plurality of fragments, and Fig. 5 shows an example showing the contours of the object extracted from the plurality of fragments on the upper side.
도 1에 도시한 바와 같이, 이미지 처리 장치(100)는 전처리부(110), 분할부(120), 추출부(130), 결합부(140) 및 후처리부(150)를 포함하여 구성된다.As shown in FIG. 1, the
전처리부(110)는 도 2에서와 같이, 디지털 카메라 또는 핸드폰 등을 포함한 디지털 기기에서 입력 받은 이미지에 대하여 전처리 동작을 수행할 수 있다. 즉, 전처리부(110)는 전처리 과정을 통해 입력 받은 이미지에 있는 노이즈를 저감시킬 수 있는데, 특히, 모션 블러(motion blur)를 제거하는 알고리즘 및 영상의 가장자리를 선명(sharpen)하게 하는 알고리즘을 이용하여 필요에 따라 이미지에 있는 노이즈를 전반적으로 줄일 수 있다. As shown in FIG. 2, the
또한, 전처리부(110)는 도 3에서와 같이, 전처리 과정에서 노이즈가 저감된 이미지에 있는 대상체의 윤곽선을 개략적으로 추출할 수 있다. 전처리부(110)는 전처리 과정 시 대상체의 윤곽선을 개략적으로 추출하기 위하여 소벨(Sobel) 알고리즘 또는 프리윗(Prewitt) 알고리즘 등을 사용할 수 있다. 소벨 알고리즘은 대상체(물체)와 배경의 경계로, 픽셀의 밝기가 급격하게 변하는 불연속점인 윤곽선(에지)을 추출할 수 있는 가장 대표적인 1차 미분 연산자로, 수직, 수평 또는 대각선과 같이 모든 방향에 있는 에지를 추출할 수 있으나, 그 중에서도 대각선 방향의 에지를 추출하는데 유리하며, 잡음에 대체적으로 강한 장점이 있다. 프리윗(Prewitt) 알고리즘은 대각선 방향보다는 수직 및 수평 방향의 에지를 추출하는데 주로 사용되고, 수행 속도가 빠른 장점이 있다. 상술한 전처리 과정은 설정된 조건에 따라 생략될 수 있음은 물론이다.Also, as shown in FIG. 3, the
한편, 이미지에 나타나는 대상체는 하기의 조건을 만족시켜야 한다.On the other hand, the object appearing in the image must satisfy the following conditions.
첫째, 대상체의 형태가 전부 이미지에 나타나야 하고, 둘째, 대상체는 이미지의 중심부에 위치하여야 한다. 셋째, 대상체의 양 끝점에 해당하는 부분이 가급적 이미지의 중심선에 있어야 한다. 이러한 대상체의 조건을 만족시키기 위하여 전처리 과정을 수행하는 도중이나 전처리 과정을 수행한 후, 이미지 내부에 있는 대상체의 위치를 조정하는 동작을 수행할 수 있다.First, the shape of the object should all appear in the image. Second, the object should be located in the center of the image. Third, the parts corresponding to both end points of the object should be at the center line of the image as much as possible. In order to satisfy the condition of the object, it is possible to perform the operation of adjusting the position of the object in the image after performing the preprocessing process or the preprocessing process.
분할부(120)는 도 4에 도시한 바와 같이, 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 이미지를 상하로 나눌 수 있으며, 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나눌 수 있다. 여기서, 상하로 나눈 이미지를 각각 상편(top slice) 및 하편(bottom slice)이라고 하며, 상편 및 하편을 각각 동일한 수(예컨대, 도 4에서는 20개)의 단편으로 나눌 수 있다.As shown in FIG. 4, the dividing
추출부(130)는 복수 개의 단편 각각에서 대상체의 윤곽선을 추출할 수 있는데, 보다 자세하게는 도 5에서와 같이, 상편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출한 후, 하편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출할 수 있다. 5, the
보다 구체적으로 설명하면, 추출부(130)는 단편을 이루고 있는 적어도 하나의 픽셀 라인(pixel line)을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 검색된 픽셀의 변화점을 조합하여 대상체의 윤곽선을 추출할 수 있다. 즉, 추출부(130)는 스위핑(Sweeping) 알고리즘을 이용하여 복수 개의 픽셀 라인 각각을 미리 정해진 방향에 따라 스캔함으로써 각 픽셀 라인에서 형상이나 색을 나타내는 픽셀(데이터)의 구분점을 찾아낼 수 있고, 이를 응용하여 대상체의 윤곽선(또는 명암의 밝기나 색의 전환점)을 추출할 수 있다.More specifically, the extracting
이하에서는 대상체의 윤곽선을 추출하기 위해 사용하는 스위핑 알고리즘에 대하여 보다 상세하게 설명하도록 한다.Hereinafter, the sweeping algorithm used to extract the contour of the object will be described in more detail.
우선적으로, 스위핑 알고리즘은 1) 선형 스캔을 이용한 단순 스위핑(Simple Sweeping) 알고리즘, 2) 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘 및 3) 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘 등으로 이루어질 수 있다.First, sweeping algorithms can be classified as follows: 1) a simple sweeping algorithm using linear scans, 2) a pattern sweeping algorithm using data patterns, and 3) a threshold sweeping algorithm using the distance between simple sweeping results ≪ / RTI >
이 중에서, 1) 선형 스캔을 이용한 단순 스위핑 알고리즘은 단편을 이루고 있는 복수 개의 픽셀 라인을 따라 선형 스캔이 진행되는 도중에 미리 정해진 조건을 만족하는 픽셀(데이터)이 발견되면, 스캔을 중지하거나 경우에 따라 행이나 열의 끝까지 계속 스캔을 수행할 수 있도록 하여 발견된 픽셀을 상술한 픽셀의 변화점으로 선택하는 알고리즘으로, 선형 스캔(linear scan)을 기본으로 하여 이루어질 수 있다. Among them, 1) a simple sweeping algorithm using a linear scan, when a pixel (data) satisfying a predetermined condition is found during a linear scan along a plurality of pixel lines forming a fragment, An algorithm of selecting a pixel found as a change point of the pixel by performing a scan continuously to the end of a row or a column and may be performed on the basis of a linear scan.
선형 스캔은 복수 개의 픽셀 라인 각각을 선형적으로 스캔하는 것으로, 선형 스캔의 방향은 하나의 축에 대하여 양방향으로 이루어질 수 있다. 예를 들어, 이차원(2D) 이미지에서 선형 스캔은 네 개의 스캔 방향 즉, Top 스캔(위쪽에서 아래쪽 방향으로 스캔), Bottom 스캔(아래쪽에서 위쪽 방향으로 스캔), Right 스캔(오른쪽에서 왼쪽 방향으로 스캔) 및 Left 스캔(왼쪽에서 오른쪽 방향으로 스캔)을 포함하며, 스위핑 알고리즘은 스캔 방향에 따라 Top 스위핑, Bottom 스위핑, Right 스위핑 및 Left 스위핑으로 나눌 수 있다. 여기서, 선형 스캔은 특정한 데이터의 탐색, 데이터의 차이, 특정한 데이터의 범위나 집합에 포함된 값 등의 선택 조건에 따라 임의로 설정할 수 있으며, 선형 스캔의 종료 시점은 찾고자 하는 성질이나 용도에 따라 임의로 결정할 수 있음은 물론이다.A linear scan is a linear scan of each of a plurality of pixel lines, and the direction of the linear scan may be bi-directional with respect to one axis. For example, in a two-dimensional (2D) image, a linear scan can be performed in four scan directions: Top scan (scan from top to bottom), Bottom scan (scan from bottom to top), Right scan ) And Left scan (scan from left to right), and the sweep algorithm can be divided into Top Sweep, Bottom Sweep, Right Sweep, and Left Sweep according to the scan direction. Here, the linear scan can be arbitrarily set according to selection conditions such as searching for specific data, difference in data, a range of specific data or a value included in a set, and the end point of the linear scan can be determined arbitrarily Of course.
도 6은 이미지를 Left 스캔한 Left 스위핑을 보여주는 예 및 도 7은 이미지를 Top 스캔한 Top 스위핑을 보여주는 예를 나타낸다. FIG. 6 shows an example showing left sweeping in which an image is left-scanned, and FIG. 7 shows an example showing top sweeping in which an image is top-scanned.
도 6을 참조하면, Left 스위핑 알고리즘은 12개의 픽셀 라인 각각을 왼쪽에서 오른쪽 방향으로 스캔하여 각 픽셀 라인에서 5 이상의 값을 가지는 픽셀이 있는지 검색하고, 선형 스캔이 진행되는 도중에 5 이상의 값을 가지는 픽셀이 발견되면, 그 행이나 열의 스캔을 중지하도록 하여 픽셀의 변화점을 추출할 수 있다. 도 7은 도 6과 같은 조건으로 12개의 픽셀 라인 각각을 위쪽에서 아래쪽 방향으로 스캔하여 각 픽셀 라인에서 5 이상의 값을 가지는 픽셀이 있는지 검색하고, 선형 스캔이 진행되는 도중에 5 이상의 값을 가지는 픽셀이 발견되면, 그 행이나 열의 스캔을 중지하도록 하여 픽셀의 변화점을 추출할 수 있다.Referring to FIG. 6, the left sweep algorithm scans each of the twelve pixel lines from left to right to search for a pixel having a value of 5 or more in each pixel line, It is possible to extract the change point of the pixel by stopping the scan of the row or the column. FIG. 7 is a diagram illustrating a method of scanning each of the twelve pixel lines in the downward direction under the same conditions as in FIG. 6, searching for a pixel having a value of 5 or more in each pixel line, If found, the scan of the row or column is stopped, and the change point of the pixel can be extracted.
도 8 및 도 9는 소벨 알고리즘이 수행된 이미지에서 대상체의 윤곽선을 추출하기 위한 Top 스위핑하는 과정을 보여주는 예이다.FIGS. 8 and 9 are examples of a top sweeping process for extracting contours of a target object in an image in which the Sobel algorithm is performed.
도 8에서와 같이, 소벨 알고리즘이 수행되어 대상체의 윤곽선이 개략적으로 추출된 이미지에서 Top 스위핑을 수행하면, 도 9에 도시한 대상체의 상부에 해당하는 윤곽선이 추출될 수 있다. As shown in FIG. 8, when the Sobel algorithm is performed and top sweeping is performed on the image in which the contour of the object is roughly extracted, the contour corresponding to the upper part of the object shown in FIG. 9 can be extracted.
다음으로, 2) 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘은 두 개 이상의 특정한 정보에 대한 배열을 찾는 알고리즘으로, 예컨대, 흑백 이미지에서 ‘검정-하양-검정’과 같은 쌍을 찾는 것을 패턴 스캔이라고 한다. Next, 2) a pattern sweeping algorithm using a data pattern is an algorithm for finding an array of two or more specific pieces of information. For example, finding a pair such as 'black-white-black' do.
도 10은 데이터 패턴을 이용한 스위핑을 보여주는 예로서, 도 6에 도시한 12개의 픽셀 라인으로 이루어진 이미지를 Left 패턴 스캔(왼쪽에서 오른쪽 방향으로 패턴 스캔)하여 각 픽셀 라인에서 ‘0-8’의 패턴이 있는지 검색하고, 패턴 스캔이 진행되는 도중에 ‘0-8’의 패턴이 발견되면, 발견하는 즉시 스캔을 중지하도록 하여 도 10에서와 같은 패턴 스위핑의 결과를 추출할 수 있다.FIG. 10 shows an example of sweeping using a data pattern. In FIG. 6, an image composed of 12 pixel lines shown in FIG. 6 is subjected to Left pattern scan (pattern scan from left to right) If a pattern of '0-8' is found during the pattern scan, the scan is stopped immediately upon detection, and the result of pattern sweeping as shown in FIG. 10 can be extracted.
이와 같이, 추출부(130)는 선형 스캔을 이용한 단순 스위핑(Simple Sweeping) 알고리즘이나 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘을 이용하여 복수 개의 픽셀 라인 각각에서 미리 정해진 조건을 만족하는 픽셀이 있는지 검색하고, 검색된 픽셀을 결합하여 대상체의 윤곽선을 추출할 수 있는 것이다. As described above, the extracting
또한, 추출부(130)는 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다.The
보다 상세하게 설명하면, 추출부(130)는 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘(이하, ‘임계치 스위핑 알고리즘’이라고 함)을 사용하여 대상체의 윤곽선을 추출할 수 있는데, 여기서, 임계치 스위핑 알고리즘은 선형 스캔을 이용한 단순 스위핑의 수행 결과를 이용하여 각 픽셀 라인에서 선형 스캔을 종료할지 여부를 결정하는 알고리즘이다.More specifically, the
도 11은 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑을 보여주는 예이다.11 shows an example of threshold sweeping using the distance between simple sweeping results.
도 11을 참조하면, 여러 개의 스캔 라인(픽셀 라인)이 있고, 스캔 라인 ‘n’, 스캔 라인 ‘n-1’ 및 스캔 라인 ‘n+1’에서 찾아낸 픽셀의 변화점을 S(n), S(n-1) 및 S(n+1)이라고 각각 가정하면, S(n)과 S(n-1) 간의 거리를 ㅿn(n-1)로 나타내고, S(n)과 S(n+1) 간의 거리를 ㅿn(n+1)으로 나타낼 수 있다. 만약, ㅿn(n-1)과 ㅿn(n+1)이 모두 미리 설정된 임계치(Dmax)보다 크면, 스캔 라인 ‘n’에서의 스캔을 계속 진행하여 픽셀의 변화점을 계속 추출하고, ㅿn(n-1)과 ㅿn(n+1)이 모두 임계치(Dmax)보다 크지 않으면, 스캔 라인 ‘n’에서의 스캔을 종료하여 픽셀의 변화점을 추출하는 동작을 중단할 수 있다. 또한, ㅿn(n-1)과 ㅿn(n+1) 중에서 어느 하나의 거리만 임계치(Dmax)보다 크면, 스캔 라인 ‘n’에서의 스캔은 일시 종료 상태가 되며, 다른 스캔 라인에서의 스캔은 계속 진행될 수 있다.Referring to FIG. 11, there are a plurality of scan lines (pixel lines) and the change points of the pixels found in the scan lines' n ',' n-1 'and' n + When each is assumed that S (n-1) and S (n + 1), represents the distance between S (n) and S (n-1) with DELTA n (n-1), S (n) and S (n +1) can be expressed as ㅿ n (n + 1). If both of n n (n-1) and n n (n + 1) are greater than a predetermined threshold value D max, scanning continues on the scan line 'n' to continue extracting the change point of the pixel, If both n (n-1) and n (n + 1) are not greater than the threshold value Dmax, the scan at the scan line 'n' is terminated and the operation of extracting the change point of the pixel can be stopped. If only one of the distances of nn (n-1) and nn (n + 1) is larger than the threshold value Dmax, the scan in the scan line 'n' The scan can continue.
그리고, 전체 스캔 라인에 대한 스캔이 완료되면, 일시 종료된 스캔 라인이 있는지 여부를 판단하고, 있으면 일시 종료 상태의 스캔 라인을 기준으로 임계치(Dmax)보다 작은 거리에 있는 스캔 라인 쪽으로 다음 일시 종료 상태의 스캔 라인까지 스캔 라인을 그룹화할 수 있다. 예를 들어, ㅿn(n-1)이 임계치(Dmax)보다 크고, ㅿn(n+1), ㅿn+1(n+2) 및 ㅿn+2(n+3)은 임계치(Dmax)보다 작고, ㅿn+3(n+4)이 임계치(Dmax)보다 크다면, n 및 (n+3)번째 스캔 라인은 일시 종료 상태의 스캔 라인이고, 따라서 n 내지 (n+3)번째 스캔 라인은 하나의 그룹으로 묶일 수 있으며, 이 스캔 라인 그룹 전후의 스캔 라인들에 대하여 동떨어져 있게 된다.When the scan for the entire scan line is completed, it is determined whether or not there is a temporarily terminated scan line. If the scan line is temporarily terminated, the next scan end line is shifted toward the scan line at a distance smaller than the threshold value Dmax, The scan lines can be grouped up to the scan line of FIG. For example, DELTA n (n-1) is larger than the threshold value (Dmax), DELTA n (n + 1), DELTA n + 1 (n + 2), and DELTA n + 2 (n + 3) is the threshold value (Dmax ) smaller, DELTA n + 3 (n + 4) side is larger than the threshold value (Dmax), n and (n + 3) th scanning line is a scanning line of the temporary termination state, and thus n to (n + 3) th The scan lines may be grouped into a group, and they are spaced apart from the scan lines before and after the scan line group.
이렇게 그룹화된 스캔 라인 중 라인 수가 미리 정해져 있는 라인 수보다 작은 스캔 라인 그룹의 경우 이 그룹에 포함되어 있는 스캔 라인을 더 스캔하여 다음 픽셀 변화점을 찾는다. 라인 수가 미리 정해져 있는 라인 수보다 큰 스캔 라인 그룹의 경우에는 일시 종료 상태를 해제하고 스캔을 종료할 수 있다.In the case of a scan line group in which the number of lines is smaller than the predetermined number of lines in the grouped scan lines, the scan lines included in the group are further scanned to find the next pixel change point. In the case of a scan line group in which the number of lines is larger than the predetermined number of lines, the temporary end state can be released and the scan can be terminated.
이와 같이, 추출부(130)는 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑 알고리즘을 사용하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다.As described above, the extracting
결합부(140)는 윤곽선이 추출된 복수 개의 단편을 결합할 수 있는데, 보다 구체적으로는 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고, 산출된 표준편차를 이용하여 복수 개의 단편을 결합할 수 있다. 즉, 결합부(140)는 각 단편에 있는 윤곽선 정보의 표준편차를 산출하고, 윤곽선 정보의 표준편차를 이용하여 복수 개의 단편을 결합할 수 있는데, 여기서, 윤곽선 정보는 단편에 있는 중심선으로부터 윤곽선까지의 직선 거리를 나타내거나 (X, Y)에 대한 좌표 정보로 나타낼 수 있다.More specifically, the combining
결합부(140)는 각 단편에 있는 윤곽선 정보에 대한 표준편차를 산출하기 위하여 각 단편에 있는 윤곽선 정보의 평균인 윤곽선의 평균 정보를 우선적으로 산출하고, 각 단편에 있는 윤곽선의 정보가 윤곽선의 평균 정보로부터 떨어져 있는 거리를 구하여 표준편차를 산출함으로써 이를 기반으로 복수 개의 단편을 결합할 수 있다.In order to calculate the standard deviation of the contour information in each fragment, the combining
보다 자세하게 설명하면, 결합부(140)는 미리 정해진 허용표준편차보다 표준편차가 작은 단편 중에서 표준편차가 최소인 기준 단편을 선택하고, 선택된 기준 단편을 기준으로 기준 단편의 양 측에 위치한 단편들을 차례로 결합해 나감으로써 결합 이미지를 생성할 수 있다. 허용표준편차는 최대로 허용 가능한 표준편차로, 결합부(140)는 표준편차가 허용표준편차보다 작은 단편 중에서 표준편차가 가장 작은 기준 단편을 선택할 수 있고, 선택된 기준 단편의 양 측에 허용표준편차보다 표준편차가 작은 단편이 있으면, 기준 단편과 해당 단편을 하나의 단편으로 결합하여 결합 이미지를 생성할 수 있다. 여기서, 적합한 단편이 하나도 없거나 정해진 표준편차 이내의 단편의 수가 어느 한도를 미치지 못할 때에는 주어진 이미지를 거부 또는 실패로 간주할 수 있다.More specifically, the combining
또한, 결합부(140)는 결합 이미지에 포함된 각 단편에 대하여 커브 피팅(curve-fitting)을 수행하여 가상의 윤곽선 정보를 계산하고, 각 단편에 있는 원래의 윤곽선 정보와 가상의 윤곽선 정보를 비교하여 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이를 검출할 수 있다. 그리고, 결합부(140)는 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 작거나 같은 구간에 대해서는 원래의 윤곽선 정보를 그대로 사용하고, 검출된 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 구간에 대해서는 그 구간에 해당되는 원래의 윤곽선 정보를 가상의 윤곽선 정보로 대체할 수 있다. 즉, 결합부(140)는 각 단편에서 추출된 원래의 윤곽선 정보 중에서 노이즈로 판단되는 원래의 윤곽선 정보에 대해서는 가상의 윤곽선 정보로 대체하여 노이즈를 제거할 수 있다.In addition, the combining
한편, 결합부(140)는 기준 단편의 양 측에 위치한 단편의 표준편차가 허용표준편차보다 작지 않으면, 표준편차가 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 가상의 윤곽선 정보에 따라 제1 단편의 윤곽선 정보를 수정하고, 윤곽선 정보가 수정된 제1 단편과 결합 이미지를 결합할 수 있다. 여기서, 가상의 윤곽선 정보는 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.On the other hand, when the standard deviation of the fragment located on both sides of the reference fragment is not smaller than the allowable standard deviation, the combining
보다 상세하게 설명하면, 결합부(140)는 기준 단편과 인접하게 위치한 단편 중에서 허용표준편차보다 표준편차가 작은 단편이 없는 경우, 이전에 합쳐진 결합 이미지에 있는 윤곽선 정보를 기준으로 다항식을 검출하고, 검출된 다항식을 이용하여 허용표준편차보다 표준편차가 큰 제1 단편에 대하여 커브 피팅(curve-fitting)을 수행할 수 있다. 여기서, 커브 피팅은 주어진 데이터 집합에 함수를 맞추는 과정 중의 하나로, 선형 함수, 다항식 함수나 지수 함수 등을 사용하여 수행할 수 있다. 즉, 커브 피팅은 데이터를 근사적으로 나타낼 때는 주어진 데이터 사이의 값을 추정할 때 많이 사용되며, 다항식을 이용하여 데이터 집합을 커브 피팅하는 경우, 다항식이 데이터들을 모두 통과하거나 데이터들이 모두 통과하지 않고 전체적으로 데이터를 근사적으로 잘 나타내도록 커브 피팅할 수 있다. More specifically, if there is no fragment having a standard deviation smaller than the allowable standard deviation among the fragments positioned adjacent to the reference fragment, the combining
도 12 및 도 13은 본 발명의 일 실시예에 의한 8번 단편 내지 13번 단편에서 대상체의 윤곽선을 추출하는 과정을 보여주는 예이다. FIGS. 12 and 13 show an example of a process of extracting contours of a target object from
도 12를 참조하여 예를 들어 설명하면, 허용표준편차를 15라고 가정하고, 8번에서 13번까지의 단편들을 보면, 8번 단편의 표준편차는 33.5, 9번 단편은 26.3, 10번은 14.8, 11번은 8.6, 12번은 12, 13번은 5.1로 산출될 수 있다. 이러한 경우, 13번 단편은 표준편차가 5.1인 기준 단편으로, 최고의 신뢰도를 가지게 되고, 10번 내지 12번 단편의 표준편차가 허용표준편차보다 작으므로 13번 단편은 10번부터 12번 단편들과 결합되어 결합 이미지를 생성하게 된다. 그리고, 10번부터 13번 단편까지의 윤곽선 정보는 그대로 사용하게 된다. 12, it is assumed that the allowable standard deviation is 15. In the
하지만, 합쳐진 단편들인 결합 이미지에 이웃한 9번 단편은 허용표준편차인 15를 초과하므로 9번 단편의 윤곽선 정보는 삭제되고 대신에 10, 11, 12, 13번 단편의 윤곽선 정보를 기준으로 커브 피팅을 수행하여 다항식을 검출하고, 검출된 다항식을 이용하여 9번 단편에 상응되는 가상의 윤곽선 정보를 계산하고 합쳐지게 된다. 그리고 8번 단편 역시 같은 방법으로 합쳐지게 된다. 이러한 예에 대한 결과는 도 13에 나타나 있으며, 10번에서 13번까지의 단편에는 원래의 데이터인 윤곽선 정보가 사용되었으나, 8번과 9번의 단편은 다항식을 이용한 가상의 윤곽선 정보로 수정되어 있는 것을 알 수 있다.However, since the 9th piece adjacent to the combined image, which is the combined pieces, exceeds the allowable standard deviation of 15, the contour information of the 9th piece is deleted. Instead, the curve fitting is performed based on the contour information of the 10th, 11th, 12th, And the virtual contour information corresponding to the 9th fragment is calculated and combined using the detected polynomial. And the 8th fragment will be merged in the same way. The result of this example is shown in Fig. 13, in which the original data, outline information, is used for the fragments 10 to 13, but fragments 8 and 9 are modified to the virtual contour information using the polynomial Able to know.
도 14는 반복적인 윤곽선 추출 과정을 통해 추출된 대상체의 윤곽선을 보여주는 예로, 합쳐진 단편을 기준으로 다시 단편을 결합하는 과정을 반복하여 도 14와 같은 대상체의 윤곽선을 추출할 수 있다. 만약, 이웃한 단편 중 허용표준편차 미만의 단편이 없는 경우, 또 다시 커브 피팅(Curve-fitting) 과정을 반복하고 합쳐진 단편을 기준으로 다시 결합(Merge) 과정을 반복하는데, 이러한 반복은 모든 단편들이 하나로 합쳐질 때까지 수행될 수 있다.14 illustrates an outline of a target object extracted through an iterative contour extraction process. Referring to FIG. 14, a contour of a target object as shown in FIG. 14 can be extracted by repeating the process of combining fragments based on the merged fragment. If there are no fragments less than the allowable standard deviation among the neighboring fragments, the curve fitting process is repeated, and the merge process is repeated based on the combined fragments. Can be performed until one is combined.
후처리부(150)는 윤곽선이 추출된 대상체의 이미지에 대하여 후처리 동작을 수행할 수 있는데, 보다 상세하게는 상편에 사용된 스위핑 이미지에서 윤곽선 추출의 결과 선을 중심으로 상하 일정 간격 이상의 점들을 지울 수 있다(Band-pass Filtering). 그리고, 후처리부(150)는 추출부(130)에서 필터링된 이미지를 가지고 상술한 윤곽선을 추출하는 동작을 다시 반복하도록 할 수 있다. 이때, 반복하는 횟수나 밴드 패스(band-pass)에서 사용되는 간격 등은 사용되는 이미지의 상태나 찾고자 하는 대상체의 특징에 따라 필요에 맞게 조정할 수 있다.The
도 15는 대상체의 주변에 있는 노이즈를 제거한 이미지를 보여주는 예 및 도 16은 대상체의 최종 윤곽선을 보여주는 예로, 후처리부(150)는 도 15와 같이, 상편과 하편의 윤곽선을 기준으로 초기에 사용되었던 윤곽선의 추출 이미지에서 바깥쪽, 즉, 대상체 외부에 해당하는 부분을 지울 수 있다(Noise Removal).15 is an example showing an image in which noises around the object are removed, and FIG. 16 is an example showing a final contour line of the object. As shown in FIG. 15, the post- In the extracted image of the contour, the part outside the object, ie, the part outside the object, can be removed (Noise Removal).
또한, 후처리부(150)는 추출부(130)에서 노이즈를 제거한 윤곽선 이미지를 기준으로 다시 윤곽선의 추출 동작을 적용하도록 할 수 있다. 이때, 필요에 따라 상술한 과정을 전체적이나 부분적으로 반복할 수 있으며, 다른 알고리즘을 적용하여 도 16과 같은 최종 윤곽선을 추출하는 것도 가능하다. 여기서, 최종 윤곽선은 사용 이미지에 따라 완전히 닫혀있는 예컨대, 모든 테두리가 연결되어 있는 윤곽선인 경우도 있겠지만 대부분 부분적으로 테두리가 연결되지 않고 열려 있게 된다. 이때, 원하는 용도에 따라 열려 있는 윤곽선을 닫아야 할 경우, 이를 위한 알고리즘은 노이즈 제거와는 다른 것이며 커브 피팅이나 다른 알고리즘을 사용할 수 있다.In addition, the
하기에서는 본 발명의 일 실시예에 의한 영상 처리 과정에 대하여 설명하도록 한다.Hereinafter, an image processing process according to an embodiment of the present invention will be described.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 과정을 보여주는 동작 흐름도를 나타낸다.17 is a flowchart illustrating an image processing process according to an embodiment of the present invention.
도 17에 도시한 바와 같이, 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 이미지를 상하로 나누고(S210), 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나눈다(S220). 여기서, 상하로 나눈 이미지를 각각 상편(top slice) 및 하편(bottom slice)이라고 하며, 상편 및 하편을 각각 동일한 수의 단편으로 나눌 수 있다.As shown in FIG. 17, an image is divided into upper and lower portions based on both end points of a target object in the input image (S210), and the upper and lower divided images are divided into a plurality of slices (S220). Here, the upper and lower images are referred to as a top slice and a bottom slice, respectively, and the upper and lower halves can be divided into the same number of fragments.
이와 같이, 이미지를 상하로 나누기 전에 디지털 카메라 또는 핸드폰 등을 포함한 디지털 기기에서 입력 받은 이미지에 대하여 전처리 동작을 수행할 수 있다. 즉, 전처리 과정을 통해 입력 받은 이미지에 있는 노이즈를 저감시킬 수 있는데, 특히, 모션 블러(motion blur)를 제거하는 알고리즘 및 영상의 가장자리를 선명(sharpen)하게 하는 알고리즘을 이용하여 필요에 따라 이미지에 있는 노이즈를 전반적으로 줄일 수 있다. In this way, before the image is divided into upper and lower parts, a preprocessing operation can be performed on an image input from a digital device including a digital camera or a mobile phone. In other words, it is possible to reduce the noise in the input image through the preprocessing process. In particular, by using an algorithm for eliminating the motion blur and an algorithm for sharpening the edge of the image, The overall noise can be reduced.
또한, 전처리 과정에서 노이즈가 저감된 이미지에 있는 대상체의 윤곽선을 개략적으로 추출할 수 있다. 즉, 소벨(Sobel) 알고리즘 또는 프리윗(Prewitt) 알고리즘 등을 사용하여 전처리 과정 시 대상체의 윤곽선을 개략적으로 추출할 수 있다. 소벨 알고리즘은 대상체(물체)와 배경의 경계로, 픽셀의 밝기가 급격하게 변하는 불연속점인 윤곽선(에지)를 추출할 수 있는 가장 대표적인 1차 미분 연산자로, 수직, 수평 또는 대각선과 같이 모든 방향에 있는 에지를 추출할 수 있으나, 그 중에서도 대각선 방향의 에지를 추출하는데 유리하며, 잡음에 대체적으로 강한 장점이 있다. 프리윗(Prewitt) 알고리즘은 대각선 방향보다는 수직 및 수평 방향의 에지를 추출하는데 주로 사용되고, 수행 속도가 빠른 장점이 있다. 상술한 전처리 과정은 설정된 조건에 따라 생략될 수 있음은 물론이다.In addition, it is possible to roughly extract the contour of the object in the noise-reduced image in the preprocessing process. That is, the contour of the object can be roughly extracted during the preprocessing process using a Sobel algorithm or a Prewitt algorithm. The Sobel algorithm is the most representative first-order differential operator capable of extracting a contour (edge) that is a discontinuity point where the brightness of a pixel changes suddenly at the boundary between an object (object) and a background. It is advantageous to extract edges in the diagonal direction, and there is generally a strong advantage in noise. Prewitt algorithm is mainly used for extracting vertical and horizontal edges rather than diagonal direction, and has a high speed of execution. It goes without saying that the above-described preprocessing process can be omitted according to the set conditions.
한편, 이미지에 나타나는 대상체는 하기의 조건을 만족시켜야 한다.On the other hand, the object appearing in the image must satisfy the following conditions.
첫째, 대상체의 형태가 전부 이미지에 나타나야 하고, 둘째, 대상체는 이미지의 중심부에 위치하여야 한다. 셋째, 대상체의 양 끝점에 해당하는 부분이 가급적 이미지의 중심선에 있어야 한다. 이러한 대상체의 조건을 만족시키기 위하여 전처리 과정을 수행하는 도중이나 전처리 과정을 수행한 후, 이미지 내부에 있는 대상체의 위치를 조정하는 동작을 수행할 수 있다.First, the shape of the object should all appear in the image. Second, the object should be located in the center of the image. Third, the parts corresponding to both end points of the object should be at the center line of the image as much as possible. In order to satisfy the condition of the object, it is possible to perform the operation of adjusting the position of the object in the image after performing the preprocessing process or the preprocessing process.
그리고, 복수 개의 단편 각각에서 대상체의 윤곽선을 추출한다(S230). 즉, 상편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출한 후, 하편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출할 수 있다. Then, contours of the object are extracted from each of the plurality of fragments (S230). That is, the outline of the object can be extracted from a plurality of fragments constituting the upper fragment, and the outline of the object can be extracted from the plurality of fragments constituting the lower fragment.
보다 구체적으로 설명하면, 단편을 이루고 있는 적어도 하나의 픽셀 라인(pixel line)을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 검색된 픽셀의 변화점을 조합하여 대상체의 윤곽선을 추출할 수 있다. 즉, 추출부(130)는 스위핑(sweeping) 알고리즘을 사용하여 복수 개의 픽셀 라인 각각을 미리 정해진 방향에 따라 스캔함으로써 각 픽셀 라인에서 형상이나 색을 나타내는 픽셀(데이터)의 구분점을 찾아낼 수 있고, 이를 응용하여 대상체의 윤곽선(또는 명암의 밝기나 색의 전환점)을 추출할 수 있다.More specifically, at least one pixel line constituting a fragment is scanned in a predetermined direction to search for a change point of a pixel for each pixel line, and the change point of the retrieved pixel is combined, Can be extracted. That is, the extracting
또한, 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다. 즉, 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘을 사용하여 대상체의 윤곽선을 추출할 수 있다. In addition, at least one pixel line constituting a fragment is scanned according to a predetermined direction to search for a change point of a pixel for each pixel line, and a change point of a pixel and a pixel in a pixel line located on both sides of the change point of the pixel And determines the end point of the scan. Further, the contour of the object can be extracted by additionally searching the change point of the pixel according to the end point of the determined scan. That is, a contour of a target object can be extracted using a threshold sweeping algorithm using the distance between simple sweeping results.
그런 다음, 윤곽선이 추출된 복수 개의 단편을 결합한다(S240).Then, a plurality of fragments from which the outline is extracted are combined (S240).
보다 구체적으로는 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고, 산출된 표준편차를 이용하여 복수 개의 단편을 결합할 수 있다. 즉, 각 단편에 있는 윤곽선 정보의 표준편차를 산출하고, 산출된 윤곽선 정보의 표준편차를 이용하여 복수 개의 단편을 결합할 수 있는데, 여기서, 윤곽선 정보는 단편에 있는 중심선으로부터 윤곽선까지의 직선 거리를 나타내거나 (X, Y)에 대한 좌표 정보로 나타낼 수 있다.More specifically, a standard deviation may be calculated for each of a plurality of fragments from which a contour is extracted, and a plurality of fragments may be combined using the calculated standard deviation. That is, it is possible to calculate the standard deviation of the contour information in each fragment, and combine a plurality of fragments using the standard deviation of the calculated contour information, wherein the contour information is the straight line distance from the center line to the contour in the fragment (X, Y), as shown in Fig.
그리고, 각 단편의 윤곽선 정보에 대한 표준편차를 산출하기 위하여 각 단편에 있는 윤곽선 정보의 평균인 윤곽선의 평균 정보를 우선적으로 산출하고, 각 단편에 있는 윤곽선의 정보가 윤곽선의 평균 정보로부터 떨어져 있는 거리를 구하여 표준편차를 산출하고, 이를 기반으로 하여 복수 개의 단편을 결합할 수 있다.In order to calculate the standard deviation of the contour information of each fragment, the average information of the contour, which is the average of the contour information in each fragment, is preferentially calculated, and the information of the contour in each fragment is calculated as the distance The standard deviation is calculated, and a plurality of fragments can be combined based on the standard deviation.
보다 자세하게 설명하면, 미리 정해진 허용표준편차보다 표준편차가 작은 단편 중에서 표준편차가 최소인 기준 단편을 선택하고, 선택된 기준 단편을 기준으로 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성할 수 있다. 허용표준편차는 최대로 허용 가능한 표준편차로, 표준편차가 허용표준편차보다 작은 단편 중에서 표준편차가 가장 작은 기준 단편을 선택할 수 있고, 선택된 기준 단편의 양 측에 허용표준편차보다 표준편차가 작은 단편이 있으면, 기준 단편과 해당 단편을 하나의 단편으로 결합하여 결합 이미지를 생성할 수 있다. 여기서, 적합한 단편이 하나도 없거나 정해진 표준편차 이내의 단편의 수가 어느 한도를 미치지 못할 때에는 주어진 이미지를 거부 또는 실패로 간주할 수 있다.More specifically, a reference fragment having a minimum standard deviation is selected from fragments whose standard deviation is smaller than a predetermined allowable standard deviation, and fragments located on both sides of the reference fragment are combined based on the selected reference fragment to generate a combined image . The allowable standard deviation is the maximum allowable standard deviation. A fraction with the smallest standard deviation among the fractions whose standard deviation is smaller than the allowable standard deviation can be selected and a standard deviation smaller than the allowable standard deviation on both sides of the selected reference fragment The combined image can be generated by combining the reference fragment and the fragment into one fragment. Here, a given image can be regarded as rejection or failure when there are no suitable fragments or the number of fragments within a specified standard deviation does not reach a certain limit.
또한, 결합 이미지에 있는 각 단편에 대하여 커브 피팅(curve-fitting)을 수행하여 가상의 윤곽선 정보를 계산하고, 각 단편에 있는 원래의 윤곽선 정보와 가상의 윤곽선 정보를 비교하여 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이를 검출할 수 있다. 그리고, 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 작거나 같은 구간에 대해서는 원래의 윤곽선 정보를 그대로 사용하고, 검출된 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 구간에 대해서는 그 구간에 해당되는 원래의 윤곽선 정보를 가상의 윤곽선 정보로 대체할 수 있다. 즉, 각 단편에서 추출된 원래의 윤곽선 정보 중에서 노이즈로 판단되는 원래의 윤곽선 정보에 대해서는 가상의 윤곽선 정보로 대체하여 노이즈를 제거할 수 있다.Further, curve-fitting is performed on each fragment in the combined image to calculate virtual contour information, and the original contour information in each fragment is compared with the virtual contour information to obtain the original contour information and virtual It is possible to detect the difference of the outline information of the image. When the difference between the original contour information and the virtual contour information is smaller than or equal to a predetermined reference difference, the original contour information is used as it is, and the difference between the detected original contour information and the virtual contour information is determined And for the section longer than the reference difference, the original contour information corresponding to the section can be replaced with the virtual contour information. That is, from the original outline information extracted from each fragment, original outline information determined as noise can be replaced with virtual outline information to remove noise.
그리고, 기준 단편의 양 측에 위치한 단편의 표준편차가 허용표준편차보다 작지 않으면, 표준편차가 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 가상의 윤곽선 정보에 따라 제1 단편의 윤곽선 정보를 수정하고, 윤곽선 정보가 수정된 제1 단편과 결합 이미지를 결합할 수 있다. 여기서, 가상의 윤곽선 정보는 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.If the standard deviation of the fragment located on both sides of the reference fragment is not smaller than the allowable standard deviation, the virtual contour information is calculated for the first fragment whose standard deviation is not smaller than the allowable standard deviation, 1 piece of contour information, and combine the combined first image and the combined image with the modified contour information. Here, the virtual contour information can be calculated using the contour information and the preset polynomial for the fragment in the combined image.
보다 상세하게 설명하면, 기준 단편과 인접하게 위치한 단편 중에서 허용표준편차보다 표준편차가 작은 단편이 없는 경우, 이전에 합쳐진 결합 이미지에 있는 윤곽선 정보를 기준으로 다항식을 검출하고, 검출된 다항식을 이용하여 허용표준편차보다 표준편차가 큰 제1 단편에 대하여 커브 피팅(curve-fitting)을 수행할 수 있다. 여기서, 커브 피팅은 주어진 데이터 집합에 함수를 맞추는 과정 중의 하나로, 선형 함수, 다항식 함수나 지수 함수 등을 사용하여 커브 피팅을 수행할 수 있다. 즉, 커브 피팅은 데이터를 근사적으로 나타낼 때는 주어진 데이터 사이의 값을 추정할 때 많이 사용되며, 다항식을 이용하여 데이터 집합을 커브 피팅하는 경우, 다항식이 데이터들을 모두 통과하거나 데이터들이 모두 통과하지 않고 전체적으로 데이터를 근사적으로 잘 나타내도록 커브 피팅할 수 있다. More specifically, if there is no fragment having a standard deviation smaller than the allowable standard deviation among the fragments positioned adjacent to the reference fragment, the polynomial is detected based on the contour information in the previously combined image and the detected polynomial is used It is possible to perform curve-fitting on the first piece having a standard deviation larger than the allowable standard deviation. Here, curve fitting is a process of fitting a function to a given data set, and curve fitting can be performed using a linear function, a polynomial function, an exponential function, or the like. In other words, curve fitting is often used when estimating the value between given data when approximating data, and when fitting a data set by curve fitting using polynomial, the polynomial passes through all the data, Curve fitting can be done to approximate the data as a whole.
또한, 커브 피팅이란 평면 위에 흩어진 점에 대하여 그들에게 알맞는 곡선을 계산하고 산출하는 것으로, 예를 들어, 어떤 파형을 표본화(sampling) 하고 데이터를 얻는 것을 말한다. 이 표본화한 데이터에 대하여 원래 파형 곡선의 함수(function)를 계산하고 적당한 것 등을 표시할 수 있으며, 함수와 각 측정 값과의 제곱오차합을 구하고, 그것이 최소가 되도록 각 변수에 계수를 부여해 나가는 방법으로, 이 방법에 의하여 측정된 각 점으로부터 곡선의 편차를 최소로 할 수 있다.Curve fitting is a method of calculating and calculating a curve suitable for scattered points on a plane, for example, sampling a certain waveform and obtaining data. For this sampled data, the function of the original waveform curve can be calculated and the appropriate one can be displayed. The sum of squared error between the function and each measured value is obtained, and a coefficient is given to each variable so that it is minimized. Method, the deviation of the curve from each point measured by this method can be minimized.
이후, 윤곽선이 추출된 대상체의 이미지에 대하여 후처리 동작을 수행할 수 있는데, 보다 상세하게는 윤곽선이 추출된 대상체의 이미지에 대하여 노이즈를 제거함으로써 대상체의 최종 윤곽선을 추출하는 동작을 수행할 수 있다.Thereafter, a post-processing operation can be performed on the image of the object from which the outline has been extracted. In more detail, an operation of extracting the final outline of the object by removing noise from the image of the extracted object can be performed .
본 발명의 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 이미지 처리 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include a computer-readable medium having program instructions for performing various computer-implemented operations. This medium records a program for executing the above-described image processing method. The medium may include program instructions, data files, data structures, etc., alone or in combination. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD and DVD, programmed instructions such as floptical disk and magneto-optical media, ROM, RAM, And a hardware device configured to store and execute the program. Or such medium may be a transmission medium, such as optical or metal lines, waveguides, etc., including a carrier wave that transmits a signal specifying a program command, data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, Of the right.
100: 이미지 처리 장치
110: 전처리부
120: 분할부
130: 추출부
140: 결합부
150: 후처리부 100: Image processing device
110:
120: minute installment
130:
140:
150: Post-
Claims (12)
제1 픽셀 라인의 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 일측에 위치한 제2 픽셀 라인의 제2 픽셀의 변화점 간의 제1 거리 및 상기 제1 픽셀의 변화점과 상기 제1 픽셀 라인의 타측에 위치한 제3 픽셀 라인의 제3 픽셀의 변화점 간의 제2 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하는 단계, 그리고
상기 스캔의 종료가 결정되면 상기 제1 픽셀의 변화점을 상기 제1 픽셀 라인의 최종 변화점으로 결정하고, 상기 스캔의 종료가 결정되지 않으면 상기 제1 픽셀 라인의 스캔을 계속하는 단계
를 포함하는 이미지 처리 방법.Scanning at least one pixel line in an image made up of a plurality of pixels along a predetermined direction to extract a change point of the pixel for each pixel line,
A first distance between a changing point of the first pixel of the first pixel line and a changing point of the second pixel of the second pixel line located at one side of the first pixel line and a changing point of the first pixel, Determining a finishing point of the scan by comparing a second distance between points of change of a third pixel of a third pixel line located on the other side of the first pixel and a predetermined threshold,
Determining a change point of the first pixel as a last change point of the first pixel line when the end of the scan is determined and continuing to scan the first pixel line if the end of the scan is not determined
/ RTI >
상기 스캔의 종료 시점을 결정하는 단계는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하는 단계를 포함하는 이미지 처리 방법.The method of claim 1,
Wherein determining the end of the scan comprises:
And if the first and second distances are both greater than the threshold, proceeding with the scan to extract another pixel change point of the first pixel line.
상기 스캔의 종료 시점을 결정하는 단계는,
상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행하는 단계를 포함하는 이미지 처리 방법.The method of claim 1,
Wherein determining the end of the scan comprises:
If one of the first and second distances is larger than the threshold value and the other is smaller than the threshold value, grouping is performed in a pixel line direction having a distance smaller than the threshold value from the first pixel line, And performing grouping up to a pixel line that is smaller than the threshold and the other is larger than the threshold.
상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료하는 단계를 더 포함하는 이미지 처리 방법.4. The method of claim 3,
Wherein if the number of lines of the grouped pixel lines is smaller than a predetermined number of lines, the scanning is continued to extract another pixel change point with respect to the grouped pixel lines, and if the number of lines of the grouped pixel lines is smaller than the predetermined number of lines And terminating the scan if the size of the image is larger.
상기 스캔의 종료 시점을 결정하는 단계는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료하는 단계를 포함하는 이미지 처리 방법.The method of claim 1,
Wherein determining the end of the scan comprises:
And terminating the scan if both the first and second distances are less than the threshold.
상기 픽셀의 변화점을 추출하는 단계는,
상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출하는 단계를 포함하는 이미지 처리 방법.The method of claim 1,
Wherein the step of extracting the change point of the pixel comprises:
And extracting a pixel whose value of the pixel is larger than a predetermined reference value as a change point of the pixel.
를 포함하는 이미지 처리 장치.The method comprising the steps of: scanning at least one pixel line in an image of a plurality of pixels along a predetermined direction to extract a change point of the pixel for each pixel line; Between a change point of the first pixel and a change point of the third pixel of the third pixel line located on the other side of the first pixel line, a first distance between a change point of the second pixel of the second pixel line located at one side of the first pixel line, Determining a change point of the first pixel as a final change point of the first pixel line when the end of the scan is determined; Is not determined, the extraction unit
And the image processing apparatus.
상기 추출부는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 크면, 상기 제1 픽셀 라인의 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하는 이미지 처리 장치.8. The method of claim 7,
The extracting unit extracts,
And if the first and second distances are both greater than the threshold, continue scanning to extract another pixel change point of the first pixel line.
상기 추출부는,
상기 제1 및 제2 거리 중 어느 하나가 상기 임계치보다 크고 다른 하나가 상기 임계치보다 작으면, 상기 제1 픽셀 라인부터 상기 임계치보다 작은 거리를 가지는 픽셀 라인 방향으로 그룹화를 하되 양측 거리가 한쪽은 상기 임계치보다 작고 다른 한쪽은 상기 임계치보다 큰 픽셀 라인까지 그룹화를 수행하는 이미지 처리 장치.8. The method of claim 7,
The extracting unit extracts,
If one of the first and second distances is larger than the threshold value and the other is smaller than the threshold value, grouping is performed in a pixel line direction having a distance smaller than the threshold value from the first pixel line, Wherein the grouping is performed up to a pixel line that is smaller than the threshold value and the other of which is larger than the threshold value.
상기 추출부는,
상기 그룹화된 픽셀 라인의 라인 수가 미리 정해진 라인 수보다 작으면 상기 그룹화된 픽셀 라인에 대하여 다른 픽셀 변화점을 추출하도록 상기 스캔을 계속 진행하고, 상기 그룹화된 픽셀 라인의 라인 수가 상기 미리 정해진 라인 수보다 크면 상기 스캔을 종료하는 이미지 처리 장치.The method of claim 9,
The extracting unit extracts,
Wherein if the number of lines of the grouped pixel lines is smaller than a predetermined number of lines, the scanning is continued to extract another pixel change point with respect to the grouped pixel lines, and if the number of lines of the grouped pixel lines is smaller than the predetermined number of lines And terminates the scanning if the size of the image is larger than the size of the image.
상기 추출부는,
상기 제1 및 제2 거리가 모두 상기 임계치보다 작으면, 상기 스캔을 종료하는 이미지 처리 장치.8. The method of claim 7,
The extracting unit extracts,
And terminates the scan if both the first and second distances are less than the threshold.
상기 추출부는,
상기 픽셀의 값이 미리 정해진 기준 값보다 큰 픽셀을 상기 픽셀의 변화점으로 추출하는 이미지 처리 장치.8. The method of claim 7,
The extracting unit extracts,
And extracts, as a change point of the pixel, a pixel whose value of the pixel is larger than a predetermined reference value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130072667A KR101528604B1 (en) | 2013-06-24 | 2013-06-24 | Method and Apparatus for Processing Image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130072667A KR101528604B1 (en) | 2013-06-24 | 2013-06-24 | Method and Apparatus for Processing Image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150000332A KR20150000332A (en) | 2015-01-02 |
KR101528604B1 true KR101528604B1 (en) | 2015-06-12 |
Family
ID=52474489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130072667A Expired - Fee Related KR101528604B1 (en) | 2013-06-24 | 2013-06-24 | Method and Apparatus for Processing Image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101528604B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11019335B2 (en) | 2016-05-10 | 2021-05-25 | Samsung Electronics Co., Ltd. | Method for encoding/decoding image and device therefor |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0877362A (en) * | 1994-09-08 | 1996-03-22 | Toshiba Corp | Image processor |
JP2006228218A (en) * | 2005-02-14 | 2006-08-31 | Samsung Electronics Co Ltd | Processing method for line pattern using convolution kernel, processor for line pattern, and medium stored with program for executing the processing method for line pattern |
JP2007286930A (en) * | 2006-04-18 | 2007-11-01 | Juki Corp | Method for detecting the center of gravity of an object |
KR20120135819A (en) * | 2011-06-07 | 2012-12-17 | 주식회사 에이디칩스 | Scanline-based rendering method of graphics accelerators |
-
2013
- 2013-06-24 KR KR1020130072667A patent/KR101528604B1/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0877362A (en) * | 1994-09-08 | 1996-03-22 | Toshiba Corp | Image processor |
JP2006228218A (en) * | 2005-02-14 | 2006-08-31 | Samsung Electronics Co Ltd | Processing method for line pattern using convolution kernel, processor for line pattern, and medium stored with program for executing the processing method for line pattern |
JP2007286930A (en) * | 2006-04-18 | 2007-11-01 | Juki Corp | Method for detecting the center of gravity of an object |
KR20120135819A (en) * | 2011-06-07 | 2012-12-17 | 주식회사 에이디칩스 | Scanline-based rendering method of graphics accelerators |
Also Published As
Publication number | Publication date |
---|---|
KR20150000332A (en) | 2015-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101636370B1 (en) | Image processing apparatus and method | |
CN109146963B (en) | An Image Position Offset Detection Method Based on Fast Feature Matching | |
US20100066737A1 (en) | Dynamic-state estimating apparatus, dynamic-state estimating method, and program | |
US11281897B2 (en) | Gesture shaking recognition method and apparatus, and gesture recognition method | |
KR101809543B1 (en) | Method for recognizing contectless fingerprint and electronic apparatus for performing the same. | |
JP5874039B2 (en) | Stereo image processing apparatus and stereo image processing method | |
WO2010093408A1 (en) | Video matting based on foreground-background constraint propagation | |
JP5812705B2 (en) | Crack detection method | |
KR101997048B1 (en) | Method for recognizing distant multiple codes for logistics management and code recognizing apparatus using the same | |
KR20130072073A (en) | Apparatus and method for extracting edge in image | |
JP2018128309A (en) | Crack detection method | |
JP2001319239A (en) | Device and method for extracting object contour | |
US12094183B2 (en) | Geometric pattern matching method and device for performing the method | |
KR101528604B1 (en) | Method and Apparatus for Processing Image | |
KR101528906B1 (en) | Method and Apparatus for Processing Image | |
EP2887261B1 (en) | Information processing device, information processing method, and program | |
Gowri et al. | 2D Image data approximation using Savitzky Golay filter—Smoothing and differencing | |
JP7008408B2 (en) | Crack detection method | |
KR101226913B1 (en) | Method for preparing three dimensional profile map for composing images | |
Srikrishna et al. | Realization of Human Eye Pupil Detection System using Canny Edge Detector and Circular Hough Transform Technique | |
JP2014238789A (en) | Image processing program, image processing method and image processor | |
CN105741263A (en) | Hand contour extraction and orientation-positioning algorithm | |
JP2011170554A (en) | Object recognition device, object recognition method, and object recognition program | |
Guo et al. | A fast page outline detection and dewarping method based on iterative cut and adaptive coordinate transform | |
CN105719269A (en) | Method and apparatus for determining target object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20130624 |
|
PA0201 | Request for examination | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20140723 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20150121 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20150608 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20150609 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20190610 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20190610 Start annual number: 5 End annual number: 5 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20210319 |