[go: up one dir, main page]

KR102174208B1 - FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM - Google Patents

FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM Download PDF

Info

Publication number
KR102174208B1
KR102174208B1 KR1020180118672A KR20180118672A KR102174208B1 KR 102174208 B1 KR102174208 B1 KR 102174208B1 KR 1020180118672 A KR1020180118672 A KR 1020180118672A KR 20180118672 A KR20180118672 A KR 20180118672A KR 102174208 B1 KR102174208 B1 KR 102174208B1
Authority
KR
South Korea
Prior art keywords
image
depth
value
histogram
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180118672A
Other languages
Korean (ko)
Other versions
KR20200039149A (en
Inventor
권순각
이동석
오규진
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020180118672A priority Critical patent/KR102174208B1/en
Publication of KR20200039149A publication Critical patent/KR20200039149A/en
Application granted granted Critical
Publication of KR102174208B1 publication Critical patent/KR102174208B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06K9/00201
    • G06K9/38
    • G06K9/4642
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

실시예는, 깊이 영상 내의 얼굴 영역을 검출하여 제1 깊이 영상을 생성하는 단계; 상기 얼굴 영역에 대응하는 제1 적외선 영상을 생성하는 단계; 상기 제1 깊이 영상의 제1 대상 화소와 제1 인접 화소 간의 깊이 값의 비교 결과에 기초하여 상기 제1 깊이 영상을 부호화하는 단계; 상기 제1 적외선 영상에서 제2 대상 화소와 제2 인접 화소 간의 계조값의 비교 결과에 기초하여 상기 제1 적외선 영상을 부호화하는 단계; 부호화된 제1 깊이 영상의 제1 히스토그램 및 부호화된 제1 적외선 영상의 제2 히스토그램을 생성하는 단계; 복수의 인물들 각각의 제2 적외선 영상의 히스토그램과 상기 제2 히스토그램을 비교하여 상기 복수의 인물들 중 적어도 하나를 선정하는 단계; 및 상기 선정된 적어도 하나의 인물의 제2 깊이 영상의 히스토그램과 상기 제1 히스토그램을 비교하여 상기 인물의 신원을 인식하는 단계;를 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.An embodiment includes the steps of generating a first depth image by detecting a face area in the depth image; Generating a first infrared image corresponding to the face area; Encoding the first depth image based on a comparison result of a depth value between a first target pixel of the first depth image and a first adjacent pixel; Encoding the first infrared image based on a result of comparing gray scale values between a second target pixel and a second adjacent pixel in the first infrared image; Generating a first histogram of the encoded first depth image and a second histogram of the encoded first infrared image; Comparing a histogram of a second infrared image of each of the plurality of people with the second histogram to select at least one of the plurality of people; And comparing the histogram of the second depth image of the selected at least one person with the first histogram to recognize the identity of the person; including a depth image in which a face is photographed and an infrared image. Can provide.

Description

얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체{FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM}The method and device for identification recognition through the depth and infrared images of the face, and a non-transitory computer-readable recording medium {FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM}

본 발명은 신원 인식 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체에 관한 것이다. 상세하게는, 얼굴이 촬영된 깊이 영상과 적외선 영상을 이용하여 신원을 인식할 수 있는 기술에 관한 것이다.The present invention relates to an identity recognition method and apparatus, and to a non-transitory computer-readable recording medium. In detail, it relates to a technology capable of recognizing an identity using a depth image and an infrared image in which a face is captured.

생체 인식을 이용한 사용자 인증 및 제어 시스템에 대한 연구와 활용이 점차 늘어가고 있는 가운데 이중에서 얼굴인식이 주목을 받고 있다. 얼굴인식은 비공격적이며 비강압적인 인증 방식으로, 사용자가 따로 인증을 위한 특별한 동작을 할 필요 없이 인증을 할 수 있다는 장점이 있다. 또한 영상 기반의 얼굴인식을 통한 신원인식 기술은 보안, 마케팅 분야 등 다양한 분야에 응용할 수 있다는 장점을 가지고 있어 연구가 활발하게 이루어지고 있다. 하지만 기존 얼굴 인식 방법은 외부 환경에 취약하고 인쇄된 사진 등을 통해 거짓인식이 될 수 있는 보안상의 위험성을 가지는 단점으로 인해 추가적인 인증 수단이 필요하다는 단점이 있다.While research and application of user authentication and control systems using biometrics are gradually increasing, face recognition is drawing attention among them. Face recognition is a non-aggressive and non-coercive authentication method, and has the advantage of being able to perform authentication without requiring a user to perform a special operation for authentication. In addition, the identity recognition technology through image-based face recognition has the advantage that it can be applied to various fields such as security and marketing, so research is being actively conducted. However, the existing face recognition method has a disadvantage in that it requires an additional authentication method due to the disadvantage of being vulnerable to the external environment and having a security risk that may result in false recognition through printed photos.

얼굴인식을 하기 위한 알고리즘으로는 PCA (Principal Component Analysis), SIFT(Scale Invariant Feature Transform), Haar-like feature, LBP(Local Binary Pattern)등이 쓰인다. PCA를 이용한 얼굴인식 방법은 얼굴인식에는 대상의 특징을 추출하여 그것의 주성분을 분석하는 방법으로 고유 얼굴(Eigenfaces)를 추출하여 이를 얼굴 검출에 사용하는 방법이다. PCA는 고차원의 특징벡터를 저차원의 특징벡터로 정보의 손실이 최소화되도록 차원을 축소시키는 대표적인 알고리즘으로, 훈련용 얼굴 영상들에서 유사성을 찾아 얼굴이미지의 차원을 축소하여 평균 얼굴을 구한 후, 훈련 영상과 비교하고자 하는 영상의 가중치를 구해 NN(Nearest Neighbor)방법을 사용하여 얼굴을 식별한다. PCA는 알고리듬이 단순하고 속도가 빠른 장점이 있지만, 얼굴의 포즈, 조도 등의 영향을 받아 정확도가 낮아지는 문제점이 있다. SIFT를 이용한 얼굴인식 방법은 모서리나 꼭지점과 같이 영상에서 식별이 용이한 특징점들을 선택한 후 벡터성분을 추출하는 알고리즘으로, 특징점 주변의 블록에 속한 픽셀(화소)들의 그라디언트(Gradient) 방향과 크기에 대한 히스토그램을 구한 후 이 히스토그램 값들을 일렬로 쭉 연결한 벡터를 사용하여 얼굴 비교에 사용한다. SIFT는 비교 영상의 크기 변화 또는 회전으로 인한 변형에 대해서도 정확도가 유지되는 장점이 있지만, 대용량의 데이터가 생성되고 반복적으로 이를 연산하는 과정이 많아 실시간으로 얼굴 인식을 하기가 어렵다는 단점이 있다. Haar-like 특징을 이용한 얼굴검출 방법은 영상내의 영역과 영역의 밝기차를 이용한 Haar-like 특징을 이용한 것으로, 사각형 형태의 밝은 영역과 어두운 영역의 사각형들로 구성된 다양한 형태의 Elementary 특징을 정의한 후, 각 영역에 포함된 화소 값들의 차이를 통해 의미있는 특징점을 찾는 방법이다. 여기서 의미있는 특징의 선별은 Boosting등의 자동 학습 알고리듬을 통해 이루어진다. Haar-like 특징을 이용한 방법은 영역 내 형태변화 및 위치변화에 대해서도 정확도가 유지되는 장점이 있지만, 광원이 변화 혹은 회전에 따라 정확도가 떨어지는 단점이 있다. As an algorithm for face recognition, PCA (Principal Component Analysis), SIFT (Scale Invariant Feature Transform), Haar-like feature, LBP (Local Binary Pattern), etc. are used. The face recognition method using PCA is a method of extracting features of an object and analyzing its main components in face recognition. Eigenfaces are extracted and used for face detection. PCA is a representative algorithm that reduces the dimension of a high-dimensional feature vector to a low-dimensional feature vector so that loss of information is minimized.After finding similarities in the training face images, reducing the dimension of the face image to obtain an average face, then training The weight of the image to be compared with the image is obtained, and a face is identified using the Nearest Neighbor (NN) method. PCA has the advantage of having a simple algorithm and a high speed, but there is a problem that the accuracy is lowered due to the influence of the pose and illumination of the face. The face recognition method using SIFT is an algorithm that extracts vector components after selecting feature points that are easily identifiable in an image, such as corners or vertices. It is an algorithm for the gradient direction and size of pixels (pixels) belonging to blocks around the feature points. After the histogram is obtained, a vector in which the histogram values are connected in a row is used for face comparison. SIFT has the advantage of maintaining accuracy even when the size of the comparison image is changed or deformation due to rotation, but has a disadvantage in that it is difficult to recognize a face in real time because a large amount of data is generated and there are many processes of repetitive calculation. The face detection method using the Haar-like feature uses the Haar-like feature using the difference in brightness between the area in the image and the area. After defining various types of elementary features consisting of squares in the bright and dark areas of the image, This is a method of finding meaningful feature points through the difference between pixel values included in each area. Here, the selection of meaningful features is done through automatic learning algorithms such as Boosting. The method using the Haar-like feature has the advantage of maintaining accuracy even with respect to changes in shape and position within a region, but has a disadvantage in that accuracy is deteriorated according to changes or rotation of the light source.

얼굴인식을 하기 위한 영상으로 주로 색상영상을 이용하고 있다. 색상영상 기반 얼굴인식 방법은 기존 영상을 그대로 사용할 수 있다는 장점이 있다. 하지만 색상영상 기반의 얼굴인식 방법은 조명의 변화 또는 표정의 변화에 취약하다는 단점이 있다. 또한 색상영상 기반 방법은 실제의 얼굴과 인쇄된 색상 사진을 구분하는데 있어 취약하여 보안 분야에 단독으로 사용되지 못한다는 결함이 있다. 이러한 색상영상 기반 방법의 단점을 극복하고자 적외선 영상이나 깊이 영상을 사용하는 방법이 연구되고 있다. 적외선 영상은 색상 영상에 비해 조명의 변화에도 화소의 변화가 적다는 장점이 있지만, 색상영상에 비해 명암대비가 낮다는 단점이 존재한다. 또한 적외선 영상은 색상영상과 같이 인쇄된 색상 사진에 대해 얼굴인식이 되어버리는 문제가 있다. 깊이 영상은 적외선 영상과 비슷하게 조명의 영향을 적게 받고, 색상영상이나 적외선 영상에서 얻을 수 없었던 거리 정보를 얻을 수 있다는 장점이 있다. 하지만 깊이 영상은 영상 내 잡음이 색상 영상이나 적외선 영상에 비해 많이 포함되어있다는 단점이 존재한다. Color images are mainly used as images for face recognition. The color image-based face recognition method has the advantage of being able to use the existing image as it is. However, the color image-based face recognition method has the disadvantage of being vulnerable to changes in lighting or changes in facial expressions. In addition, the color image-based method has a flaw in that it cannot be used alone in the security field because it is weak in distinguishing a real face from a printed color picture. In order to overcome the shortcomings of such a color image-based method, a method of using an infrared image or a depth image is being studied. Compared to color images, infrared images have the advantage that pixels change less even when lighting changes, but there is a disadvantage in that contrast contrast is low compared to color images. In addition, there is a problem that infrared images become face recognition for printed color photos like color images. The depth image is less affected by lighting, similar to the infrared image, and has the advantage of obtaining distance information that cannot be obtained from a color image or an infrared image. However, the depth image has a disadvantage in that the noise in the image is included more than the color image or the infrared image.

대한민국등록특허공보 제10-1074953호Korean Registered Patent Publication No. 10-1074953

본 발명의 일 목적은 전술한 문제점을 해결하기 위하여 적외선 영상과 깊이 영상의 특성을 모두 고려한 신원 인식 방법을 제공할 수 있다.It is an object of the present invention to provide an identity recognition method in consideration of both characteristics of an infrared image and a depth image in order to solve the above-described problem.

본 발명의 일 목적은 깊이 영상과 적외선 영상을 같이 이용하여 얼굴을 인식함으로써 두 영상의 장점을 극대화하고, 단점을 최소화함으로써 정확한 신원 인식이 가능한 방법 및 장치를 제공할 수 있다.It is an object of the present invention to provide a method and apparatus capable of accurately recognizing an identity by maximizing the advantages of both images and minimizing the disadvantages by recognizing faces using both a depth image and an infrared image.

본 발명의 일 목적은 색상 사진등과 같은 기존 신원 인식에서 거짓인식을 하게 되는 위험을 줄일 수 있는 방법 및 장치를 제공하는데 있다.An object of the present invention is to provide a method and apparatus capable of reducing the risk of false recognition in existing identity recognition such as color photographs.

본 발명의 일 목적은 색상 영상이 조명의 영향을 많이 받는 문제를 해결하기 위하여 적외선 영상을 이용하여 신원을 인식하는 방법 및 장치를 제공하는데 있다.An object of the present invention is to provide a method and apparatus for recognizing an identity using an infrared image in order to solve a problem in which a color image is heavily influenced by lighting.

본 발명의 일 목적은 적외선 영상은 색상 사진 등의 잘못된 영상에 대해서도 거짓 인식을 할 수 있는 한계를 보완하기 위하여 색상 사진 등의 잘못된 영상에 대해서 인식을 하지 않는 깊이 영상을 활용함으로써 신원 인식의 정확도를 향상시킬 수 있는 방법 및 장치를 제공하는데 있다.An object of the present invention is to improve the accuracy of identity recognition by utilizing a depth image that does not recognize false images such as color photos in order to compensate for the limitation of false recognition even for false images such as color photos. It is to provide a method and apparatus that can be improved.

실시예는, 깊이 영상 내의 얼굴 영역을 검출하여 제1 깊이 영상을 생성하는 단계; 상기 얼굴 영역에 대응하는 제1 적외선 영상을 생성하는 단계; 상기 제1 깊이 영상의 제1 대상 화소와 제1 인접 화소 간의 깊이 값의 비교 결과에 기초하여 상기 제1 깊이 영상을 부호화하는 단계; 상기 제1 적외선 영상에서 제2 대상 화소와 제2 인접 화소 간의 계조값의 비교 결과에 기초하여 상기 제1 적외선 영상을 부호화하는 단계; 부호화된 제1 깊이 영상의 제1 히스토그램 및 부호화된 제1 적외선 영상의 제2 히스토그램을 생성하는 단계; 복수의 인물들 각각의 제2 적외선 영상의 히스토그램과 상기 제2 히스토그램을 비교하여 상기 복수의 인물들 중 적어도 하나를 선정하는 단계; 및 상기 선정된 적어도 하나의 인물의 제2 깊이 영상의 히스토그램과 상기 제1 히스토그램을 비교하여 상기 인물의 신원을 인식하는 단계;를 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.An embodiment includes the steps of generating a first depth image by detecting a face area in the depth image; Generating a first infrared image corresponding to the face area; Encoding the first depth image based on a comparison result of a depth value between a first target pixel of the first depth image and a first adjacent pixel; Encoding the first infrared image based on a result of comparing gray scale values between a second target pixel and a second adjacent pixel in the first infrared image; Generating a first histogram of the encoded first depth image and a second histogram of the encoded first infrared image; Comparing a histogram of a second infrared image of each of the plurality of people with the second histogram to select at least one of the plurality of people; And comparing the histogram of the second depth image of the selected at least one person with the first histogram to recognize the identity of the person; including a depth image in which a face is photographed and an infrared image. Can provide.

다른 측면에서, 상기 제1 깊이 영상을 부호화하는 단계는, 상기 제1 대상 화소의 깊이 값과 상기 제1 인접 화소 간의 깊이 값의 크기를 비교하여 상기 제1 인접 화소에 0 또는 1을 할당하는 단계; 상기 제1 인접 화소에 할당된 값을 하나의 제1 이진수로 나타낸 레벨 1 할당 정보를 생성하는 단계, 상기 레벨 1 할당 정보에 기초하여 상기 제1 이진수를 제1 십진수값으로 변환하는 단계; 및 상기 제1 대상 화소의 깊이 값을 상기 제1 십진수값으로 부호화하여 제1 레벨 부호화 영상을 생성하는 단계;를 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.In another aspect, the encoding of the first depth image includes comparing a depth value of the first target pixel with a depth value between the first adjacent pixels and assigning 0 or 1 to the first adjacent pixel. ; Generating level 1 allocation information representing a value allocated to the first adjacent pixel as a first binary number, converting the first binary number to a first decimal value based on the level 1 allocation information; And generating a first-level coded image by encoding the depth value of the first target pixel as the first decimal value; and an identity recognition method using a depth image and an infrared image in which a face is photographed. .

또 다른 측면에서, 상기 제1 깊이 영상을 부호화하는 단계는, 상기 제1 대상 화소의 깊이 값과 상기 제1 인접 화소 간의 깊이 값의 크기의 차이 정보에 기초하여 상기 제1 인접 화소에 할당된 값을 하나의 제2 이진수로 나타낸 레벨 2 내지 4 할당 정보를 생성하는 단계; 상기 레벨 2 내지 4 할당 정보 각각에 기초하여 상기 제2 이진수를 제2 십진수값으로 변환하는 단계; 및 상기 제1 대상 화소의 깊이 값을 상기 제2 십진수값으로 부호화하여 제2 내지 제4 레벨 부호화 영상을 생성하는 단계;를 더 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.In yet another aspect, the encoding of the first depth image includes a value allocated to the first adjacent pixel based on information on a difference between a depth value of the first target pixel and a depth value between the first adjacent pixels. Generating level 2 to 4 allocation information represented by one second binary number; Converting the second binary number to a second decimal value based on each of the level 2 to 4 allocation information; And generating a second to fourth level coded image by encoding a depth value of the first target pixel as the second decimal value; and an identity recognition method using a depth image and an infrared image in which a face is photographed. Can provide.

또 다른 측면에서, 상기 제1 적외선 영상을 부호화하는 단계는, 상기 제2 대상 화소의 계조 값과 상기 제2 인접 화소 간의 계조 값의 크기를 비교하여 상기 제2 인접 화소에 0 또는 1을 할당하는 단계; 상기 제2 인접 화소에 할당된 값을 하나의 제1 이진수로 나타낸 레벨 1 할당 정보를 생성하는 단계; 상기 레벨 1 할당 정보에 기초하여 상기 제1 이진수를 제1 십진수값으로 변환하는 단계; 및 상기 제2 대상 화소의 계조 값을 상기 제1 십진수값으로 부호화하여 제1 레벨 부호화 영상을 생성하는 단계;를 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.In another aspect, the encoding of the first infrared image includes comparing a gray scale value of the second target pixel with a gray scale value between the second adjacent pixels and assigning 0 or 1 to the second adjacent pixel. step; Generating level 1 allocation information representing a value allocated to the second adjacent pixel in one first binary number; Converting the first binary number to a first decimal value based on the level 1 allocation information; And generating a first level coded image by encoding the grayscale value of the second target pixel as the first decimal value; and an identity recognition method using a depth image and an infrared image in which a face is photographed. .

또 다른 측면에서, 상기 제1 적외선 영상을 부호화하는 단계는, 상기 제2 대상 화소의 계조 값과 상기 제2 인접 화소 간의 계조 값의 크기의 차이 정보에 기초하여 상기 제2 인접 화소에 할당된 값을 하나의 제2 이진수로 나타낸 레벨 2 내지 4 할당 정보를 생성하는 단계; 상기 레벨 2 내지 4 할당 정보 각각에 기초하여 상기 제2 이진수를 제2 십진수값으로 변환하는 단계; 및 상기 제2 대상 화소의 계조 값을 상기 제2 십진수값으로 부호화하여 제2 내지 제4 레벨 부호화 영상을 생성하는 단계;를 더 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.In another aspect, the encoding of the first infrared image includes a value allocated to the second adjacent pixel based on information on a difference between a gray scale value of the second target pixel and a gray scale value between the second adjacent pixels Generating level 2 to 4 allocation information represented by one second binary number; Converting the second binary number to a second decimal value based on each of the level 2 to 4 allocation information; And generating a second to fourth level coded image by encoding the grayscale value of the second target pixel as the second decimal value; and an identity recognition method using a depth image and an infrared image in which a face is photographed. Can provide.

또 다른 측면에서, 상기 제1 내지 제4 레벨 부호화 영상 중 어느 하나의 부호화 영상의 히스토그램과 미리 저장된 복수의 인물들의 깊이 영상에 대한 히스토그램의 유사도를 측정하는 단계; 및 상기 유사도에 기초하여 상기 복수의 인물들 중 적어도 하나의 인물을 선정하는 단계;를 더 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.In yet another aspect, measuring a similarity between a histogram of an encoded image of any one of the first to fourth level encoded images and a histogram of a depth image of a plurality of people stored in advance; And selecting at least one person from among the plurality of people based on the similarity. The method may further include a depth image in which a face is photographed and an infrared image to recognize an identity.

또 다른 측면에서, 상기 제1 내지 제4 레벨 부호화 영상 중 어느 하나의 부호화 영상의 히스토그램과 미리 저장된 복수의 인물들의 적외선 영상에 대한 히스토그램의 유사도를 측정하는 단계; 및 상기 유사도에 기초하여 상기 복수의 인물들 중 적어도 하나의 인물을 선정하는 단계;를 더 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.In yet another aspect, measuring a similarity between a histogram of an encoded image of any one of the first to fourth level encoded images and a histogram of an infrared image of a plurality of people stored in advance; And selecting at least one person from among the plurality of people based on the similarity. The method may further include a depth image in which a face is photographed and an infrared image to recognize an identity.

또 다른 측면에서, 상기 레벨 2 내지 4 할당 정보를 생성하는 단계는, 상기 제1 대상 화소의 깊이 값과 상기 제1 인접 화소 간의 깊이 값의 크기의 차이의 절대값 계산하는 단계; 상기 차이의 절대값을 충족하는 이진 변수들을 생성하는 단계; 상기 이진 변수들의 집합으로부터 상기 레벨 2 내지 4 할당 정보를 생성하는 단계;를 포함하는 깊이 영상과 적외선 영상을 통한 신원 인식 방법을 제공할 수 있다.In another aspect, the generating of the level 2 to 4 allocation information includes: calculating an absolute value of a difference between a depth value of the first target pixel and a depth value between the first adjacent pixels; Generating binary variables that satisfy the absolute value of the difference; It is possible to provide a method for recognizing an identity through a depth image and an infrared image including generating the level 2 to 4 allocation information from the set of binary variables.

또 다른 측면에서, 명령들을 저장하는 적어도 하나의 메모리; 및 적어도 하나의 프로세서;를 포함하고, 상기 명령들은 상기 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고, 상기 동작들은: 깊이 영상 내의 얼굴 영역을 검출하여 제1 깊이 영상을 생성하고, 상기 얼굴 영역에 대응하는 제1 적외선 영상을 생성하고, 상기 제1 깊이 영상의 제1 대상 화소와 제1 인접 화소 간의 깊이 값의 비교 결과에 기초하여 상기 제1 깊이 영상을 부호화하고, 상기 제1 적외선 영상에서 제2 대상 화소와 제2 인접 화소 간의 계조값의 비교 결과에 기초하여 상기 제1 적외선 영상을 부호화하고, 부호화된 제1 깊이 영상의 제1 히스토그램 및 부호화된 제1 적외선 영상의 제2 히스토그램을 생성하고, 복수의 인물들 각각의 제2 적외선 영상의 히스토그램과 상기 제2 히스토그램을 비교하여 상기 복수의 인물들 중 적어도 하나를 선정하며, 상기 선정된 적어도 하나의 인물의 제2 깊이 영상의 히스토그램과 상기 제1 히스토그램을 비교하여 상기 인물의 신원을 인식하는 것을 포함하는 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 장치를 제공할 수도 있다.In another aspect, at least one memory for storing instructions; And at least one processor; wherein the instructions are executable by the processor to cause the processor to perform operations, and the operations include: detecting a face region in a depth image to generate a first depth image, and , Generating a first infrared image corresponding to the face region, encoding the first depth image based on a comparison result of a depth value between a first target pixel of the first depth image and a first adjacent pixel, and In the first infrared image, the first infrared image is encoded based on the result of comparing the gray scale values between the second target pixel and the second adjacent pixel, and the first histogram of the encoded first depth image and the first histogram of the encoded first infrared image are 2 A histogram is generated, and at least one of the plurality of people is selected by comparing the histogram of the second infrared image of each of the plurality of people with the second histogram, and a second depth image of the selected at least one person It is also possible to provide an apparatus for identifying an identity through an infrared image and a depth image in which the face is photographed, including recognizing the identity of the person by comparing the histogram of and the first histogram.

실시예는 화소들 간의 크기 비교뿐만 아니라 차이의 크기를 고려하여 영상을 부호화하고 기존의 영상과 비교함으로써 얼굴 인식의 정확도를 향상시킬 수 있다.According to the exemplary embodiment, the accuracy of face recognition may be improved by encoding an image in consideration of the size of the difference as well as comparing the size between pixels and comparing it with an existing image.

또한, 실시예는 깊이 영상 및 적외선 영상에서 인물의 특징을 제일 잘 나타낼 수 있는 레벨의 부호화 영상을 이용함으로써 얼굴 인식의 정확도를 높이고 연산의 복잡도를 낮출 수 있다.In addition, according to the embodiment, the accuracy of face recognition may be increased and the complexity of operation may be reduced by using an encoded image having a level that best represents the characteristics of a person in the depth image and the infrared image.

또한, 실시예는 조명변화에 민감성을 낮추고 사진에 대한 오인식을 방지할 수 있는 얼굴 신익 방법을 제공할 수 있다.In addition, the embodiment may provide a method for face improvement that can reduce sensitivity to changes in lighting and prevent misrecognition of photos.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood from the following description.

도 1은 본 발명의 실시예에 따른 신원 인식 장치를 도시하는 블록도이다.
도 2는 본 발명의 실시예에 따른 신원 인식 방법에 대한 예시적인 흐름도이다.
도 3은 얼굴 영역 검출 방법에 대한 흐름도이다.
도 4는 깊이 영상에서 얼굴 영역을 검출하는 예시도이다.
도 5는 제1 깊이 영상 부호화에 대한 흐름도이다.
도 6은 제1 적외선 영상 부호화에 대한 흐름도이다.
도 7은 R의 변화에 따른 서로 다른 레벨의 영상을 나타낸 것이다.
1 is a block diagram illustrating an identity recognition apparatus according to an embodiment of the present invention.
2 is an exemplary flowchart of an identity recognition method according to an embodiment of the present invention.
3 is a flowchart of a method for detecting a face area.
4 is an exemplary diagram for detecting a face area in a depth image.
5 is a flowchart for encoding a first depth image.
6 is a flowchart for encoding a first infrared image.
7 shows images of different levels according to the change of R.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them will be apparent with reference to the embodiments described later in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are not used in a limiting meaning, but are used for the purpose of distinguishing one component from another component. In addition, expressions in the singular include plural expressions unless the context clearly indicates otherwise. In addition, terms such as include or have means that the features or elements described in the specification are present, and do not preclude the possibility of adding one or more other features or elements in advance. In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, and the present invention is not necessarily limited to what is shown.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when describing with reference to the drawings, the same or corresponding components are assigned the same reference numerals, and redundant descriptions thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 신원 인식 장치를 도시하는 블록도이다.1 is a block diagram illustrating an identity recognition apparatus according to an embodiment of the present invention.

신원 인식 장치(100)는 영상 데이터를 영상 검출 장치(200)로부터 수신할 수 있다.The identity recognition apparatus 100 may receive image data from the image detection apparatus 200.

영상 검출 장치(200)는 깊이 영상(depth image)을 생성하는 깊이 영상 촬영 디바이스가 될 수 있다. 또한, 영상 검출 장치(200)는 적외선 영상을 생성하는 적외선 촬영 디바이스가 될 수 있다. 또한, 영상 검출 장치(200)는 깊이 영상과 적외선 영상을 생성할 수 있는 촬영 디바이스가 될 수 있다.The image detection apparatus 200 may be a depth image capturing device that generates a depth image. In addition, the image detection apparatus 200 may be an infrared photographing device that generates an infrared image. Further, the image detection apparatus 200 may be a photographing device capable of generating a depth image and an infrared image.

일부 구현예에서는, 신원 인식 장치(100)와 영상 검출 장치(200)는 무선 통신을 위한 구성(10)이 갖추어질 수 있다.In some implementations, the identity recognition apparatus 100 and the image detection apparatus 200 may be equipped with a configuration 10 for wireless communication.

일부 구현예에서는, 영상 검출 장치(200)는 검출된 영상 데이터를 영상 처리하여 신원 인식 장치(100)로 전송할 수도 있다.In some implementations, the image detection apparatus 200 may process the detected image data and transmit it to the identity recognition apparatus 100.

일부 구현예에서는, 신원 인식 장치(100)는 컴퓨터 판독 가능 매체로부터 영상 처리된 영상 데이터를 수신할 수도 있다.In some implementations, the identity recognition apparatus 100 may receive image-processed image data from a computer-readable medium.

컴퓨터 판독 가능 매체는 영상 검출 장치(200)로부터 영상처리된 영상 데이터를 신원 인식 장치(100)로 이동시킬 수 있는 임의 유형의 매체 또는 디바이스를 포함할 수 있다. 일 예로, 컴퓨터 판독 가능 매체는 영상 검출 장치(200)가 영상 데이터를 신원 인식 장치(100)로 직접 실시간으로 송신하는 것을 가능하게 하는 통신 매체, 이를테면 송신 채널을 포함할 수 있다.The computer-readable medium may include any type of medium or device capable of moving image data processed from the image detection apparatus 200 to the identity recognition apparatus 100. For example, the computer-readable medium may include a communication medium, such as a transmission channel, which enables the image detection device 200 to directly transmit image data to the identity recognition device 100 in real time.

영상 처리된 영상 데이터는 통신 표준, 이를테면 무선 통신 프로토콜에 따라 변조되고 신원 인식 장치(100)로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 이를테면 라디오 주파수 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 신원 인식 장치(100)와 영상 검출 장치(200) 간의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다. 몇몇 예들에서 영상 처리된 영상 데이터가 영상 검출 장치(200)의 출력 인터페이스 로부터 컴퓨터 판독 가능 저장 매체, 이를 테면 비일시적(non-transitory) 컴퓨터 판독가능 저장 매체, 즉, 데이터 저장 디바이스로 출력될 수도 있다. 마찬가지로 영상 데이터는 신원 인식 장치(100)의 입력 인터페이스에 의해 저장 디바이스로부터 엑세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 영상 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산형 또는 국부적으로 액세스되는 비일시적 데이터 저장 매체들 중 임의의 것을 포함할 수도 있다. 추가의 예에서, 저장 디바이스는 영상 검출 장치(200)에 의해 생성된 영상 데이터를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 해당할 수도 있다.The image-processed image data may be modulated according to a communication standard, such as a wireless communication protocol, and transmitted to the identity recognition apparatus 100. The communication medium may comprise any wireless or wired communication medium, such as a radio frequency spectrum or one or more physical transmission lines. The communication medium may form part of a packet-based network, such as a local area network, a wide area network, or a global network such as the Internet. The communication medium may include routers, switches, base stations, or any other equipment that may be useful to facilitate communication between the identity recognition device 100 and the image detection device 200. In some examples, the image-processed image data may be output from the output interface of the image detection apparatus 200 to a computer-readable storage medium, such as a non-transitory computer-readable storage medium, that is, a data storage device. . Likewise, image data may be accessed from the storage device through an input interface of the identity recognition apparatus 100. The storage device may be a variety of distributed or distributed storage media such as hard drives, Blu-ray disks, DVDs, CD-ROMs, flash memory, volatile or nonvolatile memory, or any other suitable digital storage media for storing image data. It may include any of the non-transitory data storage media that are accessed locally. In a further example, the storage device may correspond to a file server or other intermediate storage device that may store image data generated by the image detection apparatus 200.

신원 인식 장치(100)는 저장 디바이스로부터의 저장된 영상 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다.The identity recognition apparatus 100 may access stored image data from a storage device through streaming or download.

일부 구현예에서, 신원 인식 장치(100)는 영상 소스(110) 및 영상처리부(120)를 포함할 수 있다. 신원 인식 장치(100)는 영상 검출 장치(200)에 의해 촬영된 영상을 수신하고 영상 소스(110)에 저장할 수 있다. 그리고, 영상처리부(120)는 영상 소스(110)에 저장된 촬영 영상을 분석할 수 있다.In some implementations, the identity recognition apparatus 100 may include an image source 110 and an image processing unit 120. The identity recognition apparatus 100 may receive an image captured by the image detection apparatus 200 and store it in the image source 110. In addition, the image processing unit 120 may analyze the captured image stored in the image source 110.

다른 예에서, 신원 인식 장치(100)와 영상 검출 장치(200)는 다른 컴포넌트들을 포함할 수 있다.In another example, the identity recognition apparatus 100 and the image detection apparatus 200 may include different components.

신원 인식 장치(100)의 영상 소스(110)는 영상 검출 장치(200), 이를테면 카메라, 이전에 촬영된 깊이 영상을 포함하는 아카이브 (archive), 및/또는 깊이 영상과 적외선 영상 콘텐츠 제공자로부터의 깊이 및 적외선 영상을 수신하는 인터페이스를 포함할 수도 있다.The image source 110 of the identity recognition device 100 includes an image detection device 200, such as a camera, an archive containing previously captured depth images, and/or depth images and depth from an infrared image content provider. And an interface for receiving an infrared image.

일부 구현예에서 영상 검출 장치(200)는 장면의 깊이 정보를 픽셀당 16비트의 정수형 자료형으로 표현한 깊이 영상을 제공할 수 있다. 깊이 영상의 한 픽셀을 표현하기 위한 비트수는 변경될 수 있다. 영상 검출 장치(200)는 적외선을 이용하여 영상 검출 장치(200)로부터 객체 및 배경까지의 거리를 측정하여 거리에 비례 또는 반비례하는 값을 갖는 깊이 영상을 제공할 수 있다.In some implementations, the image detection apparatus 200 may provide a depth image in which depth information of a scene is expressed in an integer data type of 16 bits per pixel. The number of bits for representing one pixel of the depth image may be changed. The image detection apparatus 200 may provide a depth image having a value proportional or inversely proportional to the distance by measuring a distance from the image detection apparatus 200 to an object and a background using infrared rays.

깊이 영상의 화소 값은 예를 들어, RGB의 색상 정보가 아닌 일 예로 mm 단위(이에 한정하는 것은 아님)의 정수로 된 깊이 정보가 될 수 있다.The pixel value of the depth image may be, for example, not color information of RGB, but depth information of an integer of mm unit (but not limited thereto).

신원 인식 장치(100) 및 영상 검출 장치(200) 각각은 하나 이상의 메모리와 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 개별 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합과 같은 다양한 형태로 구성될 수 있다.Each of the identity recognition apparatus 100 and the image detection apparatus 200 includes at least one memory and at least one microprocessor, digital signal processors (DSPs), custom integrated circuits (ASICs), field programmable gate arrays ( FPGAs), individual logic circuits, software, hardware, firmware, or any combination thereof.

메모리는 컴퓨터 판독가능 명령들 또는 프로세서 판독가능 명령들과 같은 명령들(예를 들어, 실행가능 명령들)을 포함한다. 명령들은 하나 이상의 프로세서들 각각에 의해서와 같이 컴퓨터에 의해 실행가능한 하나 이상의 명령어들을 포함할 수도 있다.The memory contains instructions (eg, executable instructions) such as computer readable instructions or processor readable instructions. Instructions may include one or more instructions executable by a computer, such as by each of one or more processors.

예를 들어 하나 이상의 명령들은 하나 이상의 프로세서들로 하여금 신원을 인식하기 위해 영상을 프로세싱하는 것을 포함하는 동작들을 수행하기 위한 하나 이상의 프로세서들에 의해 실행가능 할 수도 있다.For example, the one or more instructions may be executable by one or more processors for performing operations including processing an image to allow the one or more processors to recognize an identity.

상세하게는, 영상처리부(120)는 명령어들을 저장하는 하나 이상의 메모리(121)와 상기 명령어들을 실행하는 적어도 하나의 프로세서(122)를 포함할 수 있다.In detail, the image processing unit 120 may include one or more memories 121 for storing instructions and at least one processor 122 for executing the instructions.

영상처리부(120)의 프로세서(122)는 깊이 및 적외선 영상으로부터 신원을 인식하기 위한 기법들이 적용되도록 구성될 수 있다.The processor 122 of the image processing unit 120 may be configured to apply techniques for recognizing an identity from a depth and infrared image.

일부 구현예에서, 신원 인식 장치(100)는 영상처리부(120)로부터의 영상 데이터를 외부 장치로 전송, 디스플레이, 분석 등을 수행할 수 있도록 구성될 수 있다.In some implementations, the identity recognition apparatus 100 may be configured to transmit, display, analyze, or the like image data from the image processing unit 120 to an external device.

도 1에 도시되지 않았지만, 몇몇 실시예에서, 신원 인식 장치(100)와 영상 검출 장치(200)는 통합된 장치가 될 수 있다.Although not shown in FIG. 1, in some embodiments, the identity recognition apparatus 100 and the image detection apparatus 200 may be integrated devices.

도 2는 본 발명의 실시예에 따른 신원 인식 방법에 대한 예시적인 흐름도이다.2 is an exemplary flowchart of an identity recognition method according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법(S100)은 깊이 영상 내의 객체 영역을 검출하는 단계(S110), 객체 영역 내의 얼굴 영역을 검출하여 제1 깊이 영상을 생성하는 단계(S120), 얼굴 영역에 대응하는 제1 적외선 영상을 생성하는 단계(S130), 제1 깊이 영상의 제1 대상 화소와 제1 인접 화소 간의 깊이 값의 비교 결과에 기초하여 제1 깊이 영상을 부호화하는 단계(S140), 제1 적외선 영상에서 제2 대상 화소와 제2 인접 화소 간의 계조값의 비교 결과에 기초하여 제1 적외선 영상을 부호화하는 단계(S150), 부호화된 제1 깊이 영상의 제1 히스토그램 및 부호화된 제1 적외선 영상의 제2 히스토그램을 생성하는 단계(S160), 복수의 인물들 각각의 제2 적외선 영상의 히스토그램과 제2 히스토그램을 비교하여 복수의 인물들 중 적어도 하나를 선정하는 단계(S170) 및 선정된 적어도 하나의 인물의 제2 깊이 영상의 히스토그램과 제1 히스토그램을 비교하여 인물의 신원을 인식하는 단계(S180)를 포함할 수 있다.Referring to FIG. 2, the method (S100) for identifying an object through a depth image and an infrared image in which a face is photographed according to an embodiment of the present invention includes detecting an object area in the depth image (S110), Detecting and generating a first depth image (S120), generating a first infrared image corresponding to a face area (S130), comparing a depth value between a first target pixel of a first depth image and a first adjacent pixel Encoding a first depth image based on the result (S140), encoding a first infrared image based on a result of comparing gray scale values between a second target pixel and a second adjacent pixel in the first infrared image (S150) , Generating a first histogram of the encoded first depth image and a second histogram of the encoded first infrared image (S160), comparing the histogram of the second infrared image and the second histogram of each of the plurality of people Selecting at least one of the selected at least one person (S170) and comparing the histogram of the second depth image of the selected at least one person with the first histogram to recognize the identity of the person (S180).

깊이 영상 내의 객체 영역을 검출하는 단계(S110). Detecting an object area in the depth image (S110) .

프로세서(122)는 촬영된 깊이 영상 및/또는 적외선 영상 내의 객체 영역을 검출할 수 있다. 예시적으로, 프로세서(122)는 깊이 영상의 화소의 위치 및 깊이 값 및/또는 적외선 영상의 화소의 위치 및 계조 값에 기초하여 객체 영역을 검출할 수 있다. 일부 구현예에서, 객체가 존재하지 않는 상태의 배경 영상이 존재하는 경우, 프로세서(122)는 촬영된 깊이 영상 및/또는 적외선 영상과 미리 저장된 배경 깊이 영상 및/또는 적외선 영상 사이의 차영상을 생성하고, 차영상으로부터 이진화 영상을 생성한 후, 이진화 영상을 레이블링하여 레이블링 영상을 생성할 수 있다. 그리고, 프로세서(122)는 레이블링 영상을 블록화하여 배경, 배경과 객체의 경계 그리고 객체 내부 영역으로 구분할 수 있다. 다만, 이에 제한되는 것은 아니고, 객체를 검출할 수 있는 다양한 기법이 적용될 수 있다.The processor 122 may detect an object area in the captured depth image and/or the infrared image. For example, the processor 122 may detect the object area based on the location and depth value of the pixel of the depth image and/or the location and gray scale value of the pixel of the infrared image. In some implementations, when there is a background image in a state in which the object does not exist, the processor 122 generates a difference image between the captured depth image and/or infrared image and a pre-stored background depth image and/or infrared image. Then, after generating a binarized image from the difference image, the binarized image may be labeled to generate a labeling image. Further, the processor 122 may block the labeling image and divide it into a background, a boundary between a background and an object, and an area inside the object. However, the present invention is not limited thereto, and various techniques for detecting an object may be applied.

객체 영역 내의 얼굴 영역을 검출하여 제1 깊이 영상을 생성하는 단계(S120). Generating a first depth image by detecting a face area within the object area (S120) .

도 3은 얼굴 영역 검출 방법에 대한 흐름도이고, 도 4는 깊이 영상에서 얼굴 영역을 검출하는 예시도이다.3 is a flowchart of a method for detecting a face area, and FIG. 4 is an exemplary diagram for detecting a face area from a depth image.

도 3 및 도 4를 더 참조하면, 프로세서(122)는 촬영된 깊이 영상 내에서 얼굴 영역을 검출할 수 있다. 일부 구현예에서, 프로세서(122)는 검출된 객체 영역 내에서 얼굴 영역을 검출할 수도 있다.With further reference to FIGS. 3 and 4, the processor 122 may detect a face area within the captured depth image. In some implementations, the processor 122 may detect the face area within the detected object area.

일부 구현예에서, 프로세서(122)는 얼굴에서 가장 특징점이 될 수 있는 코끝을 기준으로 사람의 얼굴 영역을 검출할 수 있다. 이는 사람의 얼굴에서 코끝이 가장 돌출된 부위이므로 현재 깊이 영상에서 깊이 값이 가장 작은 화소, 즉 영상 검출 장치(200)와 제일 가까이 있는 부분을 탐색할 수 있다. 상세하게, 프로세서(122)는 현재 깊이 영상에서 깊이 값이 가장 작은 화소의 위치인 최소 깊이 값 화소 위치를 검출할 수 있다(S121). 일부 실시예에서, 프로세서(122)는 객체 내부 영역에 대응하는 블록에 대응하는 현재 깊이 영상의 영역 내의 화소들 중 최소 깊이 값 화소 위치를 검출할 수도 있다. 그리고, 프로세서(122)는 최소 깊이 값 화소 위치를 중심으로 미리 설정된 w*(WxH) 크기의 영역인 얼굴 영역을 설정할 수 있다(S122). 여기서의, W, H는 각각 56의 고정된 크기가 될 수 있으나 이에 한정하는 것은 아니다. 또한, w는 깊이 값에 따라 영역이 커지고 작아지는 가중치로써 수학식 1을 통해 계산될 수 있다. In some implementations, the processor 122 may detect a face area of a person based on the tip of the nose, which may be the most feature point on the face. Since this is a portion where the tip of the nose protrudes most from the human face, a pixel having the smallest depth value in the current depth image, that is, a portion closest to the image detection apparatus 200 can be searched. In detail, the processor 122 may detect the minimum depth value pixel location, which is the location of the pixel having the smallest depth value in the current depth image (S121). In some embodiments, the processor 122 may detect a minimum depth value pixel position among pixels within an area of a current depth image corresponding to a block corresponding to an inner area of an object. In addition, the processor 122 may set a face area, which is an area having a size of w*(WxH), which is set in advance based on the pixel position of the minimum depth value (S122). Here, W and H may each have a fixed size of 56, but are not limited thereto. In addition, w is a weight for increasing and decreasing the area according to the depth value, and can be calculated through Equation 1.

[수학식 1][Equation 1]

Figure 112018098227528-pat00001
Figure 112018098227528-pat00001

수학식 1에서 dnose는 최소 깊이 값 화소의 깊이 값이며, α 및 β는 영상 검출 장치(200)에 따른 상수로 실험적으로 결정될 수 있다. 예시적으로 α 및 β는 2.83, 456이 될 수 있으나 이에 제한되는 것은 아니다.In Equation 1, dnose is a minimum depth value, and a depth value of a pixel, and α and β may be experimentally determined as constants according to the image detection apparatus 200. Exemplarily, α and β may be 2.83 and 456, but are not limited thereto.

아울러, 프로세서(122)는 전술한 얼굴 영역을 정규화하여 얼굴의 크기 정보를 유지시킬 수 있다.In addition, the processor 122 may normalize the above-described face area to maintain face size information.

일부 실시예에서, 프로세서(122)는 최소 깊이 값 화소 위치를 검출하고, 최소 깊이 값 화소 위치를 중심으로 인접 영역의 복수의 화소 값의 깊이 값을 검출할 수 있다. 그리고, 프로세서(122)는 검출된 깊이 값에 기초하여 최소 깊이 값 화소를 중심으로 인접 화소들의 깊이 값의 제1 분포 정보를 분석할 수 있다. 그리고, 프로세서(122)는 제1 분포 정보를 미리 저장된 얼굴의 영역별 깊이 값 분포 정보들인 제2 분포 정보들과 서로 비교할 수 있다. 그리고, 프로세서(122)는 제2 분포 정보들 중 제1 분포 정보와 기 설정치 이상의 유사도 또는 가장 높은 수치의 유사도를 보이는 제3 분포 정보를 추출할 수 있다. 제3 분포 정보가 코 영역의 분포 정보에 해당하는 경우 프로세서(122)는 최소 깊이 값 화소가 코 끝에 해당한다고 판단할 수 있다. 이와 달리, 제3 분포 정보가 코 영역의 깊이 값 분포 정보 매칭되는지를 판단하여 그렇지 않은 경우 프로세서(122)는 최소 깊이 값 화소 위치로부터 소정의 거리로 특정 방향으로 이격된 영역 내에서의 추가 최소 깊이 값 화소를 재 검출할 수 있다. 여기서의 소정의 거리 및 특정 방향은 제3 분포 정보에 따라 달라질 수 있다. 즉, 제3 분포 정보가 얼굴 영역 중 어느 영역에서의 깊이 값의 분포 정보인지에 따라 상기 소정의 거리 및 특정 방향이 결정될 수 있다. 예시적으로, 신원 식별 대상자가 모자를 착용한 경우, 최소 깊이 값 화소는 모자 끝에 대응하는 화소가 될 수 있다. 그리고, 프로세서(122)는 제1 분포 정보와 가장 유사한 제3 분포 정보로부터 최소 깊이 값 화소가 모자 끝에 대응하는 화소라고 판단할 수 있다. 그리고, 프로세서(122)는 최소 깊이 값 화소를 중심으로 하측 방향으로 소정의 거리로 이격된 영역 내에서 다시 최소 깊이 값 화소를 검출할 수 있다. 여기서의 하측 방향으로 소정의 거리로 이격된 영역 내에는 신원 식별 대상자의 코 영역이 포함될 것이므로 해당 영역 내에서 최소 깊이 값 화소를 다시 검출하면, 코 끝에 대응하는 화소를 검출할 수 있다. 따라서, 신원 식별 대상자가 두부에 모자를 착용하였거나, 기타 악세서리를 착용함으로써 최소 깊이 값의 화소가 코 끝이 되지 않는 상황에서도 코 끝에 대응하는 화소를 검출할 수 있다.In some embodiments, the processor 122 may detect a minimum depth value pixel location and detect depth values of a plurality of pixel values in an adjacent region based on the minimum depth value pixel location. Further, the processor 122 may analyze first distribution information of depth values of adjacent pixels based on the minimum depth value pixel based on the detected depth value. In addition, the processor 122 may compare the first distribution information with second distribution information, which is depth value distribution information for each area of the face previously stored. In addition, the processor 122 may extract the first distribution information from among the second distribution information and the third distribution information showing a degree of similarity equal to or greater than a preset value or the highest degree of similarity. When the third distribution information corresponds to distribution information of the nose region, the processor 122 may determine that the minimum depth value pixel corresponds to the tip of the nose. In contrast, it is determined whether the third distribution information matches the depth value distribution information of the nose region, and if not, the processor 122 performs an additional minimum depth in a region spaced apart from the pixel position by a predetermined distance in a specific direction. The value pixel can be detected again. Here, the predetermined distance and specific direction may vary according to the third distribution information. That is, the predetermined distance and a specific direction may be determined according to the distribution information of the depth value in which area among the face areas as the third distribution information. For example, when the subject of identity identification wears a hat, the minimum depth value pixel may be a pixel corresponding to the tip of the hat. Further, the processor 122 may determine that the minimum depth value pixel is a pixel corresponding to the cap end from the third distribution information most similar to the first distribution information. In addition, the processor 122 may detect the minimum depth value pixel again within an area spaced from the minimum depth value pixel by a predetermined distance in the downward direction. Here, since the nose region of the person to be identified will be included in the region separated by a predetermined distance in the downward direction, a pixel corresponding to the tip of the nose can be detected by re-detecting a pixel with a minimum depth value within the region. Accordingly, even in a situation in which the pixel of the minimum depth value does not become the tip of the nose by wearing a hat on the head or other accessories, the pixel corresponding to the tip of the nose can be detected.

프로세서(122)는 현재 깊이 영상에서 설정된 얼굴 영역에 대응하는 영역을 추출할 수 있다. 그리고, 해당 얼굴 영역과 매칭되는 영역을 현재 적외선 영상으로부터 추출함으로써 얼굴 영역 깊이 영상과 얼굴 영역 적외선 영상을 모두 생성할 수 있다(S123). 또한, 프로세서(122)는 영상 검출 장치(200)로부터 계속해서 수신되는 깊이 영상 및 적외선 영상에서 미리 설정된 얼굴 영역에 대응하는 영역을 추출함으로써 얼굴 영역 깊이 영상과 얼굴 영역 적외선 영상을 생성할 수 있다.The processor 122 may extract an area corresponding to the set face area from the current depth image. In addition, by extracting a region matching the corresponding face region from the current infrared image, both a face region depth image and a face region infrared image may be generated (S123). In addition, the processor 122 may generate a face region depth image and a face region infrared image by extracting a region corresponding to a preset face region from a depth image and an infrared image continuously received from the image detection apparatus 200.

얼굴 영역에 대응하는 제1 적외선 영상을 생성하는 단계(S130). Generating a first infrared image corresponding to the face area (S130) .

프로세서(122)는 전술한 바와 같이 얼굴 영역을 검출하면, 촬영된 적외선 영상에서 얼굴 영역과 대응하는 위치의 영역을 크롭(Crop)함으로써 제1 적외선 영상을 생성할 수 있다.As described above, when detecting the face area, the processor 122 may generate the first infrared image by cropping an area at a location corresponding to the face area from the captured infrared image.

제1 깊이 영상의 제1 대상 화소와 제1 인접 화소 간의 깊이 값의 비교 결과에 기초하여 제1 깊이 영상을 부호화하는 단계(S140). Encoding a first depth image based on a comparison result of a depth value between a first target pixel and a first adjacent pixel of the first depth image (S140) .

제1 적외선 영상에서 제2 대상 화소와 제2 인접 화소 간의 계조값의 비교 결과에 기초하여 제1 적외선 영상을 부호화하는 단계(S150). Encoding a first infrared image based on a result of comparing gray scale values between a second target pixel and a second adjacent pixel in the first infrared image (S150) .

제1 깊이 영상과 제1 적외선 영상 각각을 부호화하는 단계를 구체적으로 설명한다.A step of encoding each of the first depth image and the first infrared image will be described in detail.

영상 내 어느 대상 화소의 위치를 중심으로 반지름이 R인 원 영역을 정의하면 원 영역 내에는 대상 화소와 인접한 샘플링 포인트 P개의 인접 화소가 존재할 수 있다. 여기서의 반지름 R은 픽셀 거리로 정의될 수 있다. 예시적으로, R이 1이면, 대상 화소와 인접한 인접 화소는 8개가 될 수 있고, R이 2이면 대상 화소와 인접한 인접 화소는 16개가 될 수 있다.If a circle region having a radius R around a position of a target pixel in the image is defined, P adjacent pixels of sampling points adjacent to the target pixel may exist in the circle region. Here, the radius R may be defined as a pixel distance. For example, when R is 1, the number of adjacent pixels adjacent to the target pixel may be 8, and when R is 2, the number of adjacent pixels adjacent to the target pixel may be 16.

예시적으로, R=1일 때 프로세서(122)는 8개의 인접 화소 중 어느 하나의 화소에서부터 한 방향으로 나머지 인접 화소를 탐색하면서 대상 화소와 비교할 수 있다. 여기서의 한 방향은 시계 방향 또는 반시계 방향이 될 수 있다.For example, when R=1, the processor 122 may compare with the target pixel while searching for the remaining adjacent pixels in one direction from any one of the eight adjacent pixels. One direction here may be clockwise or counterclockwise.

프로세서(122)는 수학식 2 및 3에 따라 인접 화소를 탐색하면서 대상 화소와 인접 화소를 서로 비교하고 그 비교 결과에 따라 대상 화소를 부호화하는 연산 과정을 수행할 수 있다.The processor 122 may compare the target pixel and the adjacent pixel while searching for adjacent pixels according to Equations 2 and 3, and perform an operation process of encoding the target pixel according to the comparison result.

[수학식 2][Equation 2]

Figure 112018098227528-pat00002
Figure 112018098227528-pat00002

[수학식 3][Equation 3]

Figure 112018098227528-pat00003
Figure 112018098227528-pat00003

수학식 2에서 EC는 대상 화소의 부호화된 값이고, P는 반지름이 R인 원 영역내에 있는 대상 화소와 인접한 인접 화소의 개수이며, pi는 반지름이 R인 원 영역내에 있는 인접 화소들 각각의 깊이 또는 계조 값이며, pc는 대상 화소의 깊이 또는 계조 값이다.In Equation 2, EC is the encoded value of the target pixel, P is the number of adjacent pixels adjacent to the target pixel in the original region with radius R, and pi is the depth of each of the adjacent pixels in the original region with radius R Alternatively, it is a grayscale value, and pc is a depth or grayscale value of the target pixel.

상세하게는, 도 5를 참조하면, 제1 깊이 영상의 부호화에 있어서, 프로세서(122)는 대상 화소의 깊이 값과 비교 대상인 인접 화소의 깊이 값을 서로 비교(S141)할 수 있다. 인접 화소의 깊이 값이 대상 화소의 깊이 값보다 크거나 같은 경우 인접 화소에 1을 할당하고(S142), 인접 화소의 깊이 값이 대상 화소의 깊이 값보다 작은 경우 인접 화소에 0을 할당할 수 있다(S143). 이와 같은 방식으로, 프로세서(122)는 인접 화소에 1 또는 0을 할당한 후, 모든 인접 화소에 할당된 값을 수집하여 하나의 이진값을 생성할 수 있다(S144). 그리고, 프로세서(122)는 하나의 이진값을 십진수값으로 변환하고, 대상 화소의 깊이 값을 십진수값으로 부호화할 수 있다(S145).In detail, referring to FIG. 5, in encoding a first depth image, the processor 122 may compare a depth value of a target pixel with a depth value of an adjacent pixel to be compared (S141). When the depth value of the adjacent pixel is greater than or equal to the depth value of the target pixel, 1 may be allocated to the adjacent pixel (S142), and when the depth value of the adjacent pixel is less than the depth value of the target pixel, 0 may be allocated to the adjacent pixel. (S143). In this way, after allocating 1 or 0 to adjacent pixels, the processor 122 may generate one binary value by collecting values allocated to all adjacent pixels (S144). In addition, the processor 122 may convert one binary value to a decimal value and encode the depth value of the target pixel as a decimal value (S145).

전술한 바와 같이, 프로세서(122)는 제1 깊이 영상 내의 모든 화소의 깊이 값을 부호화함으로써 제1 깊이 영상을 부호화할 수 있다(S147).As described above, the processor 122 may encode the first depth image by encoding depth values of all pixels in the first depth image (S147).

또한, 도 6을 참조하면, 제1 적외선 영상의 부호화에 있어서, 프로세서(122)는 대상 화소의 계조 값과 비교 대상인 인접 화소의 계조 값을 서로 비교(S151)할 수 있다. 인접 화소의 계조 값이 대상 화소의 계조 값보다 크거나 같은 경우 인접 화소에 1을 할당하고(S152), 인접 화소의 계조 값이 대상 화소의 계조 값보다 작은 경우 인접 화소에 0을 할당할 수 있다(S153). 이와 같은 방식으로, 프로세서(122)는 인접 화소에 1 또는 0을 할당한 후, 모든 인접 화소에 할당된 값을 수집하여 하나의 이진값을 생성할 수 있다(S154). 그리고, 프로세서(122)는 하나의 이진값을 십진수값으로 변환하고, 대상 화소의 깊이 값을 십진수값으로 부호화(S155)할 수 있다.Further, referring to FIG. 6, in encoding a first infrared image, the processor 122 may compare a grayscale value of a target pixel with a grayscale value of an adjacent pixel to be compared (S151). When the grayscale value of the adjacent pixel is greater than or equal to the grayscale value of the target pixel, 1 may be allocated to the adjacent pixel (S152), and when the grayscale value of the adjacent pixel is smaller than the grayscale value of the target pixel, 0 may be allocated to the adjacent pixel. (S153). In this way, after allocating 1 or 0 to adjacent pixels, the processor 122 may generate one binary value by collecting values allocated to all adjacent pixels (S154). In addition, the processor 122 may convert one binary value to a decimal value and encode the depth value of the target pixel as a decimal value (S155).

전술한 바와 같이, 프로세서(122)는 제1 적외선 영상 내의 모든 화소의 깊이 값을 부호화함으로써 제1 적외선 영상을 부호화할 수 있다(S157).As described above, the processor 122 may encode the first infrared image by encoding depth values of all pixels in the first infrared image (S157).

한편, P 및 R 값을 다르게 설정하여 영상을 부호화할 수 있으며 이 경우 화소의 위치가 정수(예를 들어, (155,245))가 아닌 소수점(예를 들어, (115.4, 244.8))으로 나타날 수 있다. 이러한 소수점의 위치에 있는 픽셀의 값을 유추하기 위하여 양선형 보간법(Bilinear interpolation) 등의 보간법을 적용할 수도 있다.On the other hand, it is possible to encode an image by setting the P and R values differently, and in this case, the position of the pixel may appear as a decimal point (for example, (115.4, 244.8)) rather than an integer (for example, (155,245)). . In order to infer the value of the pixel at the position of the decimal point, an interpolation method such as a bilinear interpolation method may be applied.

또한, 프로세서(122)는 수학식 2 및 3에 따라 대상 화소들의 깊이 값이나 계조 값을 십진수 값으로 변환하고 후술하는 일부 특성을 제거하여 부호화를 진행할 수 있다. In addition, the processor 122 may perform encoding by converting the depth value or grayscale value of the target pixels into a decimal value according to Equations 2 and 3, and removing some characteristics to be described later.

상세하게, 프로세서(122)는 제1 및 제2 히스토그램을 생성전 부호화된 값에서 분별력이 없거나 미미한 특성을 제거하여 부호화 과정을 진행할 수 있다. 상세하게, P가 8인 경우 부호화된 영상에 대한 256개의 특성을 얻을 수 있고, P가 16인 경우 부호화된 영상에 대한 65536개의 특성을 얻을 수 있다. 하지만, 특성의 개수가 많을수록 계산의 복잡도가 증가하는 점, 특성들 중 일부는 분별력이 없거나 미미한 특성을 가지는 점을 고려하여 부호화된 영상에 대한 특성의 개수를 줄일 수 있다.In detail, the processor 122 may perform an encoding process by removing a characteristic that has no discrimination power or insignificant from a value encoded before generating the first and second histograms. In detail, when P is 8, 256 characteristics of an encoded image can be obtained, and when P is 16, 65536 characteristics of an encoded image can be obtained. However, as the number of features increases, computational complexity increases, and some of the features lack discrimination or have insignificant features, so that the number of features for an encoded image may be reduced.

예시적으로, 하나의 이진수에서 각 수들을 순서대로 탐색할 때, 0에서 1로의 변화 또는 1에서 0으로의 변화가 2번 이내인 패턴은 유니폼(uniform) 패턴이라고 정의하고 각각 하나의 라벨을 부여해주고, 변화가 3번 이상인 패턴은 논 유니폼(non uniform) 패턴이라고 정의할 수 있다. 그리고, 한 그룹으로 묶은 다음에 그룹 전체에 단 한 개의 라벨을 부여한다. 예를 들어, 01110000(2번의 변화), 00000001(1번의 변화), 11111111(0번의 변화)와 같은 패턴은 유니폼 패턴이므로 하나씩 모두 개별성을 인정해주는 반면, 00011101(3번의 변화), 11100101(4번의 변화), 10101000(5번의 변화)와 같은 것들은 모두 모아 하나로 취급할 수 있다. 이를 통해, 영상의 화소들의 부호화 값에서 분별력이 없거나 미미한 특성을 가지는 값을 제거할 수 있다. 아울러, P가 8일 때 256개의 bin(십진수로 0부터 255까지)에서, 59개의 bin(58개의 유니폼 패턴을 위한 bin과 1개의 논 유니폼 패턴을 위한 bin)만을 이용할 수 있게 된다.For example, when searching for each number in order in one binary number, a pattern in which a change from 0 to 1 or a change from 1 to 0 is less than 2 times is defined as a uniform pattern, and one label is assigned to each. And, a pattern with a change of 3 or more times can be defined as a non-uniform pattern. Then, after grouping them into a group, only one label is assigned to the entire group. For example, patterns such as 01110000 (change of 2), 00000001 (change of 1), and 11111111 (change of 0) are uniform patterns, so each one recognizes individuality, while 00011101 (change of 3), 11100101 (change of 4) Changes) and 10101000 (5 changes) can be collected and treated as one. Through this, a value having no discrimination power or an insignificant characteristic may be removed from the encoded values of the pixels of the image. In addition, when P is 8, only 59 bins (58 bins for uniform patterns and 1 bin for non-uniform patterns) can be used in 256 bins (from 0 to 255 in decimal).

한편, 얼굴의 코 끝 영역은 얼굴의 다른 영역에 비해 깊이 값이 최소가 될 수 있다. 따라서, 서로 다른 사람의 얼굴이라고 하여도 코 끝의 화소가 대상화소가 되면 대상화소의 깊이 값은 인접 화소의 깊이 값보다 낮은 값을 가진다. 따라서, 인접 화소에 할당되는 값은 모두 동일하게 되므로 최종적으로 서로 다른 얼굴의 코 끝에 대응하는 화소인 대상 블록들의 깊이 값은 서로 동일한 값으로 부호화될 수 있다. 즉, 서로 다른 사람의 얼굴을 분별하는데 한계가 나타난다. Meanwhile, the depth value of the nose tip region of the face may be minimized compared to other regions of the face. Accordingly, even if the faces of different people are different, if the pixel at the tip of the nose becomes the target pixel, the depth value of the target pixel is lower than that of the adjacent pixels. Accordingly, since all values allocated to adjacent pixels are the same, the depth values of the target blocks, which are pixels corresponding to the nose ends of different faces, may finally be encoded to be the same value. In other words, there is a limit to discerning the faces of different people.

또한, 깊이 영상의 특성 상 깊이 영상 내에 잡음이 많이 포함될 가능성이 높다. 따라서, 대상 화소의 깊이 값과 인접 화소의 깊이 값을 서로 비교하는 과정을 통해 깊이 영상을 부호화한다면 화소의 특징이 잘못 검출될 위험성이 크다.In addition, due to the nature of the depth image, there is a high possibility that noise is contained in the depth image. Accordingly, if the depth image is encoded through a process of comparing the depth value of the target pixel with the depth value of the adjacent pixel, there is a high risk that the characteristic of the pixel will be erroneously detected.

이러한 한계점을 고려하여, 프로세서(122)는 대상 화소와 이웃 화소 간의 크기 비교뿐만 아니라 이들의 차이의 크기 정보, 즉 대상 화소와 인접 화소 사이의 차이의 크기 또한 부호화할 수 있다. 이는 얼굴면과 같이 3차원 객체에서 서로 다른 깊이 차이가 서로 다른면을 구별할 수 있게 한다.In consideration of this limitation, the processor 122 may encode not only size comparison between the target pixel and the neighboring pixels, but also information on the size of the difference, that is, the size of the difference between the target pixel and the adjacent pixel. This makes it possible to distinguish between different surfaces having different depth differences in a 3D object such as a face surface.

상세하게, 프로세서(122)는 대상 화소와 인접 화소의 크기 비교에 기초하여 인접 화소에 1 또는 0을 할당한 레벨 1 할당 정보를 생성할 수 있다. 예시적으로, 프로세서(122)는 대상 화소의 깊이 값이나 계조 값이 인접 화소의 그것보다 크면 인접 화소에 0을 할당하고 그렇지 않으면 1을 할당할 수 있다. 그리고, 수학식 2에 따라 레벨 1 할당 정보를 십진수값(EC)로 변환하여 대상 화소를 1차 부호화할 수 있다.In detail, the processor 122 may generate level 1 allocation information in which 1 or 0 is allocated to the adjacent pixel based on the comparison of the sizes of the target pixel and the adjacent pixel. For example, if the depth value or gray scale value of the target pixel is greater than that of the adjacent pixel, the processor 122 may allocate 0 to the adjacent pixel, otherwise it may allocate 1. In addition, by converting the level 1 allocation information into a decimal value EC according to Equation 2, the target pixel may be primary encoded.

또한, 프로세서(122)는 대상 화소와 인접 화소의 차이의 크기 정보에 기초하여 레벨 2 내지 4 할당 정보를 생성할 수 있다.In addition, the processor 122 may generate level 2 to 4 allocation information based on information on a size of a difference between a target pixel and an adjacent pixel.

상세하게, 실험에 따르면, R이 2일 때 화소들 사이의 깊이 차이의 93% 이상이 7보다 작게 나타난다. 따라서, 세가지 화소들과 그 이웃 사이의 각 깊이 차이의 크기인 절대값 DD를 부호화하기 위한 이진 단위 i2, i3, i4를 정의할 수 있다. 일부 실시예에서, 절대값 DD가 7보다 크면 절대값 DD는 7로 할당될 수 있다.In detail, according to an experiment, when R is 2, more than 93% of the depth difference between pixels appears to be smaller than 7. Accordingly, binary units i2, i3, and i4 for encoding the absolute value DD, which is the magnitude of each depth difference between the three pixels and their neighbors, can be defined. In some embodiments, if the absolute value DD is greater than 7, the absolute value DD may be assigned as 7.

절대값 DD와 이진 단위는 수학식 4를 충족한다.The absolute value DD and the binary unit satisfy Equation 4.

[수학식 4][Equation 4]

Figure 112018098227528-pat00004
Figure 112018098227528-pat00004

또한, i1은 대상 화소와 인접 화소의 크기 비교에 기초하여 할당된 1 또는 0의 값으로 정의하고, 이는 수학식 5를 충족한다. 즉, 대상 화소의 깊이 값이나 계조 값과 인접 화소의 깊이 값이나 계조 값의 차이인 DD 값에 따라 i1에 1 또는 0의 값이 할당된다.In addition, i1 is defined as a value of 1 or 0 allocated based on the comparison of the sizes of the target pixel and the adjacent pixel, which satisfies Equation 5. That is, a value of 1 or 0 is assigned to i1 according to the DD value, which is the difference between the depth value or grayscale value of the target pixel and the depth value or grayscale value of the adjacent pixel.

[수학식 5][Equation 5]

Figure 112018098227528-pat00005
Figure 112018098227528-pat00005

따라서, 프로세서(122)는 수학식 5에 따라 대상 화소와 인접 화소의 차이의 크기를 나타내는 절대값 DD를 충족하는 레벨 2 내지 4 할당 정보를 생성할 수 있다.Accordingly, the processor 122 may generate level 2 to 4 allocation information that satisfies the absolute value DD representing the size of the difference between the target pixel and the adjacent pixel according to Equation (5).

이하, 레벨 1 내지 레벨 4 할당 정보를 생성하는 방법을 예를 들어 구체적으로 설명한다.Hereinafter, a method of generating level 1 to level 4 allocation information will be described in detail by way of example.

사람 얼굴을 촬영한 영상에서 임의의 블록 내의 화소들에 대한 계조 값이 아래 맵(Map)과 같다고 가정한다.It is assumed that grayscale values of pixels in a block in an image photographing a human face are the same as the map below.

Figure 112018098227528-pat00006
Figure 112018098227528-pat00006

프로세서(122)는 대상 화소의 계조 값(255)과 대상화소와 인접한 8개의 화소의 계조 값들(254, 253, 252, 250 251, 254, 250, 249) 각각의 차이 값을 생성한다. 이러한 차이 값은 아래 맵과 같다.The processor 122 generates a difference value between the gray scale value 255 of the target pixel and the gray scale values 254, 253, 252, 250 251, 254, 250, and 249 of the eight pixels adjacent to the target pixel. These difference values are shown in the map below.

Figure 112018098227528-pat00007
Figure 112018098227528-pat00007

그리고, 차이 값인 DD를 일렬로 나열하면 다음과 같다.And, the difference values DD are listed in a line as follows.

Figure 112018098227528-pat00008
Figure 112018098227528-pat00008

프로세서(122)는, 대상화소와 인접 화소 사이의 계조 값의 차이인 DD를 수학식 5에 적용하면 아래와 같이 i1 값을 1 또는 0으로 할당할 수 있다. 즉, 프로세서(122)는 레벨 1 할당 정보를 생성할 수 있다.When DD, which is a difference in grayscale values between the target pixel and the adjacent pixel, is applied to Equation 5, the processor 122 may assign the value of i1 as 1 or 0 as follows. That is, the processor 122 may generate level 1 allocation information.

<레벨 1 할당 정보><Level 1 allocation information>

Figure 112018098227528-pat00009
Figure 112018098227528-pat00009

또한, 프로세서(122)는 수학식 4에 따라, 차이 값 DD=-6일 때, |DD|=6을 충족하도록 i2 내지 i4 에 1 또는 0을 할당할 수 있다.Further, according to Equation 4, when the difference value DD=-6, the processor 122 may allocate 1 or 0 to i2 to i4 to satisfy |DD|=6.

수학식 4에 따르면, i2=1, i3=1, i4=0 일 때 |DD|=6을 충족한다.According to Equation 4, when i2=1, i3=1, and i4=0, |DD|=6 is satisfied.

따라서, 레벨 2 내지 4 할당 정보를 설명하기 위한 아래의 맵에서 가장 우측의 값이 순서대로 1, 1, 0이 된다.Accordingly, the rightmost values in the map below for explaining the level 2 to 4 allocation information are 1, 1, and 0 in order.

또한, 수학식 4에 따라, 차이 값 DD=-5일 때, |DD|=5을 충족하도록 i2 내지 i4 에 1 또는 0을 할당할 수 있다.Further, according to Equation 4, when the difference value DD=-5, 1 or 0 may be assigned to i2 to i4 to satisfy |DD|=5.

따라서, 아래의 맵에서 가장 우측에서 두 번째 빈 칸의 값이 순서대로 1, 0, 1이 된다.Therefore, the values of the second blank from the rightmost in the map below are 1, 0, and 1 in order.

이와 같은 방식으로, 프로세서(122)는 대상 화소의 깊이 값 또는 계조 값과 인접 화소의 깊이 값 또는 계조 값과의 차이의 절대값을 충족하는 이진 변수 값을 결정하고 이진 변수들의 집합으로부터 레벨 2 내지 4 할당 정보를 생성할 수 있다.In this way, the processor 122 determines a binary variable value that satisfies the absolute value of the difference between the depth value or gradation value of the target pixel and the depth value or gradation value of the adjacent pixel, and from the set of binary variables to level 2 to 4 Assignment information can be created.

<레벨 2 할당 정보><Level 2 allocation information>

i2에 1 또는 0 할당Assign 1 or 0 to i2

Figure 112018098227528-pat00010
Figure 112018098227528-pat00010

<레벨 3 할당 정보><Level 3 allocation information>

i3에 1 또는 0 할당Assign 1 or 0 to i3

Figure 112018098227528-pat00011
Figure 112018098227528-pat00011

<레벨 4 할당 정보><Level 4 allocation information>

i4에 1 또는 0 할당Assign 1 or 0 to i4

Figure 112018098227528-pat00012
Figure 112018098227528-pat00012

또한, 프로세서(122)는 레벨 1 내지 4 할당 정보를 하나의 이진수로 변환하고, 이진수로부터 십진수의 값을 생성할 수 있다.Also, the processor 122 may convert the level 1 to 4 allocation information into one binary number and generate a decimal value from the binary number.

위 맵들을 예로들면, 레벨 1 할당 정보는 하나의 이진수가 00000000이므로 십진수의 값은 0이다.Taking the above maps as an example, since one binary number is 00000000 in the level 1 allocation information, the decimal value is 0.

레벨 2 할당 정보는 하나의 이진수가 00011011이므로 십진수의 값이 27이 된다.In the level 2 allocation information, since one binary number is 00011011, the value of the decimal number is 27.

레벨 3 할당 정보는 하나의 이진수가 01100001이므로 십진수의 값이 97이 된다.In the level 3 allocation information, since one binary number is 01100001, the decimal value is 97.

마지막으로, 레벨 4 할당 정보는 하나의 이진수가 10110110이므로 십진수의 값이 182가 된다.Finally, in the level 4 allocation information, since one binary number is 10110110, the decimal value is 182.

따라서, 아래의 맵에서 표시된 바와 같이 대상화소에 대해 4개의 부호화 값을 얻을 수 있고 그에 따라 하나의 영상에 대해서 제1 내지 제4 레벨 부호화 영상을 얻을 수 있다. 여기서의 제1 레벨 부호화 영상은 레벨 1 할당 정보에 기초하여 생성된 것이고, 제2 레벨 부호화 영상은 레벨 2 할당 정보에 기초하여 생성된 것이고, 제3 레벨 부호화 영상은 레벨 3 할당 정보에 기초하여 생성된 것이며, 제4 레벨 부호화 영상은 레벨 4 할당 정보에 기초하여 생성된 것이다.Accordingly, as indicated in the map below, four encoding values can be obtained for the target pixel, and accordingly, first to fourth level encoded images can be obtained for one image. Here, the first level encoded image is generated based on the level 1 allocation information, the second level encoded image is generated based on the level 2 allocation information, and the third level encoded image is generated based on the level 3 allocation information. And the fourth level encoded image is generated based on the level 4 allocation information.

Figure 112018098227528-pat00013
Figure 112018098227528-pat00013

Figure 112018098227528-pat00014
Figure 112018098227528-pat00014

Figure 112018098227528-pat00015
Figure 112018098227528-pat00015

Figure 112018098227528-pat00016
Figure 112018098227528-pat00016

부호화된 제1 깊이 영상의 제1 히스토그램 및 부호화된 제1 적외선 영상의 제2 히스토그램을 생성하는 단계(S160). Generating a first histogram of the encoded first depth image and a second histogram of the encoded first infrared image (S160) .

프로세서(122)는 제1 깊이 영상의 모든 화소를 부호화하고, 제1 적외선 영상의 모든 화소를 부호화할 수 있다. 그리고, 프로세서(122)는 부호화된 제1 깊이 영상에 대한 제1 히스토그램 및 부호화된 제1 적외선 영상에 대한 제2 히스토그램을 생성할 수 있다.The processor 122 may encode all pixels of the first depth image and may encode all pixels of the first infrared image. In addition, the processor 122 may generate a first histogram for the encoded first depth image and a second histogram for the encoded first infrared image.

예시적으로, P=8인 경우 히스토그램의 bin(히스토그램의 한 구간)은 총 256개가 된다. 즉, 부호화된 영상에 대한 256개의 특성을 얻을 수 있다.For example, when P=8, a total of 256 bins (one section of the histogram) of the histogram. That is, 256 characteristics of the encoded image can be obtained.

일부 실시예에서, 59개의 bin(58개의 유니폼 패턴을 위한 bin과 1개의 논 유니폼 패턴을 위한 bin)을 가진 히스토그램을 생성할 수 있다. 즉, 부호화된 영상에 대한 59개의 특성을 얻을 수 있다.In some embodiments, a histogram with 59 bins (58 bins for uniform patterns and 1 bin for non-uniform patterns) may be generated. That is, 59 characteristics of the encoded image can be obtained.

일부 실시예에서, 프로세서(122)는 레벨 1 내지 레벨 4 할당 정보에 기초하여 하나의 블록에 대해서 4개의 부호화된 블록을 생성할 수 있고, 이들 각각에 대한 히스토그램을 얻을 수도 있다.In some embodiments, the processor 122 may generate four coded blocks for one block based on the level 1 to level 4 allocation information, and may obtain a histogram for each of them.

복수의 인물들 각각의 제2 적외선 영상의 히스토그램과 제2 히스토그램을 비교하여 복수의 인물들 중 적어도 하나를 선정하는 단계(S170). Comparing the histogram of the second infrared image of each of the plurality of people and the second histogram to select at least one of the plurality of people (S170) .

메모리(121)에는 복수의 인물들 각각의 제2 적외선 영상의 히스토그램이 미리 저장될 수 있다. 일부 실시예에서, 복수의 인물들 각각의 제2 적외선 영상의 히스토그램은 전술한 256개의 특성 또는 59개의 특성을 가진 히스토그램이 될 수 있다. 일부 실시예에서, 복수의 인물들 각각의 제2 적외선 영상의 히스토그램은 하나의 적외선 영상들을 레벨 1 내지 4 할당 정보에 따라 부호화한 4개의 부호화된 적외선 영상으로부터의 히스토그램이 될 수도 있다.The histogram of the second infrared image of each of the plurality of people may be stored in advance in the memory 121. In some embodiments, the histogram of the second infrared image of each of the plurality of people may be a histogram having 256 characteristics or 59 characteristics described above. In some embodiments, the histogram of the second infrared image of each of the plurality of people may be a histogram from four encoded infrared images of one infrared image encoded according to level 1 to 4 allocation information.

프로세서(122)는 촬영된 적외선 영상의 히스토그램인 제2 히스토그램과 미리 저장된 복수의 인물들 각각의 제2 적외선 영상의 히스토그램을 서로 비교할 수 있다.The processor 122 may compare the second histogram, which is a histogram of the captured infrared image, and the histogram of the second infrared image of each of the plurality of persons previously stored.

한편, 일부 실시예에서, 프로세서(122)는 제1 내지 제4 레벨의 부호화 영상 중 어느 하나의 영상에 대해서만 히스토그램을 생성할 수도 있다. 상세하게, 도 7을 참조한다.Meanwhile, in some embodiments, the processor 122 may generate a histogram only for one of the encoded images of the first to fourth levels. In detail, see FIG. 7.

도 7은 R의 변화에 따른 서로 다른 레벨의 영상을 나타낸 것이다. 7 shows images of different levels according to the change of R.

도 7의 영상들은 P=8로 유지하고, 서로 다른 반경 값(R=1, 2, 6)에 따른 여러 레벨의 영상이다.The images of FIG. 7 are maintained at P=8 and are images of different levels according to different radius values (R=1, 2, 6).

깊이 영상의 경우 R=2일 때 제1 및 제2 레벨의 부호화 영상이 얼굴 특징을 가장 잘 표현할 수 있다.In the case of a depth image, when R=2, encoded images of the first and second levels can best express facial features.

또한, 적외선 영상에서는 R=2, R=6에서 제1 레벨의 부호화 영상이 얼굴의 특징을 가장 잘 표현할 수 있다. 따라서, 프로세서(122)는 P=8, R=2일 때의 제1 및 제2 레벨의 부호화 깊이 영상 중 적어도 하나의 부호화 깊이 영상에 대한 히스토그램을 미리 저장된 히스토그램과 비교할 수 있다. 또한, 프로세서(122)는 P=8, R=2 또는 R=6일 때의 제1 레벨의 부호화 적외선 영상 중 적어도 하나의 부호화 적외선 영상에 대한 히스토그램을 미리 저장된 히스토그램과 비교할 수 있다. 이처럼, 실시예는 가장 특징적인 레벨의 부호화 영상을 이용함으로써 특징 차원의 개수를 줄일 수 있고, 그에 따라 연산의 복잡도를 낮출 수 있다.In addition, in an infrared image, a first-level encoded image at R=2 and R=6 can best express facial features. Accordingly, the processor 122 may compare the histogram of at least one coded depth image among the first and second level coded depth images when P=8 and R=2 with a previously stored histogram. Also, the processor 122 may compare a histogram of at least one encoded infrared image among the encoded infrared images of the first level when P=8, R=2, or R=6 with a previously stored histogram. As described above, according to the embodiment, the number of feature dimensions can be reduced by using the encoded image having the most characteristic level, and accordingly, the complexity of the operation can be reduced.

선정된 적어도 하나의 인물의 깊이 영상의 히스토그램과 제1 히스토그램을 비교하여 인물의 신원을 인식하는 단계(S180). Comparing the histogram of the depth image of the selected at least one person with the first histogram to recognize the identity of the person (S180) .

메모리(121)에는 복수의 인물들 각각의 제2 깊이 영상의 히스토그램이 미리 저장될 수 있다. 일부 실시예에서, 복수의 인물들 각각의 제2 깊이 영상의 히스토그램은 전술한 256개의 특성 또는 59개의 특성을 가진 히스토그램이 될 수 있다. 일부 실시예에서, 복수의 인물들 각각의 제2 깊이 영상의 히스토그램은 하나의 깊이 영상들을 레벨 1 내지 4 할당 정보에 따라 부호화한 4개의 부호화된 깊이 영상으로부터의 히스토그램이 될 수도 있다.The histogram of the second depth image of each of the plurality of people may be stored in advance in the memory 121. In some embodiments, the histogram of the second depth image of each of the plurality of people may be a histogram having 256 characteristics or 59 characteristics described above. In some embodiments, the histogram of the second depth image of each of the plurality of people may be a histogram from four encoded depth images obtained by encoding one depth image according to level 1 to 4 allocation information.

프로세서(122)는 촬영된 깊이 영상의 히스토그램인 제1 히스토그램과 미리 저장된 복수의 인물들 각각의 제2 깊이 영상의 히스토그램을 서로 비교할 수 있다.The processor 122 may compare the first histogram, which is a histogram of the photographed depth image, and the histogram of the second depth image of each of the plurality of persons stored in advance.

일부 실시예에서, 프로세서(122)는 복수의 인물들에 대한 정보를 S170 단계에서 1차 필터링하고, 필터링된 인물들에 대한 깊이 영상의 히스토그램과 제1 히스토그램을 서로 비교하여 최종적으로 촬영된 인물의 신원을 확인할 수도 있다. 즉, 촬영된 적외선 영상을 통해 미리 저장된 얼굴 특징과 비교하여 정확도가 가장 높은 인물을 판별하고, 촬영된 깊이 영상을 이용하여 실제 동일 인물인지를 판별할 수 있다.In some embodiments, the processor 122 first filters information on a plurality of people in step S170, compares the histogram of the depth image of the filtered people and the first histogram, You can also verify your identity. That is, the person with the highest accuracy may be determined by comparing the facial features stored in advance through the photographed infrared image, and whether the person is actually the same person using the photographed depth image.

한편, 프로세서(122)는 수학식 6을 충족하는 연산에 따라 촬영 영상의 히스토그램과 미리 저장된 히스토그램의 유사도를 측정할 수 있다.Meanwhile, the processor 122 may measure a similarity between the histogram of the captured image and the previously stored histogram according to an operation that satisfies Equation (6).

[수학식 6][Equation 6]

Figure 112018098227528-pat00017
Figure 112018098227528-pat00017

보다 상세하게는, 프로세서(122)는 비교 대상의 히스토그램의 각 bin의 값을 수학식 6에 따라 계산하여 두 히스토그램의 유사도를 측정할 수 있다.In more detail, the processor 122 may measure the similarity of the two histograms by calculating a value of each bin of the histogram to be compared according to Equation 6.

수학식 6에서 S는 미리 저장된 히스토그램을 의미할 수 있고, M은 촬영된 영상과 관련된 히스토그램이 될 수 있다. 그리고, n은 히스토그램의 bin의 개수를 의미하고, i는 히스토그램 내의 bin들의 순서를 의미한다.In Equation 6, S may be a pre-stored histogram, and M may be a histogram related to the captured image. In addition, n denotes the number of bins in the histogram, and i denotes the order of bins in the histogram.

또한, 프로세서(122)는 적외선 영상과 관련된 히스토그램을 비교하여 촬영된 객체와의 유사도가 높은 후보들을 선정할 수 있다. 그리고, 프로세서(122)는 깊이 영상과 관련된 히스토그램을 비교하여 선정된 후보들 중 촬영된 객체와 매칭되는 후보가 있는지 판별할 수 있다. 이 때, 프로세서(122)는 유사도가 미리 설정된 임계치 이상이면 촬영된 객체의 신원을 파악하게 되고, 그렇지 않은 경우 신원 확인 실패를 표시하고 신원 확인 과정을 종료할 수 있다. 일부 실시예에서, 프로세서(122)는 선정된 후보들 중 촬영된 객체와 매칭되는 후보가 없는 경우, 미선정된 후보들 중 촬영된 객체와 매칭되는 후보가 있는지를 추가로 판별할 수도 있다.In addition, the processor 122 may compare histograms related to the infrared image to select candidates having high similarity with the captured object. Further, the processor 122 may determine whether there is a candidate matching the photographed object among the selected candidates by comparing the histogram related to the depth image. In this case, if the similarity is greater than or equal to a preset threshold, the processor 122 may determine the identity of the photographed object. If not, the processor 122 may display an identity verification failure and terminate the identity verification process. In some embodiments, if there is no candidate matching the photographed object among the selected candidates, the processor 122 may additionally determine whether there is a candidate matching the photographed object among unselected candidates.

본 발명에 따른 실시예는 휴대장치 잠금제어, 보안시스템, 출입통제, 근퇴 관리 분야 등에 활용 가능하다.The embodiment according to the present invention can be utilized in the fields of portable device lock control, security system, access control, and close-out management.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded in the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks. medium), and a hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections. Connections, or circuit connections, may be represented. In addition, if there is no specific mention such as “essential” or “importantly”, it may not be an essential component for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to a preferred embodiment of the present invention, the spirit of the present invention described in the claims to be described later if a person skilled in the art or those of ordinary skill in the art And it will be understood that various modifications and changes can be made to the present invention within a range not departing from the technical field. Accordingly, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be determined by the claims.

Claims (9)

깊이 영상 내의 얼굴 영역을 검출하여 제1 깊이 영상을 생성하는 단계;
상기 얼굴 영역에 대응하는 제1 적외선 영상을 생성하는 단계;
상기 제1 깊이 영상의 제1 대상 화소와 제1 인접 화소 간의 깊이 값의 비교 결과에 기초하여 상기 제1 깊이 영상을 부호화하는 단계;
상기 제1 적외선 영상에서 제2 대상 화소와 제2 인접 화소 간의 계조값의 비교 결과에 기초하여 상기 제1 적외선 영상을 부호화하는 단계;
부호화된 제1 깊이 영상의 제1 히스토그램 및 부호화된 제1 적외선 영상의 제2 히스토그램을 생성하는 단계;
복수의 인물들 각각의 제2 적외선 영상의 히스토그램과 상기 제2 히스토그램을 비교하여 상기 복수의 인물들 중 적어도 하나를 선정하는 단계; 및
상기 선정된 적어도 하나의 인물의 제2 깊이 영상의 히스토그램과 상기 제1 히스토그램을 비교하여 상기 인물의 신원을 인식하는 단계;를 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
Generating a first depth image by detecting a face area in the depth image;
Generating a first infrared image corresponding to the face area;
Encoding the first depth image based on a comparison result of a depth value between a first target pixel of the first depth image and a first adjacent pixel;
Encoding the first infrared image based on a result of comparing gray scale values between a second target pixel and a second adjacent pixel in the first infrared image;
Generating a first histogram of the encoded first depth image and a second histogram of the encoded first infrared image;
Comparing a histogram of a second infrared image of each of the plurality of people with the second histogram to select at least one of the plurality of people; And
Comprising: comparing the histogram of the second depth image of the selected at least one person with the first histogram to recognize the identity of the person; including
An identity recognition method through depth images and infrared images of a face.
제1 항에 있어서,
상기 제1 깊이 영상을 부호화하는 단계는,
상기 제1 대상 화소의 깊이 값과 상기 제1 인접 화소 간의 깊이 값의 크기를 비교하여 상기 제1 인접 화소에 0 또는 1을 할당하는 단계;
상기 제1 인접 화소에 할당된 값을 하나의 제1 이진수로 나타낸 레벨 1 할당 정보를 생성하는 단계,
상기 레벨 1 할당 정보에 기초하여 상기 제1 이진수를 제1 십진수값으로 변환하는 단계; 및
상기 제1 대상 화소의 깊이 값을 상기 제1 십진수값으로 부호화하여 제1 레벨 부호화 영상을 생성하는 단계;를 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
The method of claim 1,
Encoding the first depth image,
Comparing a depth value of the first target pixel with a depth value between the first adjacent pixels and allocating 0 or 1 to the first adjacent pixel;
Generating level 1 allocation information representing a value allocated to the first adjacent pixel in one first binary number,
Converting the first binary number to a first decimal value based on the level 1 allocation information; And
Generating a first-level encoded image by encoding the depth value of the first target pixel into the first decimal value; including
An identity recognition method through depth images and infrared images of a face.
제2 항에 있어서,
상기 제1 깊이 영상을 부호화하는 단계는,
상기 제1 대상 화소의 깊이 값과 상기 제1 인접 화소 간의 깊이 값의 크기의 차이 정보에 기초하여 상기 제1 인접 화소에 할당된 값을 하나의 제2 이진수로 나타낸 레벨 2 내지 4 할당 정보를 생성하는 단계;
상기 레벨 2 내지 4 할당 정보 각각에 기초하여 상기 제2 이진수를 제2 십진수값으로 변환하는 단계; 및
상기 제1 대상 화소의 깊이 값을 상기 제2 십진수값으로 부호화하여 제2 내지 제4 레벨 부호화 영상을 생성하는 단계;를 더 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
The method of claim 2,
Encoding the first depth image,
Generates level 2 to 4 allocation information representing a value allocated to the first adjacent pixel in one second binary number based on information on the difference between the depth value of the first target pixel and the depth value between the first adjacent pixels Step to do;
Converting the second binary number to a second decimal value based on each of the level 2 to 4 allocation information; And
Encoding the depth value of the first target pixel as the second decimal value to generate second to fourth level encoded images; further comprising
An identity recognition method through depth images and infrared images of a face.
제1 항에 있어서,
상기 제1 적외선 영상을 부호화하는 단계는,
상기 제2 대상 화소의 계조 값과 상기 제2 인접 화소 간의 계조 값의 크기를 비교하여 상기 제2 인접 화소에 0 또는 1을 할당하는 단계;
상기 제2 인접 화소에 할당된 값을 하나의 제1 이진수로 나타낸 레벨 1 할당 정보를 생성하는 단계,
상기 레벨 1 할당 정보에 기초하여 상기 제1 이진수를 제1 십진수값으로 변환하는 단계; 및
상기 제2 대상 화소의 계조 값을 상기 제1 십진수값으로 부호화하여 제1 레벨 부호화 영상을 생성하는 단계;를 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
The method of claim 1,
The step of encoding the first infrared image,
Comparing a gray scale value of the second target pixel with a gray scale value between the second adjacent pixels and allocating 0 or 1 to the second adjacent pixel;
Generating level 1 allocation information representing a value allocated to the second adjacent pixel in one first binary number,
Converting the first binary number to a first decimal value based on the level 1 allocation information; And
Generating a first-level encoded image by encoding the grayscale value of the second target pixel as the first decimal value;
An identity recognition method through depth images and infrared images of a face.
제4 항에 있어서,
상기 제1 적외선 영상을 부호화하는 단계는,
상기 제2 대상 화소의 계조 값과 상기 제2 인접 화소 간의 계조 값의 크기의 차이 정보에 기초하여 상기 제2 인접 화소에 할당된 값을 하나의 제2 이진수로 나타낸 레벨 2 내지 4 할당 정보를 생성하는 단계;
상기 레벨 2 내지 4 할당 정보 각각에 기초하여 상기 제2 이진수를 제2 십진수값으로 변환하는 단계; 및
상기 제2 대상 화소의 계조 값을 상기 제2 십진수값으로 부호화하여 제2 내지 제4 레벨 부호화 영상을 생성하는 단계;를 더 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
The method of claim 4,
The step of encoding the first infrared image,
Generates level 2 to 4 allocation information representing a value assigned to the second adjacent pixel in one second binary number based on information on the difference in the size of the gray level value between the second target pixel and the second adjacent pixel Step to do;
Converting the second binary number to a second decimal value based on each of the level 2 to 4 allocation information; And
Generating a second to fourth level encoded image by encoding the grayscale value of the second target pixel as the second decimal value;
An identity recognition method through depth images and infrared images of a face.
제3 항에 있어서,
상기 제1 내지 제4 레벨 부호화 영상 중 어느 하나의 부호화 영상의 히스토그램과 미리 저장된 복수의 인물들의 깊이 영상에 대한 히스토그램의 유사도를 측정하는 단계; 및
상기 유사도에 기초하여 상기 복수의 인물들 중 적어도 하나의 인물을 선정하는 단계;를 더 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
The method of claim 3,
Measuring a similarity between a histogram of an encoded image of any one of the first to fourth level encoded images and a histogram of a depth image of a plurality of people stored in advance; And
Further comprising: selecting at least one person from among the plurality of people based on the similarity
An identity recognition method through depth images and infrared images of a face.
제5 항에 있어서,
상기 제1 내지 제4 레벨 부호화 영상 중 어느 하나의 부호화 영상의 히스토그램과 미리 저장된 복수의 인물들의 적외선 영상에 대한 히스토그램의 유사도를 측정하는 단계; 및
상기 유사도에 기초하여 상기 복수의 인물들 중 적어도 하나의 인물을 선정하는 단계;를 더 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
The method of claim 5,
Measuring a similarity between the histogram of the encoded image of any one of the first to fourth level encoded images and the histogram of the infrared image of a plurality of people stored in advance; And
Further comprising: selecting at least one person from among the plurality of people based on the similarity
An identity recognition method through depth images and infrared images of a face.
제3 항에 있어서,
상기 레벨 2 내지 4 할당 정보를 생성하는 단계는,
상기 제1 대상 화소의 깊이 값과 상기 제1 인접 화소 간의 깊이 값의 크기의 차이의 절대값 계산하는 단계;
상기 차이의 절대값을 충족하는 이진 변수들을 생성하는 단계;
상기 이진 변수들의 집합으로부터 상기 레벨 2 내지 4 할당 정보를 생성하는 단계;를 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 방법.
The method of claim 3,
Generating the level 2 to 4 allocation information,
Calculating an absolute value of a difference between a depth value of the first target pixel and a depth value between the first adjacent pixels;
Generating binary variables that satisfy the absolute value of the difference;
Generating the level 2 to 4 assignment information from the set of binary variables; including
An identity recognition method through depth images and infrared images of a face.
명령들을 저장하는 적어도 하나의 메모리; 및
적어도 하나의 프로세서;를 포함하고,
상기 명령들은 상기 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고,
상기 동작들은:
깊이 영상 내의 얼굴 영역을 검출하여 제1 깊이 영상을 생성하고,
상기 얼굴 영역에 대응하는 제1 적외선 영상을 생성하고,
상기 제1 깊이 영상의 제1 대상 화소와 제1 인접 화소 간의 깊이 값의 비교 결과에 기초하여 상기 제1 깊이 영상을 부호화하고,
상기 제1 적외선 영상에서 제2 대상 화소와 제2 인접 화소 간의 계조값의 비교 결과에 기초하여 상기 제1 적외선 영상을 부호화하고,
부호화된 제1 깊이 영상의 제1 히스토그램 및 부호화된 제1 적외선 영상의 제2 히스토그램을 생성하고,
복수의 인물들 각각의 제2 적외선 영상의 히스토그램과 상기 제2 히스토그램을 비교하여 상기 복수의 인물들 중 적어도 하나를 선정하며,
상기 선정된 적어도 하나의 인물의 제2 깊이 영상의 히스토그램과 상기 제1 히스토그램을 비교하여 상기 인물의 신원을 인식하는 것을 포함하는
얼굴이 촬영된 깊이 영상과 적외선 영상을 통한 신원 인식 장치.
At least one memory for storing instructions; And
Including; at least one processor,
The instructions are executable by the processor to cause the processor to perform operations,
The above actions are:
A first depth image is generated by detecting a face area in the depth image,
Generating a first infrared image corresponding to the face region,
Encode the first depth image based on a comparison result of a depth value between a first target pixel of the first depth image and a first adjacent pixel,
In the first infrared image, the first infrared image is encoded based on a result of comparing gray scale values between a second target pixel and a second adjacent pixel,
Generate a first histogram of the encoded first depth image and a second histogram of the encoded first infrared image,
At least one of the plurality of people is selected by comparing the histogram of the second infrared image of each of the plurality of people with the second histogram,
Comparing the histogram of the second depth image of the selected at least one person with the first histogram to recognize the identity of the person
An identity recognition device through the depth image and infrared image of the face.
KR1020180118672A 2018-10-05 2018-10-05 FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM Active KR102174208B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180118672A KR102174208B1 (en) 2018-10-05 2018-10-05 FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180118672A KR102174208B1 (en) 2018-10-05 2018-10-05 FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM

Publications (2)

Publication Number Publication Date
KR20200039149A KR20200039149A (en) 2020-04-16
KR102174208B1 true KR102174208B1 (en) 2020-11-04

Family

ID=70454620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180118672A Active KR102174208B1 (en) 2018-10-05 2018-10-05 FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM

Country Status (1)

Country Link
KR (1) KR102174208B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084951A (en) * 2020-09-10 2020-12-15 深圳市迈航信息技术有限公司 Intelligent building system control method, device and system and readable storage medium
KR102599855B1 (en) * 2020-12-22 2023-11-07 주식회사 포스코디엑스 Apparatus and Method for Attaching Tag For Steel Product

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101479225B1 (en) 2014-02-26 2015-01-05 연세대학교 산학협력단 Method and apparatus for generating feature vector, and method and apparatus for Image Recognition using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110052962A (en) * 2009-11-13 2011-05-19 한국전자통신연구원 Object recognition device and method
KR101074953B1 (en) 2010-08-30 2011-10-18 세종대학교산학협력단 Mixed Face Recognition Method and System Using PCA and Gabor Wavelet
KR102696652B1 (en) * 2017-01-26 2024-08-21 삼성전자주식회사 Stero matching method and image processing apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101479225B1 (en) 2014-02-26 2015-01-05 연세대학교 산학협력단 Method and apparatus for generating feature vector, and method and apparatus for Image Recognition using the same

Also Published As

Publication number Publication date
KR20200039149A (en) 2020-04-16

Similar Documents

Publication Publication Date Title
CN110163899B (en) Image matching method and image matching device
KR102592076B1 (en) Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof
JP5775225B2 (en) Text detection using multi-layer connected components with histograms
US11450087B2 (en) System and method for multimedia analytic processing and display
US9294665B2 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
US10275677B2 (en) Image processing apparatus, image processing method and program
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
US20080193020A1 (en) Method for Facial Features Detection
CN107025442B (en) A multimodal fusion gesture recognition method based on color and depth information
CN109389115B (en) Text recognition method, device, storage medium and computer equipment
KR20100073749A (en) Apparatus and method for extracting feature point based on sift, and face recognition system using thereof
KR101921717B1 (en) Face recognition method and facial feature extraction method using local contour patten
US11900664B2 (en) Reading system, reading device, reading method, and storage medium
KR100664956B1 (en) Eye detection method and apparatus
KR101891631B1 (en) Image learnig device, image analysis system and method using the device, computer readable medium for performing the method
KR102174208B1 (en) FACE RECOGNITION METHOD AND DEVICE USING INFRARED AND DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM
US11315358B1 (en) Method and system for detection of altered fingerprints
US8780197B2 (en) Apparatus and method for detecting face
Wu et al. Contour restoration of text components for recognition in video/scene images
KR100726473B1 (en) Apparatus for classifying an image and method therefor
KR20030005113A (en) Identification system and method using iris, and media that can record computer program sources thereof
JP2017084006A (en) Image processor and method thereof
KR100963240B1 (en) Color marker recognition method and device
Saadat et al. A new approach for copy‐move detection based on improved weber local descriptor
JP2016151978A (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181005

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200220

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201023

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20201029

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20201029

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20231030

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20241029

Start annual number: 5

End annual number: 5