[go: up one dir, main page]

KR102370684B1 - 손등 혈관패턴 인식 장치 및 방법 - Google Patents

손등 혈관패턴 인식 장치 및 방법 Download PDF

Info

Publication number
KR102370684B1
KR102370684B1 KR1020210153565A KR20210153565A KR102370684B1 KR 102370684 B1 KR102370684 B1 KR 102370684B1 KR 1020210153565 A KR1020210153565 A KR 1020210153565A KR 20210153565 A KR20210153565 A KR 20210153565A KR 102370684 B1 KR102370684 B1 KR 102370684B1
Authority
KR
South Korea
Prior art keywords
blood vessel
vessel pattern
line
hand
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020210153565A
Other languages
English (en)
Inventor
최환수
원은섭
장석모
Original Assignee
주식회사 테크스피어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 테크스피어 filed Critical 주식회사 테크스피어
Priority to KR1020210153565A priority Critical patent/KR102370684B1/ko
Priority to KR1020220026251A priority patent/KR102666340B1/ko
Application granted granted Critical
Publication of KR102370684B1 publication Critical patent/KR102370684B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • G06V40/145Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/404Angiography

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Geometry (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

데이터베이스의 템플레이트와 출입시의 사용자의 손등 영상의 매칭을 보다 효율적으로 수행할 수 있는 손등 혈관패턴 인식 장치 및 방법을 제시한다. 제시된 장치는 사용자의 손의 원시영상을 촬영하는 촬영부; 상기 원시영상을 토대로 생성된 타겟영상을 근거로 기울기선을 생성하는 기울기선 생성부; 상기 타겟영상의 기울기선과 사용자별 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시켜서 상호간의 혈관패턴 매칭율을 산출하는 매칭부; 및 상기 혈관패턴 매칭율에 따라 사용자 식별을 행하는 식별부;를 포함한다.

Description

손등 혈관패턴 인식 장치 및 방법{Apparatus and method for recognizing blood vessel pattern on the back of the hand}
본 발명은 손등 혈관패턴 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 사용자의 손등에 분포한 정맥 혈관의 공간적인 분포패턴을 기반으로 개인식별을 할 수 있도록 하는 손등 혈관패턴 인식 장치 및 방법에 관한 것이다.
물리적 출입보안의 핵심 기술 중의 하나인 바이오 인식기술로는 지문인식, 홍채인식, 얼굴인식, 혈관 인식 등이 보편적으로 많이 사용되고 있다.
이중에서, 혈관인식은 크게 지정맥인식, 손바닥정맥인식, 손등혈관인식 기술 등이 있는데, 손등혈관인식은 사용성과 정확성면에서 우수하여 고도보안, 열악한 환경에서의 출입보안, 근태관리 등에 많이 사용되고 있다.
손등혈관인식 기술은 기본적으로 적외선 조명을 조사하여 정맥에 흐르는 헤모글로빈이 근적외선을 많이 흡수하는 특성을 이용하는 것으로서, 손등을 촬상하여 정맥패턴을 추출하여 인식을 하게 된다.
종래의 손등혈관인식 기술로는 다양하게 있을 수 있는데, 그 중의 하나로는 대한민국 등록특허 제10-0438418호에 개시된 기술이 있을 수 있다.
대한민국 등록특허 제10-0438418호에 개시된 기술의 경우, 회전 보상을 위해 손의 방향을 계산하기 위해서는 메인 카메라 이외로 별도의 보조 카메라를 사용하여 실시간으로 손의 진행방향을 추정하고, 추정된 진행방향에서 손의 방향을 계산해 내어 데이터베이스의 템플레이트(template)의 손의 방향과 인식하고자 하는 타겟영상의 손의 방향이 서로 일치하도록 템플레이트 또는 타겟영상을 회전 보상하여 매칭을 한다.
이와 같이, 대한민국 등록특허 제10-0438418호에 개시된 기술은 많은 계산량과 추가된 카메라(즉, 보조 카메라)로 인해 장비의 제조가격을 상승시키는 요인이 된다. 또한, 계산량의 증가로 인해 고가의 CPU가 필요하고 인식 속도가 낮아진다.
이상의 배경기술에 기재된 사항은 발명의 배경에 대한 이해를 돕기 위한 것으로서, 공개된 종래 기술이 아닌 사항을 포함할 수 있다.
대한민국 등록특허 제10-0438418호 (2004.06.22.)
본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 데이터베이스의 템플레이트와 출입시의 사용자의 손등 영상의 매칭을 보다 효율적으로 수행할 수 있는 손등 혈관패턴 인식 장치 및 방법을 제공함에 그 목적이 있다.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 손등 혈관패턴 인식 장치는, 사용자의 손의 원시영상을 촬영하는 촬영부; 상기 원시영상을 토대로 생성된 타겟영상을 근거로 기울기선을 생성하는 기울기선 생성부; 상기 타겟영상의 기울기선과 사용자별 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시켜서 상호간의 혈관패턴 매칭율을 산출하는 매칭부; 및 상기 혈관패턴 매칭율에 따라 사용자 식별을 행하는 식별부;를 포함한다.
상기 타겟영상의 기울기선은, 타겟영상의 혈관패턴 센트로이드를 지나는 선일 수 있다.
상기 기울기선 생성부는, 상기 타겟영상에서 사용자의 손등의 전체 혈관패턴을 추출하고, 추출된 전체 혈관패턴으로부터 센트로이드를 계산하여 해당 전체 혈관패턴의 무게중심점을 찾고, 상기 무게중심점을 상기 혈관패턴 센트로이드라고 한다.
상기 매칭부는, 상기 템플레이트의 혈관패턴 센트로이드와 상기 타겟영상의 혈관패턴 센트로이드를 일치시키고, 상기 타겟영상의 기울기선과 상기 템플레이트의 템플레이트 기울기선을 정렬시킴으로써, 상기 타겟영상과 상기 템플레이트간의 혈관패턴 매칭율을 산출할 수 있다.
상기 타겟영상의 기울기선은, 사용자의 손의 센터 너클의 끝점과 상기 혈관패턴 센트로이드를 서로 연결시킨 제 1 기울기선일 수 있다.
상기 기울기선 생성부는, 상기 타겟영상에서 사용자의 손의 너클이 있는 영역을 크로핑하고, 상기 크로핑한 영상을 영상처리하여 상기 너클의 외곽정보를 추출하고, 상기 외곽정보를 근거로 손의 센터 너클의 끝점을 추출할 수 있다.
상기 타겟영상의 기울기선은, 사용자 손의 좌우 외곽라인의 중심선 및 상기 혈관패턴 센트로이드를 이용하여 생성한 제 2 기울기선일 수 있다.
상기 기울기선 생성부는, 상기 타겟영상에서 손의 윤곽선을 추출하고, 상기 윤곽선의 좌우 외곽라인으로부터 중앙점을 계산하여 중앙점들을 연결한 중심선을 추출하고, 상기 중심선을 직선화시켜 상기 혈관패턴 센트로이드를 지나게 함으로써, 제 2 기울기선을 생성할 수 있다.
상기 타겟영상의 기울기선은, 제 1 기울기선과 제 2 기울기선을 조합하여 생성된 제 3 기울기선이되, 상기 제 1 기울기선은 사용자의 손의 센터 너클의 끝점과 상기 혈관패턴 센트로이드를 서로 연결시킨 선일 수 있고, 상기 제 2 기울기선은 사용자 손의 좌우 외곽라인의 중심선 및 상기 혈관패턴 센트로이드를 이용하여 생성한 선일 수 있다.
상기 제 3 기울기선은, 상기 제 1 기울기선에 의한 기울기와 상기 제 2 기울기선에 의한 기울기를 평균내어 생성한 선일 수 있다.
상기 촬영부는, 케이스의 내부에 형성되어 하부가 개구되되, 상기 하부의 방향으로 갈수록 개구부의 너비가 넓어지는 경통; 및 상기 경통의 내부에서 사용자의 손을 촬영하기 위해 하방향을 향하도록 배치된 카메라;를 포함할 수 있다.
한편, 본 발명의 바람직한 실시양태에 따른 손등 혈관패턴 인식 방법은, 손등 혈관패턴 인식 장치에서 동작되는 손등 혈관패턴 인식 방법으로서, 사용자의 손의 원시영상을 촬영하는 단계; 상기 원시영상을 토대로 생성된 타겟영상을 근거로 기울기선을 생성하는 단계; 상기 타겟영상의 기울기선과 사용자별 템플레이트의 템플레이트 기울기선을 정렬시켜서 상호간의 혈관패턴 매칭율을 산출하는 단계; 및 상기 혈관패턴 매칭율에 따라 사용자 식별을 행하는 단계;를 포함한다.
이러한 구성의 본 발명에 따르면, 촬영된 사용자의 손등 원시영상을 이진영상화한 타겟영상에서 사용자의 손의 센터 너클의 끝점과 손등의 혈관패턴 센트로이드(centroid)를 서로 연결시킨 직선의 연결선(제 1 기울기선), 타겟영상에서 사용자의 손의 좌우 외곽라인을 이용하여 생성한 직선의 중심 기준선(제 2 기울기선), 및 제 1 기울기선과 제 2 기울기선을 근거로 생성한 직선의 평균 기울기선(제 3 기울기선) 중에서 하나 이상을 근거로 해당 타겟영상을 각각의 템플레이트에 정렬시킨 후에 상호간의 혈관패턴 매칭율을 산출하고 이를 근거로 개인식별을 행한다.
다시 말해서, 타겟영상의 혈관패턴과 데이터베이스의 템플레이트의 혈관패턴을 서로 대조(비교)하는 것이므로, 데이터베이스의 템플레이트와 출입시의 사용자의 손등 영상의 매칭을 보다 효율적으로 수행할 수 있다.
즉, 혈관의 분기점위치, 분기각 등의 특징데이터를 미리 등록과정에서 저장해 놓은 특징데이터와 매칭을 통해 개인식별을 하는 것에 비해서는 인식속도 및 정확성을 보다 향상시킬 수 있다.
또한, 본 발명은 손의 외곽선을 이용하거나 손등 전체 혈관패턴의 센트로이드와 가운데 손가락 너클 끝점을 연결한 선분 등을 이용할 수 있으므로, 메인 센서(카메라) 1개만으로 보정과 인식을 모두 처리할 수 있다는 효과가 있다.
도 1은 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치의 외관 및 사용예를 설명하기 위한 도면이다.
도 2는 도 1에 도시된 손등 혈관패턴 인식 장치의 내부를 도시한 도면이다.
도 3은 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치의 블럭구성도이다.
도 4는 본 발명의 실시예에 따른 손등 혈관패턴 인식 방법을 개괄적으로 설명하기 위한 플로우차트이다.
도 5는 도 4에 도시된 기울기선 생성 과정의 일 예를 보다 구체적으로 설명하기 위한 플로우차트이다.
도 6 내지 도 12는 도 5의 설명에 채용되는 도면이다.
도 13은 도 4에 도시된 기울기선 생성 과정의 다른 예를 보다 구체적으로 설명하기 위한 플로우차트이다.
도 14 내지 도 16은 도 13의 설명에 채용되는 도면이다.
도 17은 도 4에 도시된 기울기선 생성 과정의 또 다른 예를 보다 구체적으로 설명하기 위한 플로우차트이다.
도 18은 도 17의 설명에 채용되는 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치의 외관 및 사용예를 설명하기 위한 도면이고, 도 2는 도 1에 도시된 손등 혈관패턴 인식 장치의 내부를 도시한 도면이다.
도 1에서와 같이, 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치는, 장치의 외관을 형성하는 케이스(1)의 전면 상부에 설치되어 장치의 각종의 진행 상황을 문자 등으로 표시하는 표시부(7), 및 표시부(7)의 하부에 설치되어 장치의 진행에 필요한 번호 또는 사용자 등록번호 등을 입력할 수 있는 키입력부(6)를 포함한다.
또한, 케이스(1)의 하부에는 사용자의 손(손등 포함)에 관한 영상 촬영을 위해 손가락을 지지하는 지지대로서의 역할을 하는 손잡이(5)가 설치되어 있다.
한편, 도 2에서와 같이, 케이스(1)의 내부에는 소정 공간을 확보하면서 하부가 개구되어 있는 경통(4)이 설치되어 있다.
경통(4)의 내부벽에는 근적외선을 흡수할 수 있는 흡수체가 도포되어 있어서 외부 빛의 영향을 최소화시킬 수 있다. 여기서, 경통(4)은 상부에서 하부의 방향으로 갈수록 개구부의 너비(폭)가 넓어지는 상협하광의 형태를 취할 수 있다.
경통(4)의 개구부 끝단에는 외부 조명을 차단하는 러버(rubber)(9)가 설치된다.
경통(4)의 내부 즉, 러버(9)와는 반대되는 위치(예컨대, 경통(4)내의 상부면)에는 사용자의 손을 촬영하기 위해 하방향을 향해 배치된 카메라(2)가 설치된다. 예를 들어, 카메라(2)는 CCD 또는 CMOS 카메라일 수 있다.
또한, 카메라(2)의 양측에는 손등의 혈관패턴을 강조하기 위해 사용자의 손등으로 빛을 조명하는 근적외선 조명(3)이 각각 설치된다.
경통(4)의 내부에는 근적외선 필터(8)가 설치된다.
근적외선 필터(8)는 카메라(2)와 근적외선 조명(3)의 하단부에 설치되어 사용자의 손등의 혈관패턴을 강조한다.
특히, 경통(4)은 사용자가 손을 움직이더라도 촬영 범위에서 벗어나지 않는 손등 검출 영역인 ROI(Region of Interest; 관심영역) 영상 촬영을 위한 초점거리를 확보할 수 있다.
사용자가 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치가 설치된 장소를 입장하기 위해서는 우선적으로 개인 식별 과정을 거치게 된다. 이 경우, 사용자가 장치 정면으로 손을 삽입하여 손잡이(5)를 감싸쥐게 되면 사용자의 손등은 경통(4)의 개구부측과는 이격되고, 특히 경통(4)은 상협하광 구조로 되어 있기 때문에 사용자의 손(손등 포함)을 전체적으로 촬영할 수 있게 된다.
도 3은 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치의 블럭구성도이다.
본 발명의 실시예에 따른 손등 혈관패턴 인식 장치는 키입력부(6), 표시부(7), 촬영부(10), 등록 처리부(12), 템플레이트 저장부(14), 인터페이스부(16), 기울기선 생성부(18), 매칭부(20), 식별부(22), 및 제어부(24)를 포함할 수 있다.
키입력부(6) 및 표시부(7)에 대해서는 앞서 설명하였으므로, 더 이상의 설명은 생략한다.
촬영부(10)는 사용자의 손등을 포함하는 손을 촬영할 수 있다. 여기서, 손등은 손등의 혈관패턴, 및 손의 너클(knuckle)을 포함할 수 있다.
예를 들어, 촬영부(10)에서 촬영된 사용자의 손등 영상(즉, 원시영상)은 등록을 위해 정지 화상형태로 등록 처리부(12)에게로 인가될 수 있다. 물론, 촬영부(10)에서 촬영된 사용자의 손등 영상(즉, 원시영상)은 개인식별을 위해 정지 화상형태로 기울기선 생성부(18)에게로 인가될 수 있다.
촬영부(10)는 카메라(2), 근적외선 조명(3), 경통(4), 및 근적외선 필터(8) 등을 포함할 수 있다.
상술한 바와 같은 촬영부(10)에 따르면, 근적외선 조명(3)이 근적외선을 하부 쪽으로 방사하고, 근적외선은 근적외선 필터(8)를 통해 손등으로 조사된 후 손등에 의해 반사되어 다시 근적외선 필터(8)를 거치게 된다. 따라서, 카메라(2)는 근적외선 필터(8)를 거쳐 전달되는 손등에 관한 영상을 감지한 후 그 영상 신호를 정지 화상 데이터로 변환하고 이를 등록 처리부(12) 또는 기울기선 생성부(18)에게로 전달할 수 있다.
등록 처리부(12)는 사용자 등록을 위한 촬영부(10)로부터의 사용자별 손등 원시영상을 근거로 사용자 등록을 처리한다.
즉, 등록 처리부(12)는 사용자의 고유 신원 등록을 위해 사용자별 손등 원시영상을 근거로 사용자별 템플레이트(template)를 생성하여 템플레이트 저장부(14)에 저장할 수 있다.
예를 들어, 사용자별 템플레이트는 사용자별 손등의 원시영상에 대하여 노이즈제거를 행한 후에 이진영상(Binary image) 형태로 변환시킨 것일 수 있다. 다시 말해서, 등록 처리부(12)는 촬영부(10)를 통해 촬영된 사용자의 손등 원시영상의 노이즈를 제거한다. 그리고, 등록 처리부(12)는 노이즈 제거된 손등 원시영상을 이진영상으로 변환시킨다. 원시영상을 이진영상 형태로 변환시키면 혈관 부위와 비혈관 부위를 구분할 수 있기 때문이다. 이어, 등록 처리부(12)는 이진영상에서 사용자의 손등의 전체 혈관패턴을 추출하고, 추출된 전체 혈관패턴으로부터 센트로이드(centroid)를 계산하여 해당 전체 혈관패턴의 무게중심점을 찾는다. 이와 같이 찾은 무게중심점을 혈관패턴 센트로이드라고 한다. 결국, 혈관패턴 센트로이드는 손등에 존재하는 전체 혈관패턴의 무게중심을 의미하는 것으로서, 예컨대 점으로 표현될 수 있다. 그리고 나서, 등록 처리부(12)는 해당 사용자의 손등의 혈관패턴 및 혈관패턴 센트로이드를 포함하는 이진영상을 템플레이트라고 하여 템플레이트 저장부(14)에 저장시킨다. 물론, 해당 사용자의 손등의 혈관패턴 및 혈관패턴 센트로이드 이외로, 템플레이트 기울기선을 템플레이트에 포함시켜서 템플레이트 저장부(14)에 저장시킬 수 있다. 여기서, 템플레이트 기울기선은 혈관패턴 센트로이드를 지나는 선으로서 해당 템플레이트의 기울기에 따라 일정 방향(예컨대, 세로방향)으로 형성될 수 있다.
손의 입수방향이 다소 차이가 나더라도 손등에서의 혈관패턴 센트로이드의 위치는 꾸준히 같은 위치를 표시하게 되므로, 본 발명의 실시예에서는 이러한 혈관패턴 센트로이드를 손등영상의 회전왜곡 보정에 활용하기 위해 이용한다.
템플레이트 저장부(14)는 사용자별 템플레이트가 저장된다.
본 발명의 실시예에서, 사용자별 템플레이트는 사용자별 손등의 혈관패턴, 사용자별 손등의 혈관패턴 센트로이드, 및 템플레이트 기울기선을 포함한다고 볼 수 있다.
인터페이스부(16)는 제어부(24)의 제어에 따라 외부장치와의 데이터 및 제어 통신 기능을 수행할 수 있다.
기울기선 생성부(18)는 타겟영상과 템플레이트간의 비교(예컨대, 대조)를 용이하게 하도록 하는 기울기선을 생성할 수 있다. 여기서, 타겟영상은 개인식별을 위해 현재 촬영된 사용자의 손등 원시영상을 기반으로 생성된 영상일 수 있다. 다시 말해서, 타겟영상은 템플레이트 저장부(14)에 저장되어 있는 사용자별 템플레이트와 비교하기 위해 촬영부(10)에서 촬영된 사용자의 손의 원시영상을 변환시킨 영상일 수 있다. 예를 들어, 타겟영상은 원시영상과 동일하거나 색상 조정 등에 의해 약간 변형된 영상일 수 있다.
기울기선을 생성하기 위해서는, 기울기선 생성부(18)는 촬영된 사용자의 손등 원시영상을 타겟영상으로 변환시키는 것을 우선적으로 수행할 것이다.
본 발명의 실시예에서, 기울기선 생성부(18)는 타겟영상에서 사용자의 손의 센터 너클(center knuckle)의 끝점과 손등의 혈관패턴 센트로이드(centroid; 무게중심)를 서로 연결시킨 직선의 연결선을 생성할 수 있다. 여기서, 연결선을 제 1 기울기선이라고 할 수 있다.
한편, 기울기선 생성부(18)는 타겟영상에서 사용자의 손의 좌우 외곽라인의 중심선 및 손등의 혈관패턴 센트로이드(centroid; 무게중심)를 이용하여 직선의 중심 기준선을 생성할 수 있다. 여기서, 중심 기준선을 제 2 기울기선이라고 할 수 있다.
한편, 기울기선 생성부(18)는 타겟영상에서 상술한 제 1 기울기선과 제 2 기울기선을 근거로 생성한 직선의 평균 기울기선을 생성할 수 있다. 여기서, 평균 기울기선을 제 3 기울기선이라고 할 수 있다.
결국, 기울기선 생성부(18)는 하나의 타겟영상에 대해 제 1 기울기선과 제 2 기울기선 및 제 3 기울기선 중에서 하나 이상을 생성할 수 있다.
상술한 제 1 기울기선과 제 2 기울기선 및 제 3 기울기선은 모두 직선이므로, 기울기선 생성부(18)는 제 1 기울기선의 기울기를 구할 수 있고, 제 2 기울기선의 기울기를 구할 수 있으며, 제 3 기울기선의 기울기를 구할 수 있을 것이다.
한편으로, 기울기선 생성부(18)는 제 1 기울기선을 타겟영상에 표시할 수 있고, 제 2 기울기선을 타겟영상에 표시할 수 있고, 제 3 기울기선을 타겟영상에 표시할 수 있다.
이와 같이 기울기선 생성부(18)는 제 1 기울기선이 표시된 타겟영상을 매칭부(20)에게로 인가할 수 있고, 제 2 기울기선이 표시된 타겟영상을 매칭부(20)에게로 인가할 수 있고, 제 3 기울기선이 표시된 타겟영상을 매칭부(20)에게로 인가할 수 있다.
상술한 기울기선 생성부(18)에서의 기울기선 생성 동작에 대한 보다 구체적인 설명은 후술하기로 한다.
매칭부(20)는 타겟영상의 기울기선과 사용자별 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬(align)시켜서 상호간의 혈관패턴 매칭율을 산출할 수 있다.
다시 말해서, 매칭부(20)는 템플레이트의 혈관패턴 센트로이드와 타겟영상의 혈관패턴 센트로이드를 일치시키고, 타겟영상의 기울기선과 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시킴으로써, 타겟영상과 템플레이트간의 혈관패턴 매칭율을 산출할 수 있다.
여기서, 매칭부(20)는 예를 들어 50%, 70%, 80% 등과 같은 수치적으로 표현되는 혈관패턴 매칭율을 산출할 수 있다.
예를 들어, 타겟영상의 제 1 기울기선을 이용하는 경우, 매칭부(20)는 템플레이트의 혈관패턴 센트로이드와 타겟영상의 혈관패턴 센트로이드를 일치시킨 후에 타겟영상의 제 1 기울기선과 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시킨다. 이후, 매칭부(20)는 타겟영상과 템플레이트간의 차이(예컨대, 불일치 정도)를 근거로 타겟영상과 템플레이트가 상호 어느 정도로 매칭되는지를 산출할 수 있다.
다른 예로써, 타겟영상의 제 2 기울기선을 이용하는 경우, 매칭부(20)는 템플레이트의 혈관패턴 센트로이드와 타겟영상의 혈관패턴 센트로이드를 일치시킨 후에 타겟영상의 제 2 기울기선과 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시킨다. 이후, 매칭부(20)는 타겟영상과 템플레이트간의 차이(예컨대, 불일치 정도)를 근거로 타겟영상과 템플레이트가 상호 어느 정도로 매칭되는지를 산출할 수 있다.
또 다른 예로써, 타겟영상의 제 3 기울기선을 이용하는 경우, 매칭부(20)는 템플레이트의 혈관패턴 센트로이드와 타겟영상의 혈관패턴 센트로이드를 일치시킨 후에 타겟영상의 제 3 기울기선과 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시킨다. 이후, 매칭부(20)는 타겟영상과 템플레이트간의 차이(예컨대, 불일치 정도)를 근거로 타겟영상과 템플레이트가 상호 어느 정도로 매칭되는지를 산출할 수 있다.
이때, 타겟영상과 템플레이트가 서로 완벽하게 일치하면 혈관패턴 매칭율은 100%와 같이 높은 값이 되고, 타겟영상과 템플레이트 간의 일치함이 낮아질수록 혈관패턴 매칭율은 낮아지게 될 것이다.
이에 의해, 템플레이트 저장부(14)에 총 50개의 템플레이트가 저장되어 있다고 가정하였을 경우, 매칭부(20)는 하나의 타겟영상에 대하여 제 1 내지 제 3 기울기선 중에서 하나 이상을 근거로 각각의 템플레이트(즉, 50개의 템플레이트)와의 매칭을 실시하여 혈관패턴 매칭율을 산출할 수 있다.
예를 들어, 매칭부(20)는 각각의 기울기선을 근거로 혈관패턴 매칭율을 산출할 수 있다. 본 발명의 실시예에서는 제 1 기울기선을 근거로 혈관패턴 매칭율을 산출하는 것을 메인으로 할 수 있다. 다르게는, 매칭부(20)는 제 1 기울기선에 의한 혈관패턴 매칭율을 산출하고 식별부(22)에서 사용자 식별이 안되면 제 2 기울기선을 이용하여 혈관패턴 매칭율을 산출할 수 있다. 또 다르게는, 매칭부(20)는 제 1 기울기선에 의한 혈관패턴 매칭율을 산출하고 식별부(22)에서 사용자 식별이 안되면 제 3 기울기선을 이용하여 혈관패턴 매칭율을 산출할 수 있다. 물론, 필요에 따라서는, 매칭부(20)는 제 1 기울선에 의한 혈관패턴 매칭율을 산출하고, 식별부(22)에서 제 1 기울선에 의한 혈관패턴 매칭율을 근거로 사용자 식별이 안되면 제 2 기울기선에 의한 혈관패턴 매칭율을 산출하고, 식별부(22)에서 제 2 기울선에 의한 혈관패턴 매칭율을 근거로 사용자 식별이 안되면 제 3 기울기선에 의한 혈관패턴 매칭율을 산출할 수 있다.
식별부(22)는 기설정된 식별 임계치를 근거로, 매칭부(20)에서의 혈관패턴 매칭율에 따라 사용자 식별을 행할 수 있다. 예를 들어, 식별 임계치는 80%로 기설정될 수 있다. 상기 예시한 기설정된 식별 임계치의 수치는 하나의 예일 뿐, 이에 국한되는 것은 아니다. 식별 임계치는 얼마든지 조정가능하다.
앞서 설명한 바와 같이, 매칭부(20)는 기울기선 생성부(18)에서의 제 1 기울기선과 제 2 기울기선 및 제 3 기울기선 중에서 하나 이상을 이용하여 타겟영상과 각각의 템플레이트 간의 혈관패턴 매칭율을 산출하므로, 식별부(22)는 매칭부(20)에서의 혈관패턴 매칭율을 토대로 개인식별을 할 수 있다.
예를 들어, 식별 임계치가 80%로 설정되어 있고, 타겟영상과 제 1 템플레이트 간의 제 1 기울기선에 의한 혈관패턴 매칭율은 90%이고, 타겟영상과 제 1 템플레이트 간의 제 2 기울기선에 의한 혈관패턴 매칭율은 76%이고, 타겟영상과 제 1 템플레이트 간의 제 3 기울기선에 의한 혈관패턴 매칭율은 72%라고 가정한다. 이 경우, 식별부(22)는 제 1 기울기선에 의한 혈관패턴 매칭율만이 식별 임계치(예컨대, 80%)를 초과하였으므로, 현재 사용자를 제 1 템플레이트의 사용자인 것으로 식별할 수 있다.
다른 예로써, 식별 임계치가 75%로 설정되어 있고, 타겟영상과 제 1 템플레이트 간의 제 1 기울기선에 의한 혈관패턴 매칭율은 90%이고, 타겟영상과 제 1 템플레이트 간의 제 2 기울기선에 의한 혈관패턴 매칭율은 76%이고, 타겟영상과 제 1 템플레이트 간의 제 3 기울기선에 의한 혈관패턴 매칭율은 72%라고 가정한다. 이 경우에는 제 1 기울기선에 의한 혈관패턴 매칭율 및 제 2 기울기선에 의한 혈관패턴 매칭율이 식별 임계치를 초과하였으므로, 둘 중에서 보다 높은 혈관패턴 매칭율에 근거하여 현재 사용자를 제 1 템플레이트의 사용자인 것으로 식별할 수 있다.
상술한 바와 같이 현재 사용자를 제 1 템플레이트의 사용자인 것으로 식별한 경우에는 타겟영상과 다른 템플레이트 간의 혈관패턴 매칭율 산출 동작 및 사용자 식별을 더 이상 수행하지 않아도 무방하다. 사용자별 템플레이트는 사용자별로 고유한 것이므로, 현재 사용자를 제 1 템플레이트의 사용자인 것으로 식별하였다면 현재 사용자가 다른 템플레이트의 사용자로 식별될 가능성은 매우 낮으므로, 굳이 후속적인 템플레이트를 이용한 사용자 식별을 추가적으로 수행할 필요가 없을 것이다.
또 다른 예로써, 식별 임계치가 80%로 설정되어 있는데, 타겟영상과 제 1 템플레이트 간의 제 1 기울기선에 의한 혈관패턴 매칭율, 제 2 기울기선에 의한 혈관패턴 매칭율, 및 제 3 기울기선에 의한 혈관패턴 매칭율이 모두 식별 임계치보다 낮다면, 식별부(22)는 제 1 템플레이트로는 타겟영상의 신원을 식별할 수 없다고 판정한다. 그에 따라, 이러한 경우에는 식별부(22)는 제 1 템플레이트로는 타겟영상의 신원을 식별할 수 없음을 알리는 신호를 제어부(24)에게로 전송한다. 이어, 제어부(24)는 후속적인 템플레이트(즉, 제 2 템플레이트)와 타겟영상과의 혈관패턴 매칭율에 의한 사용자 식별이 재차 이루어지도록 제어할 수 있다.
상기의 식별부(22)에 대한 설명에서는, 타겟영상과 하나의 템플레이트를 제 1 기울기선에 의한 혈관패턴 매칭율, 제 2 기울기선에 의한 혈관패턴 매칭율, 및 제 3 기울기선에 의한 혈관패턴 매칭율로 사용자식별을 하되, 만약 사용자가 식별되지 않으면 타겟영상와 다른 템플레이트를 재차 제 1 기울기선에 의한 혈관패턴 매칭율, 제 2 기울기선에 의한 혈관패턴 매칭율, 및 제 3 기울기선에 의한 혈관패턴 매칭율로 사용자식별을 하는 것처럼 설명하였다. 그러나, 이와 다소 다른 방식으로 사용자 식별을 행할 수도 있다. 예를 들어, 제 1 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하여 혈관패턴 매칭율이 식별 임계치가 초과하는 경우가 없다면 제 2 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하여 사용자 식별을 행하도록 할 수 있다. 한편으로는, 제 1 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하여 혈관패턴 매칭율이 식별 임계치가 초과하는 경우가 없다면 제 3 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하여 사용자 식별을 행하도록 할 수 있다. 또 한편으로는, 제 1 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하여 혈관패턴 매칭율이 식별 임계치가 초과하는 경우가 없다면 제 2 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하고, 제 2 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하여 혈관패턴 매칭율이 식별 임계치가 초과하는 경우가 없다면 제 3 기울기선이 표시된 타겟영상을 템플레이트 저장부(14)에 기저장된 모든 템플레이트와 순차적으로 대조(비교)하는 방식으로 사용자식별을 행할 수도 있다.
제어부(24)는 장치전체의 동작을 제어한다.
제어부(24)는 상술한 제 1 기울기선과 제 2 기울기선 및 제 3 기울기선 중에서 하나 이상을 근거로 타겟영상과 템플레이트간의 매칭 및 사용자 식별이 이루어지도록 제어할 수 있다.
필요에 따라, 제어부(24)는 우선적으로 제 1 기울기선을 근거로 타겟영상과 템플레이트간의 매칭 및 사용자 식별이 이루어지도록 제어할 수 있다. 제 2 기울기선 또는 제 3 기울기선은 보조적으로 이용할 수 있다.
한편으로, 상술한 바와 같이 구성된 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치는 유선 및/또는 무선을 통해 외부의 서버(도시 생략)와 통신할 수 있다. 이 경우, 손등 혈관패턴 인식 장치가 촬영한 사용자의 손(손등 포함) 원시영상을 서버에게 보내면 서버는 사용자별 템플레이트를 저장하고 있어서 서버가 매칭 및 식별을 하여 결과만을 손등 혈관패턴 인식 장치에게로 전송하는 것으로 할 수도 있다.
도 4는 본 발명의 실시예에 따른 손등 혈관패턴 인식 방법을 개괄적으로 설명하기 위한 플로우차트이다.
먼저, 본 발명의 실시예에 따른 손등 혈관패턴 인식 장치가 설치된 장소에 입장하고자 하는 사용자는 장치 정면으로 손을 삽입하여 손잡이(5)를 감싸쥔다. 이때에는 손의 회전왜곡을 최소화하기 위해 사용자는 검지, 중지, 약지 사이에 손잡이(5)를 감싸쥐는 것이 바람직하다.
그에 따라, 촬영부(10)는 해당 사용자의 손등을 전체적으로 촬영하여 손등의 원시영상을 생성하여 기울기선 생성부(18)에게로 인가한다(S100).
이어, 기울기선 생성부(18)는 타겟영상과 템플레이트간의 비교를 용이하게 하도록 하는 기울기선을 생성한다(S110). 여기서, 타겟영상은 개인식별을 위해 현재 촬영된 사용자의 손등의 원시영상을 기반으로 생성된 영상으로서, 템플레이트 저장부(14)에 저장되어 있는 사용자별 템플레이트와 비교되는 영상일 수 있다.
예를 들어, 기울기선 생성부(18)는 기울기선을 생성하기 위해 우선적으로, 촬영된 사용자의 손등 원시영상을 타겟영상으로 변환시킨다. 이후, 기울기선 생성부(18)는 타겟영상에서 사용자의 손의 센터 너클(center knuckle)의 끝점과 손등의 혈관패턴 센트로이드(centroid; 무게중심)를 서로 연결시킨 직선의 연결선(제 1 기울기선), 타겟영상에서 사용자의 손의 좌우 외곽라인의 중심선 및 손등의 혈관패턴 센트로이드(centroid; 무게중심)를 이용하여 직선의 중심 기준선(제 2 기울기선), 및 타겟영상에서 상술한 제 1 기울기선과 제 2 기울기선을 근거로 생성한 직선의 평균 기울기선(제 3 기울기선)을 생성할 수 있다. 상술한 기울기선 생성 과정(S110)에 대해서는 후술하는 도면을 참조하여 보다 상세히 설명한다.
이후, 매칭부(20)는 기울기선 생성부(18)에서 생성한 제 1 기울기선과 제 2 기울기선 및 제 3 기울기선 중에서 하나 이상을 근거로 타겟영상을 각각의 템플레이트에 정렬(align)시킨 후에 타겟영상과 템플레이트 간의 혈관패턴 매칭율을 산출한다(S120).
예를 들어, 타겟영상의 제 1 기울기선을 이용하는 경우, 매칭부(20)는 템플레이트의 혈관패턴 센트로이드와 타겟영상의 혈관패턴 센트로이드를 일치시킨 후에 타겟영상의 제 1 기울기선과 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시킨다. 이후, 매칭부(20)는 타겟영상과 템플레이트간의 차이(예컨대, 불일치 정도)를 근거로 타겟영상과 템플레이트가 상호 어느 정도로 매칭되는지를 산출할 수 있다.
다른 예로써, 타겟영상의 제 2 기울기선을 이용하는 경우, 매칭부(20)는 템플레이트의 혈관패턴 센트로이드와 타겟영상의 혈관패턴 센트로이드를 일치시킨 후에 타겟영상의 제 2 기울기선과 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시킨다. 이후, 매칭부(20)는 타겟영상과 템플레이트간의 차이(예컨대, 불일치 정도)를 근거로 타겟영상과 템플레이트가 상호 어느 정도로 매칭되는지를 산출할 수 있다.
또 다른 예로써, 타겟영상의 제 3 기울기선을 이용하는 경우, 매칭부(20)는 템플레이트의 혈관패턴 센트로이드와 타겟영상의 혈관패턴 센트로이드를 일치시킨 후에 타겟영상의 제 3 기울기선과 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시킨다. 이후, 매칭부(20)는 타겟영상과 템플레이트간의 차이(예컨대, 불일치 정도)를 근거로 타겟영상과 템플레이트가 상호 어느 정도로 매칭되는지를 산출할 수 있다.
마지막으로, 식별부(22)는 기설정된 식별 임계치를 근거로, 매칭부(20)에서의 혈관패턴 매칭율에 따른 사용자 식별을 행한다(S130). 예를 들어, 식별 임계치가 80%로 설정되고, 타겟영상과 제 1 템플레이트 간의 제 1 기울기선에 의한 혈관패턴 매칭율은 90%이고, 타겟영상과 제 1 템플레이트 간의 제 2 기울기선에 의한 혈관패턴 매칭율은 76%이고, 타겟영상과 제 1 템플레이트 간의 제 3 기울기선에 의한 혈관패턴 매칭율은 72%라고 가정한다. 이 경우, 식별부(22)는 제 1 기울기선에 의한 혈관패턴 매칭율만이 식별 임계치를 초과하였으므로, 현재 사용자를 제 1 템플레이트의 사용자인 것으로 식별할 수 있다.
다른 예로써, 식별 임계치가 75%로 설정되어 있고, 타겟영상과 제 1 템플레이트 간의 제 1 기울기선에 의한 혈관패턴 매칭율은 90%이고, 타겟영상과 제 1 템플레이트 간의 제 2 기울기선에 의한 혈관패턴 매칭율은 76%이고, 타겟영상과 제 1 템플레이트 간의 제 3 기울기선에 의한 혈관패턴 매칭율은 72%라고 가정한다. 이 경우에는 제 1 기울기선에 의한 혈관패턴 매칭율 및 제 2 기울기선에 의한 혈관패턴 매칭율이 식별 임계치를 초과하였으므로, 둘 중에서 보다 높은 혈관패턴 매칭율에 근거하여 현재 사용자를 제 1 템플레이트의 사용자인 것으로 식별할 수 있다.
또 다른 예로써, 식별 임계치가 80%로 설정되어 있는데, 타겟영상과 제 1 템플레이트 간의 제 1 기울기선에 의한 혈관패턴 매칭율, 제 2 기울기선에 의한 혈관패턴 매칭율, 및 제 3 기울기선에 의한 혈관패턴 매칭율이 모두 식별 임계치보다 낮다면, 식별부(22)는 제 1 템플레이트로는 타겟영상의 신원을 식별할 수 없다고 판정한다.
그에 따라, 이와 같이 타겟영상의 신원을 식별할 수 없을 경우에는 식별부(22)는 제 1 템플레이트로는 타겟영상의 신원을 식별할 수 없음을 알리는 신호를 제어부(24)에게로 전송한다. 이어, 제어부(24)는 후속적인 템플레이트와 타겟영상과의 혈관패턴 매칭율에 의한 사용자 식별이 재차 이루어지도록 제어할 수 있다.
도 5는 도 4에 도시된 기울기선 생성 과정의 일 예를 보다 구체적으로 설명하기 위한 플로우차트이고, 도 6 내지 도 12는 도 5의 설명에 채용되는 도면이다.
사람의 손에는 도 6에 예시한 바와 같이 손과 손가락이 연결되는 5개의 관절(즉, 너클(knuckle))이 있다.
손등을 촬상하기 전에 손의 회전왜곡을 최소화하기 위해 사용자는 검지, 중지, 약지 사이에 손잡이(5)를 감싸쥔다.
이후, 촬영부(10)는 사용자의 손등 영역을 촬영하게 되는데, 이때 사용자의 손등은 경통(4)의 개구부측과는 이격되고 경통(4)은 상협하광 구조로 되어 있기 때문에 사용자의 손등을 전체적으로 촬영할 수 있다.
그에 따라, 촬영부(10)는 도 7에 예시된 바와 같은 사용자의 손등 원시영상을 기울기선 생성부(18)에게로 인가한다. 기울기선 생성부(18)는 사용자의 손등 원시영상을 타겟영상으로 변환한다.
이후, 기울기선 생성부(18)는 제 1 기울기선을 생성하기 위해, 타겟영상에서 사용자의 손의 너클이 있는 영상 부분(도 8에서 A영역)을 크로핑(cropping)한다(S12). 도 8은 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다. 동종업계에 종사하는 자라면 주지의 기술을 통해 영상 크로핑 기법을 충분히 파악할 수 있으리라 본다.
그리고 나서, 기울기선 생성부(18)는 도 9의 (a),(b),(c)에서와 같이 크로핑한 영상을 소정의 필터(예컨대, 가우시안 필터)를 사용하여 평활화를 한 후에 화소의 밝기정보를 이용한 등고선을 활용하여 손의 너클의 외곽정보를 추출한다(S14). 도 9의 (a)는 크로핑한 영상을 가우시안 필터를 사용하여 평활화를 함에 따른 영상이고, 도 9의 (b)는 화소의 밝기정보를 이용한 등고선을 활용하여 생성한 영상이고, 도 9의 (c)는 손의 너클의 외곽정보를 보여주는 영상이다. 도 9의 (a), (b), (c)는 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다.
이어, 기울기선 생성부(18)는 도 10에서와 같이 추출된 손의 너클의 외곽정보로부터 센터 너클의 끝점(23)을 추출한다(S16). 도 10은 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다.
한편으로, 기울기선 생성부(18)는 타겟영상에서 사용자의 손등의 전체 혈관패턴을 추출하고(S18), 도 11에서와 같이 추출된 전체 혈관패턴으로부터 센트로이드(centroid)를 계산하여 해당 전체 혈관패턴의 무게중심점을 찾는다. 이와 같이 찾은 무게중심점을 혈관패턴 센트로이드(25)라고 한다(S20). 도 11에서는 일부만 표시된 것으로 보이지만, 손등 전체의 영상이라고 보는 것이 바람직하다.
이후, 기울기선 생성부(18)는 도 12에서와 같이 사용자의 손의 센터 너클(center knuckle)의 끝점(23)과 혈관패턴 센트로이드(centroid; 무게중심)(25)를 연결한 직선의 연결선(제 1 기울기선)(26)을 생성한다(S22). 도 12에서, 연결선(26)은 사용자의 손의 센터 너클의 끝점(23)과 혈관패턴 센트로이드(25)만을 서로 연결시킨 것으로 하였으나, 필요에 따라서는 연결선(26)이 혈관패턴 센트로이드(25)를 지나 하방으로 더 도시되어도 무방하다. 도 12는 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다.
이와 같이 제 1 기울기선을 생성하게 되면, 이후 매칭부(20)에서 제 1 기울기선을 근거로 해당 타겟영상을 각각의 템플레이트에 정렬(align)시킨 후에 상호간의 혈관패턴 매칭율을 산출할 것이다.
도 13은 도 4에 도시된 기울기선 생성 과정의 다른 예를 보다 구체적으로 설명하기 위한 플로우차트이고, 도 14 내지 도 16은 도 13의 설명에 채용되는 도면이다.
먼저, 기울기선 생성부(18)는 도 14에서와 같이 촬영된 사용자의 손등의 원시영상을 이진영상으로 변환시켜서 얻은 타겟영상에서 손의 윤곽선(32)을 추출한다(S52). 물론, 이와 함께 기울기선 생성부(18)는 앞서 설명한 바와 같이 타겟영상에서 사용자의 손등의 전체 혈관패턴을 추출하고(S18), 추출된 전체 혈관패턴으로부터 센트로이드(centroid)를 계산하여 해당 전체 혈관패턴의 무게중심점을 찾는다. 이와 같이 찾은 무게중심점을 혈관패턴 센트로이드(25)라고 한다(S20). 도 14는 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다.
이어, 기울기선 생성부(18)는 도 15에서와 같이 윤곽선(32)의 좌측 외곽라인과 우측 외곽라인으로부터 중앙점을 계산하여 중앙점들을 연결한 중심선(34)을 추출한다(S54). 도 15는 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다.
그리고 나서, 기울기선 생성부(18)는 도 16에서와 같이 중심선(34)을 직선화시키되 혈관패턴 센트로이드(25)를 지나는 직선의 중심 기준선(제 2 기울기선)(36)을 생성한다(S56). 도 16은 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다. 물론, 경우에 따라서는, 중심 기준선이 혈관패턴 센트로이드(25)를 지나지 못할 수도 있는데, 이 경우에는 매칭부(20)에서 적절하게 정렬을 행하여 매칭시킬 수 있다.
이와 같이 제 2 기울기선을 생성하게 되면, 이후 매칭부(20)에서 제 2 기울기선을 근거로 해당 타겟영상을 각각의 템플레이트에 정렬(align)시킨 후에 상호간의 혈관패턴 매칭율을 산출할 것이다.
도 17은 도 4에 도시된 기울기선 생성 과정의 또 다른 예를 보다 구체적으로 설명하기 위한 플로우차트이고, 도 18은 도 17의 설명에 채용되는 도면이다.
먼저, 기울기선 생성부(18)는 타겟영상에서 사용자의 손의 센터 너클(center knuckle)의 끝점과 손등의 혈관패턴의 센트로이드(centroid; 무게중심)와의 연결선(제 1 기울기선)을 생성한다(S72). 여기서, 제 1 기울기선의 생성에 대한 보다 자세한 설명은 도 5 ~ 도 12를 참조하여 설명한 기울기선 생성 과정과 동일하므로, 더 이상의 설명은 생략한다.
그리고, 기울기선 생성부(18)는 타겟영상에서 사용자의 손의 좌우 외곽라인의 중심선 및 손등의 혈관패턴 센트로이드(centroid; 무게중심)를 이용하여 직선의 중심 기준선(제 2 기울기선)을 생성한다(S74). 여기서, 제 2 기울기선의 생성에 대한 보다 자세한 설명은 도 13 ~ 도 16을 참조하여 설명한 기울기선 생성 과정과 동일하므로, 더 이상의 설명은 생략한다.
이와 같이 제 1 기울기선 및 제 2 기울기선을 생성하게 되면, 기울기선 생성부(18)는 제 1 기울기선과 제 2 기울기선을 근거로 생성한 제 3 기울기선을 생성한다(S76). 예를 들어, 기울기선 생성부(18)는 도 18에서와 같이 제 1 기울기선(26)에 의한 기울기와 제 2 기울기선(36)에 의한 기울기를 평균내어 직선의 평균 기울기선(제 3 기울기선)(38)을 생성한다. 대략적으로, 제 3 기울기선(38)은 제 1 기울기선(26)과 제 2 기울기선(36)의 중간 지점(중심)들을 연결하게 되면 생성될 수 있을 것이다. 도 18은 이해를 돕기 위해 원시영상 형태를 보여준 것일 뿐, 실제로는 타겟영상 형태로 보여지는 것으로 이해하는 것이 바람직하다.
이와 같이 제 3 기울기선을 생성하게 되면, 이후 매칭부(20)에서 제 3 기울기선을 근거로 해당 타겟영상을 각각의 템플레이트에 정렬(align)시킨 후에 상호간의 혈관패턴 매칭율을 산출할 것이다.
또한, 상술한 본 발명의 손등 혈관패턴 인식 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
1 : 케이스 2 : 카메라
3 : 근적외선 조명 4 : 경통
5 : 손잡이 6 : 키입력부
7 : 표시부 8 : 근적외선 필터
9 : 러버 10 : 촬영부
12 : 등록 처리부 14 : 템플레이트 저장부
16 : 인터페이스부 18 : 기울기선 생성부
20 : 매칭부 22 : 식별부
24 : 제어부

Claims (15)

  1. 사용자의 손의 원시영상을 촬영하는 촬영부;
    상기 원시영상을 토대로 생성된 타겟영상을 근거로 기울기선을 생성하는 기울기선 생성부;
    상기 타겟영상의 기울기선과 사용자별 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시켜서 상호간의 혈관패턴 매칭율을 산출하는 매칭부; 및
    상기 혈관패턴 매칭율에 따라 사용자 식별을 행하는 식별부;를 포함하고,
    상기 타겟영상의 기울기선은 사용자의 손의 센터 너클의 끝점과 상기 혈관패턴 센트로이드를 서로 연결시킨 선인,
    손등 혈관패턴 인식 장치.
  2. 삭제
  3. 제 1항에 있어서,
    상기 기울기선 생성부는,
    상기 타겟영상에서 사용자의 손등의 전체 혈관패턴을 추출하고, 추출된 전체 혈관패턴으로부터 센트로이드를 계산하여 해당 전체 혈관패턴의 무게중심점을 찾고, 상기 무게중심점을 상기 혈관패턴 센트로이드라고 하는,
    손등 혈관패턴 인식 장치.
  4. 제 1항에 있어서,
    상기 매칭부는,
    상기 템플레이트의 혈관패턴 센트로이드와 상기 타겟영상의 혈관패턴 센트로이드를 일치시키고, 상기 타겟영상의 기울기선과 상기 템플레이트의 템플레이트 기울기선을 정렬시킴으로써, 상기 타겟영상과 상기 템플레이트간의 혈관패턴 매칭율을 산출하는,
    손등 혈관패턴 인식 장치.
  5. 삭제
  6. 제 1항에 있어서,
    상기 기울기선 생성부는,
    상기 타겟영상에서 사용자의 손의 너클이 있는 영역을 크로핑하고, 상기 크로핑한 영상을 영상처리하여 상기 너클의 외곽정보를 추출하고, 상기 외곽정보를 근거로 손의 센터 너클의 끝점을 추출하는,
    손등 혈관패턴 인식 장치.
  7. 삭제
  8. 삭제
  9. 제 1항에 있어서,
    상기 타겟영상의 기울기선은,
    제 1 기울기선과 제 2 기울기선을 조합하여 생성된 제 3 기울기선이되,
    상기 제 1 기울기선은 사용자의 손의 센터 너클의 끝점과 상기 혈관패턴 센트로이드를 서로 연결시킨 선이고,
    상기 제 2 기울기선은 사용자 손의 좌우 외곽라인의 중심선 및 상기 혈관패턴 센트로이드를 이용하여 생성한 선인,
    손등 혈관패턴 인식 장치.
  10. 제 9항에 있어서,
    상기 제 3 기울기선은,
    상기 제 1 기울기선에 의한 기울기와 상기 제 2 기울기선에 의한 기울기를 평균내어 생성한 선인,
    손등 혈관패턴 인식 장치.
  11. 제 1항에 있어서,
    상기 촬영부는,
    케이스의 내부에 형성되어 하부가 개구되되, 상기 하부의 방향으로 갈수록 개구부의 너비가 넓어지는 경통; 및
    상기 경통의 내부에서 사용자의 손을 촬영하기 위해 하방향을 향하도록 배치된 카메라;를 포함하는,
    손등 혈관패턴 인식 장치.
  12. 손등 혈관패턴 인식 장치에서 동작되는 손등 혈관패턴 인식 방법으로서,
    사용자의 손의 원시영상을 촬영하는 단계;
    상기 원시영상을 토대로 생성된 타겟영상을 근거로 기울기선을 생성하는 단계;
    상기 타겟영상의 기울기선과 사용자별 템플레이트의 템플레이트 기울기선을 혈관패턴 센트로이드를 기준으로 정렬시켜서 상호간의 혈관패턴 매칭율을 산출하는 단계; 및
    상기 혈관패턴 매칭율에 따라 사용자 식별을 행하는 단계;를 포함하고,
    상기 타겟영상의 기울기선은 사용자의 손의 센터 너클의 끝점과 상기 혈관패턴 센트로이드를 서로 연결시킨 선인,
    손등 혈관패턴 인식 방법.
  13. 삭제
  14. 제 12항에 있어서,
    상기 기울기선을 생성하는 단계는,
    상기 타겟영상에서 사용자의 손등의 전체 혈관패턴을 추출하고, 추출된 전체 혈관패턴으로부터 센트로이드를 계산하여 해당 전체 혈관패턴의 무게중심점을 찾고, 상기 무게중심점을 상기 혈관패턴 센트로이드라고 하는,
    손등 혈관패턴 인식 방법.
  15. 제 12항에 있어서,
    상기 혈관패턴 매칭율을 산출하는 단계는,
    상기 템플레이트의 혈관패턴 센트로이드와 상기 타겟영상의 혈관패턴 센트로이드를 일치시키고, 상기 타겟영상의 기울기선과 상기 템플레이트의 템플레이트 기울기선을 정렬시킴으로써, 상기 타겟영상과 상기 템플레이트간의 혈관패턴 매칭율을 산출하는,
    손등 혈관패턴 인식 방법.
KR1020210153565A 2021-11-10 2021-11-10 손등 혈관패턴 인식 장치 및 방법 Active KR102370684B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210153565A KR102370684B1 (ko) 2021-11-10 2021-11-10 손등 혈관패턴 인식 장치 및 방법
KR1020220026251A KR102666340B1 (ko) 2021-11-10 2022-02-28 손등 혈관패턴 인식 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210153565A KR102370684B1 (ko) 2021-11-10 2021-11-10 손등 혈관패턴 인식 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220026251A Division KR102666340B1 (ko) 2021-11-10 2022-02-28 손등 혈관패턴 인식 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102370684B1 true KR102370684B1 (ko) 2022-03-07

Family

ID=80817478

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210153565A Active KR102370684B1 (ko) 2021-11-10 2021-11-10 손등 혈관패턴 인식 장치 및 방법
KR1020220026251A Active KR102666340B1 (ko) 2021-11-10 2022-02-28 손등 혈관패턴 인식 장치 및 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220026251A Active KR102666340B1 (ko) 2021-11-10 2022-02-28 손등 혈관패턴 인식 장치 및 방법

Country Status (1)

Country Link
KR (2) KR102370684B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100438418B1 (ko) 2001-09-03 2004-07-02 주식회사 테크스피어 개인식별을 위한 손등 혈관패턴 인식 시스템 및 그 방법
WO2020218656A1 (ko) * 2019-04-26 2020-10-29 엘지전자 주식회사 전자 장치 및 그 제어방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100428540B1 (ko) * 2001-07-03 2004-04-28 주식회사 테크스피어 개인 식별을 위한 손등의 혈관패턴 인식 장치 및 그 방법
JP2008299678A (ja) 2007-05-31 2008-12-11 Chiba Univ 個人認証装置及びそれに用いられる個人認証プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100438418B1 (ko) 2001-09-03 2004-07-02 주식회사 테크스피어 개인식별을 위한 손등 혈관패턴 인식 시스템 및 그 방법
WO2020218656A1 (ko) * 2019-04-26 2020-10-29 엘지전자 주식회사 전자 장치 및 그 제어방법

Also Published As

Publication number Publication date
KR102666340B1 (ko) 2024-05-16
KR20230068247A (ko) 2023-05-17

Similar Documents

Publication Publication Date Title
JP6650946B2 (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
JP3558025B2 (ja) 個人認証装置及び方法
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
US8049596B2 (en) Correlation-based biometric authentication apparatus, authentication method and program
US7864306B2 (en) Personal identification system
US20190392129A1 (en) Identity authentication method
JP2019502198A (ja) 指節及び指静脈基盤の融合型生体認証方法及びその装置
US7760916B2 (en) Registration apparatus, collation apparatus, image correction method and program
JP2002269565A (ja) 回転画像の補正による非接触式アイリス認識方法
KR101025666B1 (ko) 지정맥 특징점 추출 방법 및 장치
US9449217B1 (en) Image authentication
US20180174309A1 (en) Eye Motion Detection Method, Program, Program Storage Medium, and Eye Motion Detection Device
US9118839B2 (en) Personal identification system
WO2010126120A1 (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
KR102370684B1 (ko) 손등 혈관패턴 인식 장치 및 방법
KR102151474B1 (ko) 스마트 단말기를 이용한 비접촉 지문인증 방법
Srinivas et al. Human identification using automatic and semi‐automatically detected facial Marks
KR20110119214A (ko) 얼굴 변화에 강인한 얼굴 인식 방법
KR20120135381A (ko) 동공 경계 정보를 이용한 생체 인식 방법 및 이를 적용하는 장치
JP2004178606A (ja) 個人認証装置及び方法
Lee et al. Improvements in video-based automated system for iris recognition (vasir)
JP2018081469A (ja) 血管画像撮影装置および個人認証システム
KR20110023407A (ko) 얼굴 변화에 강인한 얼굴 인식 방법
Tran et al. A survey of finger vein recognition
KR101718244B1 (ko) 얼굴 인식을 위한 광각 영상 처리 장치 및 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20211110

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20211110

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20220104

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20220225

GRNT Written decision to grant
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20220228

Patent event code: PA01071R01D

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20220228

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20220228

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20250217

Start annual number: 4

End annual number: 4