[go: up one dir, main page]

KR102090956B1 - 지문 인식 방법 및 이를 위한 장치 - Google Patents

지문 인식 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR102090956B1
KR102090956B1 KR1020130081021A KR20130081021A KR102090956B1 KR 102090956 B1 KR102090956 B1 KR 102090956B1 KR 1020130081021 A KR1020130081021 A KR 1020130081021A KR 20130081021 A KR20130081021 A KR 20130081021A KR 102090956 B1 KR102090956 B1 KR 102090956B1
Authority
KR
South Korea
Prior art keywords
fingerprint
input
user
unit
fingerprint recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020130081021A
Other languages
English (en)
Other versions
KR20150007082A (ko
Inventor
윤성진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130081021A priority Critical patent/KR102090956B1/ko
Priority to US14/328,200 priority patent/US9858467B2/en
Publication of KR20150007082A publication Critical patent/KR20150007082A/ko
Application granted granted Critical
Publication of KR102090956B1 publication Critical patent/KR102090956B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)

Abstract

사용자로부터 입력되는 지문 입력의 방향을 추적함으로써 상기 지문 입력을 입력한 사용자에 대한 인증을 빠르고 정확하게 할 수 있도록 하는 지문 인식 방법 및 이를 위한 장치를 제공한다. 본 발명에 따른 지문 인식 방법은, 사용자로부터 입력되는 지문 입력을 감지하는 과정과, 상기 지문 입력의 방향각을 포함하는 지문 데이터를 생성하는 과정과, 상기 방향각을 기초로 상기 지문 입력을 입력한 사용자를 인증하는 과정을 포함한다.

Description

지문 인식 방법 및 이를 위한 장치{A METHOD FOR DETECTING A FINGER PRINT AND AN APPARATUS THEREFOR}
본 발명은 지문 인식 방법 및 이를 위한 장치에 관한 것으로, 더욱 자세히는 사용자로부터 입력되는 지문 입력의 방향을 결정함으로써 상기 지문 입력을 입력한 사용자에 대한 인증을 빠르고 정확하게 할 수 있도록 하는 지문 인식 방법 및 이를 위한 장치에 관한 것이다.
지문은 사람이 가지고 있는 신뢰성 있는 생체 정보 중 하나로, 고유성과 불변의 특성을 지니고 있어 개인 인증에 많이 이용되고 있다. 지문 인식 기술은 크게, 지문의 분류와 정합으로 나누어진다. 지문 분류는 주로 자동화된 지문 인식 시스템의 성능 향상을 위하여 방대한 양의 지문 데이터베이스를 헨리식 분류법 등에 따라 클래스(예를 들어, 와상문, 궁상문, 솟은 궁상문, 좌제상문, 우제상문)로 분류하는 기술을 가리킨다.
이와 같이 주로 개인 인증에 지문 인식기는, 인증을 하고자 하는 사용자로부터 직접 지문을 입력받고, 입력받은 지문이 올바른 사용자의 것인지 여부를 판단함으로써 상기 사용자를 인증한다. 그러나 종래의 지문 인식기는 사용자로부터 입력되는 지문의 방향이 지문 인식 센서와 동일한 방향, 즉 정방향이 아니면 상기 사용자의 지문을 인식하지 못하는 단점을 지니고 있다. 그에 따라 지문 인식기를 사용하는 사용자들은 한 번의 개인 인증을 위하여 여러 번 지문을 입력해야 하는 불편을 겪고 있기도 하다.
본 발명의 목적은 사용자로부터 입력되는 지문 데이터의 방향을 추적함으로써 상기 지문 데이터에 대한 개인 인증을 빠르고 정확하게 할 수 있도록 하는 지문 인식 방법 및 이를 위한 장치를 제공함에 있다.
본 발명의 일 실시예에 따른 지문 인식 기기의 지문 인식 방법은, 상기 지문 인식 기기의 지문 센서에 의해, 상기 지문 센서로 입력된 사용자 손가락에 의한 사용자의 입력에 대응하는 이미지를 생성하는 동작, 상기 지문 인식 기기의 제어기에 의해, 상기 생성된 이미지의 크기가 미리 결정된 크기보다 크면, 상기 사용자 입력을 상기 지문 인식 기기에 입력된 지문으로 결정하는 동작, 상기 제어기에 의해, 상기 이미지의 방향각을 측정하는 동작, 상기 방향각은 상기 지문 인식 기기에 입력된 상기 사용자의 지문의 입력 각도와 동일하며, 상기 제어기에 의해, 상기 지문 인식 기기에 미리 저장된 적어도 하나의 지문 이미지를 상기 방향각만큼 회전시킨 적어도 하나의 비교 데이터를 생성하는 동작, 상기 제어기에 의해, 상기 이미지를 상기 적어도 하나의 비교 데이터와 비교하는 동작, 및 상기 제어기에 의해, 상기 이미지 및 상기 적어도 하나의 비교 데이터가 일치하는 경우, 상기 사용자에 대한 인증이 성공한 것으로 결정하는 동작을 포함한다.
본 발명의 일 실시예에 따른 지문 인식 기기는, 사용자 입력에 대응하는 이미지를 생성하는 지문 센서 및 제어부를 포함하며, 상기 제어부는, 상기 생성된 이미지의 크기가 미리 결정된 크기보다 크면, 상기 사용자 입력을 상기 지문 인식 기기에 입력된 지문으로 결정하고, 상기 이미지의 방향각을 측정하고, 상기 방향각은 상기 지문 인식 기기에 입력된 상기 사용자의 지문의 입력 각도와 동일하며, 상기 지문 인식 기기에 미리 저장된 적어도 하나의 지문 이미지를 상기 방향각만큼 회전시킨 적어도 하나의 비교 데이터를 생성하고, 상기 이미지 및 상기 적어도 하나의 비교 데이터가 일치하는 경우, 상기 사용자에 대한 인증이 성공한 것으로 결정하도록 구성된다.
본 발명에 따르면, 사용자로부터 입력되는 지문 입력의 방향을 결정함으로써 상기 지문 입력을 입력한 사용자에 대한 인증을 빠르고 정확하게 할 수 있도록 하는 지문 인식 방법 및 이를 위한 장치를 제공한다.
도 1은 본 발명의 일 실시예에 따른 지문 인식 기기의 구성을 도시한 블록도이고,
도 2a 내지 도 2c는 도 1에 도시된 지문 인식 기기에 의하여 인식될 수 있는 지문 입력을 나타낸 도면,
도 3는 도 1에 도시된 지문 인식 기기가 포함되도록 구현된 모바일 단말기의 구성을 도시한 블록도,
도 4는 도 3에 도시된 모바일 단말기의 전면 사시도,
도 5는 도 3에 도시된 모바일 단말기의 후면 사시도,
도 6은 도 1에 도시된 지문 인식 기기에서의 지문 인식 방법의 일 예를 나타낸 순서도,
도 7은 도 1에 도시된 지문 인식 기기에서의 지문 인식 방법의 다른 예를 나타낸 순서도,
도 8은 도 1에 도시된 지문 인식 기기에 의하여 인식될 수 있는 지문 입력의 다른 예를 나타낸 도면,
도 9는 도 1에 도시된 지문 인식 기기에 의하여 인식될 수 있는 지문 입력의 또 다른 예를 나타낸 도면, 그리고
도 10a 내지 도 10c는 지문 인식 기기를 포함하는 모바일 단말기가 지문 인식 기능을 이용하는 실시예들을 나타낸 도면들이다.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 1은 본 발명의 일 실시예에 따른 지문 인식 기기의 구성을 도시한 블록도이다.
도 1을 참조하면, 지문 인식 기기(1)는, 제어부(110), 지문 인식부(60) 및 저장부(175)를 포함할 수 있다.
지문 인식부(60)는 사용자로부터 지문(finger print)을 입력받는다. 이를 위하여 지문 인식부(60)는 지문 스캐너(62) 및 터치스크린(190) 중 적어도 하나를 포함하는 형태로 구현될 수 있다. 지문 스캐너(62)는 지문 인식 센서라고 칭할 수도 있다.
지문 스캐너(62)는 지문 인식 기기(1)를 사용하는 사용자의 지문을 스캔한다. 실시예에 따라 지문 스캐너(62)는 지문 인식 기기(1)에 별도로 구비되어 사용자로부터 지문을 입력받을 수 있다. 예를 들어, 사용자는 지문 스캐너(62)로서 구현된 별도의 입력부에 지문이 포함된 손가락의 일부를 접촉시킴으로써 상기 손가락에 해당하는 지문을 지문 인식 기기(1)에 입력할 수 있다. 지문이 포함된 손가락의 적어도 일부가 별도의 입력부에 접촉되면, 지문 스캐너(62)는, 상기 지문이 포함된 손가락의 적어도 일부를 스캔하여 이미지(지문 이미지)를 생성한다. 이하에서는, 설명의 편이를 위하여 사용자 입력으로서 입력된 지문을 ‘지문 입력’이라 하고, 지문 인식부(62)가 상기 지문 입력을 입력받아 생성한 이미지를 ‘지문 이미지’라 하기로 한다. 또는 지문 입력은 입력 지문 또는 사용자 입력 지문이라고 칭할 수도 있다.
터치스크린(190)은, 지문 인식 센서(미도시)를 포함함으로써, 지문 인식 기능을 구비하도록 설계될 수 있다. 그에 따라 터치스크린(190)은 상기 터치스크린(190) 상의 어떤 지점에서든 사용자로부터 입력되는 터치 입력, 예를 들어 지문을 사용자 입력으로서 입력받아 지문 이미지를 생성할 수 있다. 본 실시예에서 지문 인식 기기(1)는 미리 정해진 기준에 따라 사용자에게 지문 입력을 요청할 수 있다. 예를 들어, 지문 인식 기기(1)와 연계된 어플리케이션들의 보안 수준이 상중하로 나뉜다고 가정한다. 사용자가 보안 수준이 상에 해당하는 어플리케이션을 실행시키고자 하는 경우, 상기 어플리케이션이 실행되기 전에 상기 어플리케이션과 연계된 지문 인식 기기(1)는 사용자에게 지문 입력을 요청할 수 있다.
제어부(110)는 지문 인식 기기(1)의 전반적인 동작을 제어한다. 본 실시예에 따른 제어부(110)는, 지문 인식부(60)를 통해 생성된 지문 이미지를 저장부(175)에 미리 저장된 적어도 하나의 지문과 비교함으로써 사용자 인증을 수행할 수 있다. 이를 위하여 제어부(110)는 지문 분석부(10), 방향각 결정부(30), 지문 보정부(20), 지문 검색부(40) 및 사용자 인증부(50)를 포함할 수 있다.
지문 분석부(10)는 지문 인식부(60)를 통해 생성된 지문 이미지를 분석한다. 본 실시예에 따른 지문 분석부(10)는 지문 이미지를 분석하고, 상기 지문 이미지에 대응하는 지문 데이터를 생성함으로써 상기 지문 입력을 분석할 수 있다. 실시예에 따라 지문 분석부(10)는 지문 인식부(60)에 의하여 지문 이미지가 생성되기 전에, 지문 입력을 분석하고, 상기 분석 결과가 포함된 지문 데이터를 생성할 수도 있다.
본 실시예에서 지문 입력은, 누름 영역 및 호버링 영역을 포함할 수 있다 누름 영역은, 예를 들어 지문 인식 기기(1)를 사용하는 사용자가 지문 인식부(60) 적어도 일부를 손가락의 일부로써 직접 누른 영역이다. 호버링 영역은, 상기 사용자에 의해 누름 영역이 눌러지는 과정에서, 상기 사용자의 손가락의 적어도 일부가 근접한 지문 인식부(60) 상의 특정 영역이다. 바람직하게, 호버링 영역은 사용자에 의해 발생하는 근접 센싱 입력일 수 있다.
예를 들어, 사용자가 오른손 검지손가락의 세 마디 중 첫번째 마디를 이용하여 지문 인식부(60)를 눌렀다고 가정한다. 또한 지문 인식부(60)가 터치 스크린(190)의 형태로 구현되었다고 가정한다. 상기 검지손가락 중 첫번째 마디와 직접 접촉한 지문 인식부(60) 상의 특정 영역은 누름 영역에 해당한다. 상기 검지손가락 중 나머지 두번째 마디 또는 세번째 마디는 지문 인식부(60)에 직접 접촉하지는 않지만, 상기 지문 인식부(60)에 근접하게 된다. 두번째 마디 또는 세번째 마디가 지문 인식부(60)에 근접함에 따라 상기 지문 인식부(60) 상의 일정 범위 내에 유지되고 있는 정전용량에 변화가 발생할 수 있다. 상기와 같이 지문 인식부(60) 상에서 정전용량의 변화가 발생한 영역이 호버링 영역에 해당한다.
지문 데이터는 누름 영역 및 호버링 영역 각각에 대응하는 데이터를 포함한다. 지문 데이터는 상기 누름 영역 및 호버링 영역에 대응하는 데이터로서, 영역들 각각의 좌표, 형태, 면적 중 적어도 하나를 포함할 수 있다. 또한 실시예에 따라 지문 분석부(10)는 지문 입력 중에서도 누름 영역에 포함된 지문 패턴 등을 스캔(scan)하도록 지문 인식부(60)를 제어할 수도 있다. 지문 입력에 대응하는 지문 데이터가 생성되면, 지문 분석부(10)는 상기 지문 데이터를 저장부(175)에 저장할 수 있다.
실시예에 따라 지문 분석부(10)는 지문 인식부(60)를 통해 입력된 사용자 입력(터치 입력)이 지문 입력인지 여부를 판단할 수 있다. 지문 분석부(10)는 사용자 입력에 호버링 영역이 포함되어 있는 경우 상기 사용자 입력을 지문 입력으로 결정할 수도 있다. 또한 실시예에 따라 지문 분석부(10)는 상기 누름 영역의 면적이 저장부(175)에 미리 저장된 기준 면적 이상인 경우 상기 사용자 입력을 지문 입력으로 결정할 수도 있다.
방향각 결정부(30)는 상기 지문 입력에 포함된 지문의 방향각을 측정하여 결정한다. 지문 인식 기기(1)가 지문 인식부(60)를 통해 사용자로부터 지문 입력을 입력받는 경우, 사용자의 손가락들 각각의 위치 및 방향에 따라 지문이 기울어진 형태로 입력될 수 있다. 예를 들어, 사용자가 왼손의 다섯 손가락 지문을 한꺼번에 지문 인식부(60)에 입력한다고 가정한다. 상기 다섯 손가락 중 중지 손가락의 지문이 입력되는 방향을 정방향(방향각 0°)이라고 한다면, 엄지 손가락의 지문이 입력되는 방향은 상기 정방향으로부터 우측으로 기울어진 방향이 된다. 본 실시예에서 지문 입력에 포함된 지문의 방향각은, 예를 들어 상기 중지 손가락의 지문을 기준으로 할 때의 상기 엄지 손가락의 지문이 기울어진 각도이다.
방향각이 결정되면, 제어부(110)의 지문 보정부(20)는 상기 지문을 방향각의 값만큼 역회전시킨 보정 데이터를 생성할 수 있다. 실시예에 따라 지문 보정부(20)는 상기 지문 데이터와 비교하기 위하여 저장부(175)에 미리 저장되어 있는 지문을 상기 방향각만큼 회전시킨 비교 데이터를 생성할 수도 있다.
지문 검색부(40)는 지문 입력에 포함된 지문과 일치하는 지문을 저장부(175)로부터 검색한다. 실시예에 따라 지문 검색부(40)는 지문 보정부(20)에 의해 생성된 보정 데이터와, 저장부(175)에 미리 저장되어 있던 지문을 비교할 수 있다. 다른 실시예에 따라 지문 검색부(40)는 지문 입력에 포함된 지문을, 지문 보정부(20)에 의해 생성된 비교 데이터와 비교할 수 있다. 지문 검색부는 지문 입력에 포함된 지문과 비교 데이터와의 비교 결과 또는 보정 데이터와 저장부(175)에 미리 저장되어 있던 지문과의 비교 결과를 사용자 인증부(50)에 출력할 수 있다.
실시예에 따라 지문 검색부(40)는 보정 데이터와 저장부(175)에 미리 저장되어 있던 지문 간의 유사도 또는 지문 입력에 포함된 지문과 비교 데이터 간의 유사도를 결정할 수 있다. 또한 지문 검색부(40)는 상기 유사도가 저장부(175)에 미리 저장된 유사도 기준값(예를 들어 90%) 이상인 지문만을 저장부(175)로부터 추출할 수도 있다.
사용자 인증부(50)는 지문 인식 기기(1)에 지문 입력을 입력한 사용자를 인증한다. 본 실시예에 따라 지문 입력에 포함된 지문이 지문 인식 기기(1)에 이미 등록되어 있는 지문이면, 사용자 인증부(50)는 상기 지문 입력을 입력한 사용자를 올바른 사용자로서 결정한다. 상기와 같이 사용자에 대한 인증이 성공한다.
반면에 지문 입력에 포함된 지문이 지문 인식 기기(1)에 이미 등록되어 있는 지문이 아니면, 사용자 인증부(50)는 상기 지문 입력을 입력한 사용자는 올바른 사용자가 아닌 것으로 결정한다. 상기와 같이 사용자에 대한 인증이 실패한다.
실시예에 따라 사용자 인증부(50)는 보정 데이터와 저장부(175)에 미리 저장되어 있던 지문 간의 유사도 또는 지문 입력에 포함된 지문과 비교 데이터 간의 유사도를 기초로 하여 사용자의 인증 성공 여부를 결정할 수 있다. 예를 들어 사용자 인증부(50)는 유사도가 95% 이상인 지문이 저장부(175)에 저장되어 있는 경우, 사용자 인증부(50)는 지문 입력에 포함된 지문과 상기 저장부(175)에 저장된 지문을 동일한 지문으로 간주한다. 즉, 상기의 지문 입력을 지문 인식 기기(1)로 입력한 사용자는, 지문 인식 기기(1)에 미리 등록되어 있는 사용자인 것이다. 그에 따라 사용자 인증부(50)는, 지문 입력을 입력한 사용자에 대한 인증이 성공한 것으로 결정한다. 이와 마찬가지로 지문 입력에 포함된 지문을 방향각만큼 역회전시킨 보정 데이터와, 저장부(175)에 미리 저장되어 있던 지문이 95% 이상 일치하면, 상기의 지문 입력을 지문 인식 기기(1)로 입력한 사용자는, 지문 인식 기기(1)에 미리 등록되어있는 사용자인 것이다. 그에 따라 사용자 인증부(50)는 지문 입력을 입력한 사용자에 대한 인증이 성공한 것으로 결정한다.
도 2a 내지 도 2c는 도 1에 도시된 지문 인식 기기에 의하여 인식될 수 있는 지문 입력을 나타낸 도면이다. 또한 도 2a 내지 도 2c는 사용자(200)로부터 터치스크린(190)으로 지문 입력이 입력된 순서대로 도시한 도면이기도 하다.
도 2a 내지 도 2c를 참조하면, 사용자(200)는 검지 손가락의 지문 부분으로 터치스크린(190)을 눌러서 지문 입력을 지문 인식 기기(1)에 입력하고 있다. 도 2a는 사용자(200)의 검지 손가락이 터치스크린(190)을 누르기 전을 나타낸 도면이고, 도 2b는 사용자(200)의 검지 손가락이 터치스크린(190)을 누르고 있을 때를 나타낸 도면이며, 도 2c는 사용자(200)가 검지 손가락이 터치스크린(190)으로부터 떼어내고 있을 때를 나타낸 도면이다.
도 2a를 참조하면 사용자(200)의 검지 손가락이 터치스크린(190)에 직접 닿지 않아 지문 영역(210)은 형성되어 있지 않지만, 터치스크린(190) 상에 호버링 영역(220)은 이미 형성되어 있음을 알 수 있다. 마찬가지로 도 2c에서도 사용자(200)의 검지 손가락이 터치스크린(190)에서 이미 떨어진 이후라 터치스크린(190) 상에 누름 영역(210)은 사라졌지만 호버링 영역(220)은 남아있는 것을 알 수 있다. 본 실시예에 따른 지문 인식부(60)는, 제어부(110)의 제어 하에 도 2a 및 도 2c와 같이 터치스크린(190) 상에 형성된 호버링 영역(220)을 감지할 수 있다.
본 실시예에서 지문 인식부(60)는, 예를 들어 터치스크린(190)의 일정 범위 내에서 발생하는 정전용량의 변화를 감지하여 호버링 영역(220)을 감지할 수 있다. 사용자(200)가 지문 입력을 터치스크린(190)에 입력하기 위해서는, 도 2b에 도시된 바와 같이 터치스크린(190)과 손 사이의 거리를 미리 설정된 거리(이하, 기준 거리(dh)) 이하로 하여야 한다. 사용자(200)의 손이, 터치스크린(190)을 기준으로 하여 기준 거리 이하의 범위로 진입하면 터치스크린(190) 상의 일정하게 유지되었던 정전용량에 변화가 발생한다. 지문 인식부(60)는 이 정전용량의 변화를 감지함으로써, 사용자(200)가 직접적으로 터치스크린(190)을 터치하지 않더라도 지문 입력으로서의 호버링 영역을 검출할 수 있다.
도 2a 및 도 2c와 같이 호버링 영역(220)이 검출되면 지문 분석부(10)는 상기 지문 입력을 분석하여 지문 데이터를 생성할 수 있다. 특히 지문 분석부(10)는 호버링 영역(220)의 좌표, 형태, 면적, 방향 등을 포함하는 지문 데이터를 생성한다. 방향각 결정부(30)는 상기 호버링 영역(220)에 대한 지문 데이터를 이용하여 지문 입력에 포함되는 지문의 방향각을 예측할 수 있다. 도 2a 및 도 2c에서 호버링 영역(220)은 방향 A를 가리키고 있다. 그에 따라 방향각 결정부(30)는 호버링 영역(220)의 방향, 즉 지문 입력의 방향으로 방향 A를 결정할 수 있다.
도 2b에 도시된 지문 입력은 누름 영역(210) 및 호버링 영역(220)을 모두 포함하는 것으로서, 사용자(200)가 지문 인식부(60)를 직접 터치하는 경우에 터치스크린(190)으로 입력된다.
도 3은 도 1에 도시된 지문 인식 기기가 포함되도록 구현된 모바일 단말기의 구성을 도시한 블록도이다.
도 3를 참조하면, 모바일 단말기(100)는 제어부(110), 지문 인식부(60), 저장부(175), 터치스크린(190)을 포함하며, 이동통신 모듈(120), 서브 통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), 입출력 모듈(160), 센서 모듈(170), 전원 공급부(180) 및 터치스크린 스크롤러(195) 중 적어도 하나를 더 포함할 수 있다.
지문 인식부(60)는 사용자로부터 지문을 입력받는다. 도 1에 도시된 바와 같이 지문 인식부(60)는 지문 스캐너(62) 및 터치스크린(190) 중 적어도 하나를 포함하는 형태로 구현될 수 있다. 실시예에 따라 지문 인식부(60)는 지문 인식 센서(미도시)를 구비하는 센서 모듈(170)을 포함하는 형태로 구현될 수 있다.
제어부(110)는 CPU(111), 모바일 단말기(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 모바일 단말기(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 모바일 단말기(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 지문 인식부(60), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190) 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
본 실시예에 따른 제어부(110)는 도 1에 도시된 바와 같이 지문 분석부(10), 방향각 결정부(30), 지문 보정부(20), 지문 검색부(40) 및 사용자 인증부(50)를 포함할 수 있다.
위에서 이미 언급한 바와 같이 본 실시예에 따른 제어부(110)는, 지문 인식부(60)를 통해 입력된 지문 입력을 저장부(175)에 미리 저장된 적어도 하나의 지문과 비교함으로써 사용자 인증을 수행한다.
실시예에 따라 제어부(110)는, 사용자 입력으로서 터치스크린(190)을 통해 감지된 터치 입력에 따른 동작을 수행하도록 모바일 단말기(100)를 제어할 수 있다. 터치스크린(190)을 통해 적어도 한 점을 터치하는 터치 입력이 입력되면, 제어부(110)는 상기 터치 입력에 대응하는 동작을 수행하도록 모바일 단말기(100)를 제어한다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1카메라(151) 및 제2카메라(152) 중 적어도 하나를 포함할 수 있다. 제1카메라(151) 또는 제2카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어, 플래시(미도시))을 포함할 수 있다. 제1카메라(151)는 모바일 단말기(100) 전면에 배치되고, 제2카메라(152)는 모바일 단말기(100)의 후면에 배치될 수 있다. 다른 실시예에 따라 제1카메라(151)와 제2카메라(152)는 인접(예를 들어, 제1카메라(151)와 제2카메라(152)의 간격이 1cm보다 크고, 8cm보다는 작은)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 지문 인식부(60), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 모바일 단말기(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 모바일 단말기(100)에 장착되는 메모리 카드(미도시)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
터치스크린(190)은 사용자에게 다양한 서비스(예를 들어, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(190)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예를 들어, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한 터치스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
본 발명에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과 검출 가능한 간격이 1mm 이하)을 포함할 수 있다. 터치스크린(190)에서 검출 가능한 간격은 모바일 단말기(100)의 성능 또는 구조에 따라 변경될 수 있다.
터치스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
본 실시예에 따른 터치스크린(190)은 상기 터치스크린(190) 상의 적어도 두 지점을 동시에 터치하는 형태로 입력되는 멀티 터치 입력을 수신할 수 있다. 멀티 터치 입력이 입력되면, 터치스크린(190)은 제어부(110)의 제어 하에 드로잉 툴을 표시한다. 또한 상기 멀티 터치 입력 이외의 사용자 입력, 예를 들어 터치 입력이 입력되면, 터치스크린(190)은 제어부(110)의 제어 하에 상기 멀티 터치 입력 이외의 터치 입력에 따라 드로잉 툴에 따른 선 또는 도형을 표시할 수 있다.
서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함한다.
이동통신 모듈(120)은 제어부(110)의 제어 하에 적어도 하나의 안테나(미도시)를 이용하여 모바일 단말기(100)가 외부 장치와 연결되도록 한다. 이때 모바일 단말기(100)와 외부 장치는 이동 통신을 통해 연결될 수 있다. 이동통신 모듈(120)은 모바일 단말기(100)에 입력되는 전화번호를 가지는 휴대폰(미도시), 스마트폰(미도시), 태블릿 PC 또는 다른 장치(미도시)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함할 수 있으며, 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수도 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(미도시)가 설치된 장소에서 인터넷에 연결될 수 있다. 즉 무선랜 모듈(131)은 모바일 단말기(100)의 무선 인터넷 연결을 지원한다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 모바일 단말기(100)와 화상형성장치(미도시) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
모바일 단말기(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 모바일 단말기(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(미도시)를 통해 방송국에서부터 송출되는 방송 신호(예를 들어, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예를 들어 EPS(Electric Program Guide) 또는 ESG(Electric Service Guide)를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS 위성(미도시)에서부터 전파를 수신하고, GPS 위성(미도시)에서부터 모바일 단말기(100)까지 전파도달시간(Time of Arrival)을 이용하여 모바일 단말기(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 모바일 단말기(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(미도), 볼륨 버튼(미도시), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예를 들어, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 모바일 단말기(100) 외부로 출력할 수 있다. 스피커(163)는 모바일 단말기(100)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 모바일 단말기(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 모바일 단말기(100)는 다른 장치(미도시)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 모바일 단말기(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 모바일 단말기(100)와 외부 장치(미도시) 또는 전원소스(미도시)를 연결하기 위한 인터페이스로 이용될 수 있다. 모바일 단말기(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 모바일 단말기(100)의 저장부(175)에 저장된 데이터를 외부 장치(미도시)로 전송하거나 또는 외부 장치(미도시)로부터 데이터를 수신할 수 있다. 또한 모바일 단말기(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(미도시)로부터 전원을 입력받거나, 상기 전원소스를 이용하여 배터리(미도시)를 충전할 수 있다.
키패드(166)는 모바일 단말기(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 모바일 단말기(100)에 형성되는 물리적인 키패드(미도시) 또는 터치스크린(190)에 표시되는 가상의 키패드(미도시)를 포함한다. 모바일 단말기(100)에 형성되는 물리적인 키패드(미도시)는 모바일 단말기(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(미도시)이 삽입되어 모바일 단말기(100)에 연결될 수 있다.
센서 모듈(170)은 모바일 단말기(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 모바일 단말기(100)에 대한 접근여부를 검출하는 근접센서, 모바일 단말기(100) 주변의 빛의 양을 검출하는 조도센서(미도시), 또는 모바일 단말기(100)의 동작(예, 모바일 단말기(100)의 회전, 모바일 단말기(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(미도시), 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor, 미도시), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서모듈(170)의 센서는 모바일 단말기(100)의 성능에 따라 추가되거나 삭제될 수 있다.
본 실시예에 따른 센서 모듈(170)은 근접 센서를 포함할 수 있다. 근접 센서는 터치스크린(190)과 근접한 일정 범위를 통해 감지되는 사용자의 움직임(예를 들어, 사용자 손가락의 움직임)을 감지하는 센서이다. 예를 들어, 터치스크린(190)이 정전 용량 방식으로 구현되었다면 근접 센서로 구현된 센서 모듈(170)은 상기 터치스크린(190)의 일정 범위(예를 들어, 터치스크린(190)으로부터 10cm 높이)에서 발생하는 정전용량의 변화를 감지함으로써 사용자의 움직임을 검출할 수 있다.
또한 본 실시예에 따른 센서 모듈(170)은 지문 감지 센서를 포함하는 형태로 구현될 수 있으며, 그에 따라 지문 인식부(60)에 포함되는 형태로 구현될 수도 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 모바일 단말기(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 모바일 단말기(100)에 전원을 공급한다. 또한 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(미도시)에서부터 입력되는 전원을 모바일 단말기(100)로 공급할 수 있다. 또한 전원공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 모바일 단말기(100)로 공급할 수도 있다.
터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예를 들어, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치에 응답하여 터치스크린(190)에 표시된 단축 아이콘(미도시)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한 터치스크린 컨트롤러(195)는 제어부(110)에 포함되는 형태로 구현될 수 있다.
실시예에 따라 터치스크린 컨트롤러(195)는 센서모듈(170)에 의해 감지된 근접 센싱 입력에 대응하는 터치스크린(190) 상에서의 좌표를 추출할 수도 있다. 예를 들어, 센서 모듈(170)을 통하여 터치스크린(190)과 근접한 일정 범위 내의 한 지점(제1지점)을 선택하기 위한 근접 센싱 입력이 감지되었다고 가정한다. 또한 근접 센싱이 정전 용량 방식으로 구현되었다고 가정한다. 센서 모듈(170)은 터치스크린(190)의 일정 범위 내에서 발생하는 정전용량의 변화를 감지하고, 제어부(110)는 정전용량이 변화한 지점(제1지점)에 대응하는 터치스크린(190) 상의 지점(제2지점)의 좌표를 추출하도록 터치스크린 컨트롤러(195)를 제어할 수 있다. 예를 들어, 제2지점은, 상기 제1지점으로부터 가장 가까운 거리에 위치한 터치스크린(190) 상의 한 점일 수 있다.
실시예에 따라 모바일 단말기(100)는 서브통신 모듈(130), 커넥터(165) 및 이어폰 연결잭(167)과 같은 외부 장치 연결부를 이용하여 외부 장치(미도시)와 연결될 수 있다.
"외부 장치"는 모바일 단말기(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들을 포함할 수 있다. 또한 "외부 장치"는 근거리 통신에 의하여 무선으로 모바일 단말기(100)에 연결될 수 있는 블루투스 통신 장치, NFC(Near Field Communication) 장치와 같은 근거리 통신 장치 및 WiFi Direct 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 또한 외부 장치는 다른 장치, 휴대폰, 스마트폰, 태블릿PC, 데스크탑 PC 및 서버를 포함할 수 있다.
도 4는 도 3에 도시된 모바일 단말기의 전면 사시도이고, 도 5는 도 3에 도시된 모바일 단말기의 후면 사시도이다.
도 4를 참조하면, 모바일 단말기(100)의 전면(100a) 중앙에는 터치스크린(190)이 배치된다. 터치스크린(190)은 모바일 단말기(100)의 전면(100a)의 대부분을 차지하도록 크게 형성된다.
도 4는 터치스크린(190)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 모바일 단말기(100)의 전원을 켰을 때 터치스크린(190) 상에 표시되는 첫 화면이다. 또한 모바일 단말기(100)가 여러 페이지의 서로 다른 홈 화면들을 갖고 있을 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 어플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 메인메뉴 전환키(191-4), 시간, 날씨 등이 표시될 수 있다. 메인메뉴 전환키(191-4)는 터치스크린(190) 상에 메뉴 화면을 표시한다. 또한 터치스크린(190)의 상단에는 배터리 충전상태, 수신신호의 세기, 현재 시각과 같은 모바일 단말기(100)의 상태를 표시하는 상태바(Status Bar, 192)가 형성될 수 있다.
터치스크린(190)의 하부에는 홈 버튼(161a), 메뉴 버튼(161b) 및 뒤로 가기 버튼(161c)이 형성될 수 있다. 홈 버튼(161a)은 터치스크린(190)에 메인 홈 화면(main Home screen)을 표시한다. 예를 들어, 터치스크린(190)에 메인 홈 화면과 다른 홈 화면(any Home screen) 또는 메뉴화면이 표시된 상태에서, 홈 키(161a)가 터치되면, 터치스크린(190)에 메인 홈 화면이 표시될 수 있다. 또한 터치스크린(190) 상에서 어플리케이션들이 실행되는 도중 홈 버튼(191a)이 터치되면, 터치스크린(190)상에는 도 4에 도시된 메인 홈 화면이 표시될 수 있다. 또한 홈 버튼(161a)은 터치스크린(190) 상에 최근에(recently) 사용된 어플리케이션들을 표시하도록 하거나, 태스크 매니저(Task Manager)를 표시하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 터치스크린(190) 상에서 사용될 수 있는 연결 메뉴를 제공한다. 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 표시하거나 또는 가장 최근에 사용된 어플리케이션을 종료시킬 수 있다.
모바일 단말기(100)의 전면(100a) 가장자리에는 제1카메라(151)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 모바일 단말기(100)의 후면(100c)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163)가 배치될 수 있다.
모바일 단말기(100)의 측면(100b)에는 예를 들어 전원/리셋 버튼(160a), 음량 버튼(161b), 방송 수신을 위한 지상파 DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. DMB 안테나(141a)는 모바일 단말기(100)에 고정되거나 또는 착탈 가능하게 형성될 수도 있다.
모바일 단말기(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 모바일 단말기(100)의 상단 측면에는 이어폰 연결잭(167)이 형성될 수 있다. 이어폰 연결잭(167)에는 이어폰이 삽입될 수 있다.
도 6은 도 1에 도시된 지문 인식 기기에서의 지문 인식 방법의 일 예를 나타낸 순서도이다. 본 실시예에서 지문 인식 기기(1)의 지문 인식부(60)는 터치스크린(190)에 포함되는 형태로 구현되는 것으로 가정한다. 그에 따라 터치스크린(190)은 사용자로부터 입력되는 입력 데이터로서의 지문, 즉 지문 입력을 입력받을 수 있다.
도 6을 참조하면, 지문 인식 기기(1)는 지문 스캐너(62) 및 터치스크린(190) 중 적어도 하나를 포함하는 지문 인식부(60)를 통해 지문 입력을 수신한다(S602). 단계 S602에서 지문 인식부(60)는 상기 지문 입력에 대응하는 지문 이미지를 생성할 수 있다. 상기와 같이 단계 S602에서 지문 입력이 검출되면, 지문 분석부(10)는 상기 지문 입력에 대응하는 지문 데이터를 생성한다(S604).
방향각 결정부(30)는 지문 데이터를 기초로 상기 지문 입력, 특히 지문 입력에 포함된 지문의 방향각을 결정한다(S606). 방향각은 지문 입력이 기울어진 정도를 가리킨다. 방향각 결정부(30)는, 누름 영역 및 호버링 영역 각각의 면적 또는 좌표를 기초로 지문 입력의 방향각을 산출할 수 있다. 이때 방향각 결정부(30)는 저장부(175)에 미리 저장된 지문 입력 정?항을 기준으로 지문 입력의 방향각을 산출한다. 예를 들어 지문 입력이 사용자의 왼손 엄지손가락의 지문이라고 가정한다. 또한 왼손 엄지손가락의 지문 입력 정방향이, 일(一)자형인 지문 인식 기기(1)의 하단면과 수직인 방향이라고 가정한다. 지문 입력이 상기 정방향을 기준으로 좌측으로 45° 기울어진 상태로 입력되었다면, 방향각 결정부(30)는 상기 지문 입력의 방향각으로서 ‘좌향 45°’를 결정할 수 있다.
지문 보정부(20)는 상기 방향각만큼 지문 입력에 포함된 지문을 역회전시킨 보정 데이터를 생성한다(S608). 이때 지문 보정부(20)는 지문 입력에 포함된 지문이 정방향을 가지도록 지문 입력을 회전시킨다. 예를 들어, 지문 입력이 정방향을 기준으로 우측으로 30° 기울어져 있다면, 지문 보정부(20)는 상기 지문 입력을 좌측으로 30° 회전시킴으로써 상기 지문 입력에 대한 보정 데이터를 생성할 수 있다.
지문 검색부(40)는 저장부(175)에 미리 저장된 적어도 하나의 지문을 검색한다. 사용자 인증부(50)는 지문 검색부(40)에 의한 검색 결과를 기초로 사용자 인증의 성공 여부를 결정한다. 실시예에 따라 지문 검색부(40)는, 보정 데이터와 유사도가 기준값(예를 들어, 90%) 이상인 지문들을 저장부(175)로부터 추출할 수 있다.
사용자 인증부(50)는 보정 데이터와 일치하는 지문이 저장부(175) 내에 존재하는지 여부를 판단한다(S610). 본 실시예에서 보정 데이터와 일치하는 지문이 저장부(175) 내에 존재하면, 사용자 인증부(50)는 상기 사용자의 지문이 지문 인식 기기(1)에 등록된 것으로 간주한다. 즉 지문 인식 기기(1)는 사용자가 등록된 상태라고 결정한다. 반면에 보정 데이터와 일치하는 지문이 저장부(175) 내에 존재하지 않으면, 사용자 인증부(50)는 상기 사용자의 지문이 지문 인식 기기(1)에 등록되지 않은 것으로 간주한다. 즉 지문 인식 기기(1)는 사용자가 등록되지 않았다고 결정할 수 있다.
실시예에 따라 사용자 인증부(50)는 보정 데이터와 유사도가 기준값(예를 들어, 90%) 이상인 지문을, 상기 보정 데이터와 동일한 지문이라고 간주할 수 있다.
단계 S610의 판단 결과, 보정 데이터와 일치하는 지문이 존재하는 경우(S610: 예), 사용자 인증부(50)는 사용자 인증이 성공한 것으로 결정한다(S612). 단계 S610의 판단 결과, 보정 데이터와 일치하는 지문이 존재하지 않는 경우(S610: 아니오), 사용자 인증부(50)는 사용자 인증이 실패한 것으로 결정한다(S614).
도 7은 도 1에 도시된 지문 인식 기기에서의 지문 인식 방법의 다른 예를 나타낸 순서도이다.
도 7을 참조하면, 지문 인식 기기(1)는 지문 스캐너(62) 및 터치스크린(190) 중 적어도 하나를 포함하는 지문 인식부(60)를 통해 지문 입력을 수신한다(S702). 단계 S702에서 지문 인식부(60)는 상기 지문 입력에 대응하는 지문 이미지를 생성할 수도 있다. 상기와 같이 단계 S702에서 지문 입력이 검출되면, 지문 분석부(10)는 상기 지문 입력에 대응하는 지문 데이터를 생성한다(S704). 상술한 바와 같이 지문 입력은, 누름 영역 및 호버링 영역을 포함한다.
지문 데이터가 생성되면, 방향각 결정부(30)는 상기 지문 데이터를 이용하여 지문 입력의 방향각을 결정한다(S706). 방향각은 지문 입력 중에서도 입력된 누름 영역의 지문이 기울어진 정도를 가리킨다. 방향각 결정부(30)는, 누름 영역 및 호버링 영역 각각의 면적 또는 좌표를 기초로 지문 입력의 방향각을 산출할 수 있다. 이때 방향각 결정부(30)는 저장부(175)에 미리 저장된 정?항을 기준으로 지문 입력의 방향각을 산출한다. 예를 들어 사용자 입력이 사용자의 왼손 엄지손가락의 지문이라고 가정한다. 또한 왼손 엄지손가락 지문의 정방향이, 일(一)자형인 지문 인식 기기(1)의 하단면과 수직인 방향이라고 가정한다. 단계 S702에서 사용자에 의해 지문 입력이 상기 정방향을 기준으로 좌측으로 45° 기울어진 상태로 입력되었다면, 방향각 결정부(30)는 상기 지문 입력의 방향각으로서 좌향 45°를 결정할 수 있다.
지문 입력의 방향각이 결정되면, 지문 보정부(20)는 저장부(175)에 미리 저장되어 있는 지문들을 방향각만큼 회전시켜 비교 데이터를 생성한다(S708). 단계 S702에서 지문 입력을 입력한 사용자에 대한 인증을 수행하려면, 단계 S702에서 수신한 지문 입력의 지문이 지문 인식 기기(1)에 이미 등록되어있는 지문인지 여부를 결정하여야 한다. 단계 S702에서 사용자에 의해 지문 입력이 입력될 때, 상기 지문 입력이 기울어져 입력된다. 본 실시예에 따른 지문 보정부(20)는, 저장부(175)에 미리 저장되어 있는 지문이 상기 지문 입력과 동일한 방향각을 가지도록 회전된 비교 데이터를 생성한다. 단계 S702에서 수신한 지문 입력과 상기 비교 데이터가 동일한 방향각을 가지므로 지문 검색부(40)는 지문 입력과 일치하는 비교 데이터를 용이하게 추출할 수 있게 된다. 상기와 같이 지문 검색부(40)는 지문 보정부(20)에 의해 생성된 비교 데이터와 지문 입력을 비교한다. 또한 지문 검색부(40)는 상기 비교 결과를 사용자 인증부(50)로 출력할 수 있다.
제어부(110)의 사용자 인증부(50)는 지문 입력와 일치하는 비교 데이터가 존재하는지 여부를 판단한다(S710). 본 실시예에서 지문 입력과 일치하는 비교 데이터가 저장부(175) 내에 존재하면, 사용자 인증부(50)는 상기 사용자의 지문이 저장부(175)에 존재하는 것으로 결정한다. 즉, 지문 입력을 입력한 사용자가 지문 인식 기기(1)에 등록된 사용자인 것으로 결정할 수 있다.
반면에 지문 입력과 일치하는 비교 데이터가 저장부(175) 내에 존재하지 않으면, 사용자 인증부(50)는 상기 사용자의 지문이 저장부(175) 내에 존재하지 않는 것으로 결정한다. 즉, 지문 입력을 입력한 사용자가 지문 인식 기기(1)에 등록되지 않은 사용자인 것으로 결정할 수 있다.
단계 S710의 판단 결과 지문 입력과 일치하는 비교 데이터가 저장부(175) 내에 존재하면(S710: 예), 사용자 인증부(50)는 사용자 인증이 성공한 것으로 결정한다(S712).
단계 S710의 판단 결과 지문 입력과 일치하는 비교 데이터가 저장부(175) 내에 존재하지 않으면(S710: 아니오), 사용자 인증부(50)는 사용자 인증이 실패한 것으로 결정한다(S714).
도 8은 도 1에 도시된 지문 인식 기기에 의하여 인식될 수 있는 지문 입력의 다른 예를 나타낸 도면이다.
도 8을 참조하면, 사용자는 지문(821)이 포함되어 있는 오른손 검지 손가락의 끝단(810)을 사용자 입력, 즉 지문 입력으로서 지문 인식 기기(1)의 지문 인식부(60)에 입력하고 있다. 지문 인식부(60)는 상기 지문 입력에 대응하는 지문 데이터(820)를 생성한다. 지문 데이터(820)는 지문(821)을 포함한다. 또한 지문 데이터(820)는 상기 오른손 엄지손가락의 끝단(810)이 지문 인식부(60)와 직접 접촉한 부분인 누름 영역(811)과, 상기 끝단(810)이 접촉하지 않은 부분인 호버링 영역(812)으로 나누어진다. 본 실시예에 따른 제어부(110)는, 누름 영역(811) 또는 호버링 영역(812)이 지문 인식부(60) 상에서 가리키는 방향을 파악하여 상기 지문(821)의 방향각을 결정한다.
도 9는 도 1에 도시된 지문 인식 기기에 의하여 인식될 수 있는 지문 입력의 또 다른 예를 나타낸 도면이다.
지문 인식 기기(1)는 사용자의 손가락들 각각으로부터 지문 입력을 입력받을 수 있다. 도 9에서는 사용자의 왼손을 도시하고 있다. 본 실시예에서 지문 인식 기기(1)는 손가락들 각각에 대응하는 지문 입력을 수신하여 지문 데이터를 생성할 수 있다. 손가락들 각각에 대응하는 지문 입력은, 지문이 포함된 누름 영역(911, 921, 931, 941, 951) 및 호버링 영역(912, 922, 932, 942, 952)으로 나뉘어 입력될 수 있다.
도 9에서는 손가락들 각각에 대응하는 지문들의 정방향(910, 920, 930, 940, 950)을 도시하고 있다. 도 9에 도시된 바와 같이, 본 실시예에 따른 지문의 정방향은 사용자가 다섯 손가락을 한꺼번에 펼쳤을 때 손가락들 각각이 향하는 방향일 수 있다.
도 10a 내지 도 10c는 지문 인식 기기를 포함하는 모바일 단말기가 지문 인식 기능을 이용하는 실시예들을 나타낸 도면들이다.
도 10a는 터치스크린(190) 상에 표시된 항목들(List 1, List 2, List 3, List, List 4, List 5, List 6, List 7)을 적어도 하나의 항목을 삭제 또는 영구적으로 삭제하는 경우를 나타낸 것이다. 도 10a에서, 항목을 단순히 삭제하고자 하는 경우에는, 사용자(200)는 터치스크린(190) 상에 표시된 삭제 버튼만을 선택하여 누르면 되지만, 항목을 영구적으로 삭제하기 위해서는 인증이 필요하다. 또한 사용자(200)는 List 1, List 2, List 3 및 List 6을 영구적으로 삭제하고자 한다. 사용자(200)는 List 1, List 2, List 3 및 List 6을 체크하고, 터치스크린(190) 상에 표시된 영구삭제 버튼(1010)에 지문 입력을 입력한다. 실시예에 따라 사용자(200)는 왼손으로는 List 1, List 2, List 3 및 List 6를 체크하고 있는 상태에서 오른손으로 지문 입력을 터치스크린(190)의 영구삭제 버튼(1010)으로 입력할 수도 있다.
도 10b는 터치스크린(190) 상에 숫자 키패드를 표시하여 사용자(200)로부터 핀 코드(Pin Code)(1020)를 입력받는 경우를 나타낸 것이다. 도 10b에서 모바일 단말기(100)는 사용자 인증을 진행함과 동시에 사용자(200)로부터 핀 코드를 입력받는 것으로 가정한다. 터치스크린(190)은 핀 코드(1020)를 입력받기 위한 숫자 키패드를 표시하고, 사용자(200)는 숫자 키패드의 숫자키들 중 적어도 하나를 선택하여 터치스크린(190)으로 입력한다. 숫자키를 선택하는 과정에서 사용자(200)는 해당 숫자키를 손가락 끝으로 눌러서 지문 입력을 터치스크린(190)으로 입력한다. 모바일 단말기(100)는 상기 지문 입력으로 사용자 인증을 수행하고, 인증이 성공한 경우에만 사용자(200)가 입력한 핀 코드(1020)를 인식할 수 있다.
도 10c는 터치스크린(190) 상에 표시된 적어도 폴더들(1031, 1032, 1033, 1034, 1035, 1036, 1037, 1038, 1039, 1040, 1041, 1042) 중 일부의 폴더들(1033, 1034, 1036, 1037, 1040)을 삭제하는 경우를 나타낸 것이다. 도 10b에서 폴더들(1033, 1034, 1036, 1037, 1040)를 삭제하기 위해서는 사용자 인증이 필요하다. 사용자(200)는 손가락으로 폴더들(1033, 1034, 1036, 1037, 1040)을 선택함에 동시에 지문 입력을 입력함으로써 폴더(1033, 1034, 1036, 1037, 1040)의 삭제를 모바일 단말기(100)에 요청한다. 사용자는 폴더들(1033, 1034, 1036, 1037, 1040) 각각을 선택할 때 지문 입력이 터치스크린(190)에 입력될 수 있도록 폴더들(1033, 1034, 1036, 1037, 1040) 각각의 적어도 일부 영역을 누른다. 모바일 단말기(100)는 지문 입력이 입력된 폴더에 한해서만 삭제 처리를 수행할 수도 있다.
본 발명의 실시 예에 따른 지문 인식 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 실시 예에 따른 지문 인식 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한 상기 지문 인식 기기 또는 모바일 단말기는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 지문 인식 기기 또는 모바일 단말기가 기설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 지문 인식 기기 또는 모바일 단말기와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 지문 인식 기기 또는 모바일 단말기의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 전송하는 제어부를 포함할 수 있다.
이외에도 본 발명의 다양한 실시예 또는 변형예가 있을 수 있으며, 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고, 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.
1: 지문 인식 기기 10: 지문 분석부
20: 지문 보정부 30: 방향각 결정부
40: 지문 검색부 50: 사용자 인증부
60: 지문 인식부 62: 지문 스캐너
100: 모바일 단말기 110: 제어부
111: CPU 112: ROM
113: RAM 120: 이동 통신 모듈
130: 서브 통신 모듈 131: 무선 랜 모듈
132: 근거리 통신 모듈 140: 멀티미디어 모듈
141: 방송 통신 모듈 142: 오디오 재생 모듈
143: 동영상 재생 모듈 150: 카메라 모듈
151: 제1카메라 152: 제2카메라
153: GPS 모듈 160: 입출력 모듈
161: 버튼 162: 마이크
163: 스피커 164: 진동 모터
165: 커넥터 166: 키패드
167: 이어폰 연결잭 170: 센서 모듈
175: 저장부 180: 전원 공급부
190: 터치스크린 195: 터치스크린 컨트롤러

Claims (15)

  1. 지문 인식 기기의 지문 인식 방법에 있어서,
    상기 지문 인식 기기의 지문 센서에 의해, 상기 지문 센서로 입력된 사용자 손가락에 의한 사용자의 입력에 대응하는 이미지를 생성하는 동작;
    상기 지문 인식 기기의 제어기에 의해, 상기 생성된 이미지의 크기가 미리 결정된 크기보다 크면, 상기 사용자의 입력 상기 지문 인식 기기에 입력된 지문으로 결정하는 동작;
    상기 제어기에 의해, 상기 이미지의 방향각을 측정하는 동작, 상기 방향각은 상기 지문 인식 기기에 입력된 상기 사용자의 지문의 입력 각도와 동일하며;
    상기 제어기에 의해, 상기 지문 인식 기기에 미리 저장된 적어도 하나의 지문 이미지를 상기 방향각만큼 회전시킨 적어도 하나의 비교 데이터를 생성하는 동작;
    상기 제어기에 의해, 상기 이미지를 상기 적어도 하나의 비교 데이터와 비교하는 동작; 및
    상기 제어기에 의해, 상기 이미지 및 상기 적어도 하나의 비교 데이터가 일치하는 경우, 상기 사용자에 대한 인증이 성공한 것으로 결정하는 동작;을 포함하는, 지문 인식 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제1항에 있어서,
    상기 지문 입력과 상기 비교 데이터가 일치하지 않는 경우, 상기 사용자에 대한 인증이 실패한 것으로 결정하는 동작을 더 포함하는, 지문 인식 방법.
  8. 지문 인식 기기에 있어서,
    사용자 입력에 대응하는 이미지를 생성하는 지문 센서; 및
    제어부;를 포함하며,
    상기 제어부는,
    상기 생성된 이미지의 크기가 미리 결정된 크기보다 크면, 상기 사용자 입력을 상기 지문 인식 기기에 입력된 지문으로 결정하고,
    상기 이미지의 방향각을 측정하고, 상기 방향각은 상기 지문 인식 기기에 입력된 상기 사용자의 지문의 입력 각도와 동일하며,
    상기 지문 인식 기기에 미리 저장된 적어도 하나의 지문 이미지를 상기 방향각만큼 회전시킨 적어도 하나의 비교 데이터를 생성하고,
    상기 이미지 및 상기 적어도 하나의 비교 데이터가 일치하는 경우, 상기 사용자에 대한 인증이 성공한 것으로 결정하도록 구성되는, 지문 인식 기기.
  9. 삭제
  10. 제8항에 있어서,
    상기 적어도 하나의 지문 이미지를 저장하는 저장부를 더 포함하는, 지문 인식 기기.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 제8항에 있어서, 상기 제어부는,
    상기 지문 입력과 상기 비교 데이터가 일치하지 않는 경우, 상기 사용자에 대한 인증이 실패한 것으로 결정하도록 더 구성되는, 지문 인식 기기.
KR1020130081021A 2013-07-10 2013-07-10 지문 인식 방법 및 이를 위한 장치 Active KR102090956B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130081021A KR102090956B1 (ko) 2013-07-10 2013-07-10 지문 인식 방법 및 이를 위한 장치
US14/328,200 US9858467B2 (en) 2013-07-10 2014-07-10 Method and apparatus for recognizing fingerprints

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130081021A KR102090956B1 (ko) 2013-07-10 2013-07-10 지문 인식 방법 및 이를 위한 장치

Publications (2)

Publication Number Publication Date
KR20150007082A KR20150007082A (ko) 2015-01-20
KR102090956B1 true KR102090956B1 (ko) 2020-04-14

Family

ID=52277152

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130081021A Active KR102090956B1 (ko) 2013-07-10 2013-07-10 지문 인식 방법 및 이를 위한 장치

Country Status (2)

Country Link
US (1) US9858467B2 (ko)
KR (1) KR102090956B1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015145778A1 (ja) 2014-03-28 2017-04-13 パイオニア株式会社 車載用照明装置
GB2547905B (en) 2016-03-02 2021-09-22 Zwipe As Fingerprint authorisable device
US10387710B2 (en) 2016-03-07 2019-08-20 Microsoft Technology Licensing, Llc Image sensing with a waveguide display
US10043050B2 (en) 2016-03-07 2018-08-07 Microsoft Technology Licensing, Llc Image sensing with a display
CN106095295B (zh) * 2016-06-15 2020-09-25 维沃移动通信有限公司 一种基于指纹识别的处理方法和移动终端
KR102575672B1 (ko) * 2016-07-06 2023-09-07 삼성전자주식회사 전자 장치 및 그 동작 방법
CN107784213B (zh) * 2016-08-26 2020-03-27 深圳指芯智能科技有限公司 基于指纹识别技术与硬件关联性加密方式的存储设备
JPWO2018079001A1 (ja) * 2016-10-24 2019-09-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN106778164B (zh) * 2016-11-30 2019-11-12 宇龙计算机通信科技(深圳)有限公司 指纹鉴权方法、系统及电子设备
KR102574772B1 (ko) * 2016-12-12 2023-09-05 삼성전자주식회사 생체 데이터를 등록 및 인증하기 위한 방법 및 그 전자 장치
CN108255397A (zh) * 2018-02-02 2018-07-06 中兴通讯股份有限公司 控制执行方法、装置、存储介质及电子装置
CN109243009B (zh) * 2018-04-20 2020-12-01 湖州达立智能设备制造有限公司 指纹锁指纹角度校正系统
CN109376632B (zh) * 2018-10-12 2021-05-11 Oppo(重庆)智能科技有限公司 指纹识别方法、电子装置及计算机可读取介质
US11023067B2 (en) * 2018-12-19 2021-06-01 Intel Corporation Input control using fingerprints
CN112422743A (zh) * 2020-09-28 2021-02-26 深圳市修远文化创意有限公司 一种手机屏下指纹模块启动的方法及手机

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100133338A1 (en) * 2008-12-01 2010-06-03 Research In Motion Limited Method, system and mobile device employing enhanced fingerprint authentication
US20120127179A1 (en) 2010-11-19 2012-05-24 Nokia Corporation Method, apparatus and computer program product for user interface

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100299858B1 (ko) * 1999-03-19 2001-09-26 이영익 지문 매칭 방법
KR100541386B1 (ko) * 2003-05-27 2006-01-10 주식회사 아이디테크 지문방향에 의한 대상 기기 선택이 가능한 지문인식전자키 및 그를 이용한 대상기기 선택방법
KR101021134B1 (ko) 2009-08-18 2011-03-14 성균관대학교산학협력단 지문의 방향 특징을 추출하는 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100133338A1 (en) * 2008-12-01 2010-06-03 Research In Motion Limited Method, system and mobile device employing enhanced fingerprint authentication
US20120127179A1 (en) 2010-11-19 2012-05-24 Nokia Corporation Method, apparatus and computer program product for user interface

Also Published As

Publication number Publication date
US20150016695A1 (en) 2015-01-15
KR20150007082A (ko) 2015-01-20
US9858467B2 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
KR102090956B1 (ko) 지문 인식 방법 및 이를 위한 장치
KR102041984B1 (ko) 추가 구성 요소를 이용한 얼굴 인식 기능을 가지는 모바일 장치 및 그 제어 방법
US10775896B2 (en) Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
KR102080183B1 (ko) 전자 장치 및 전자 장치에서 잠금 해제 방법
US9851890B2 (en) Touchscreen keyboard configuration method, apparatus, and computer-readable medium storing program
KR102081817B1 (ko) 디지타이저 모드 전환 방법
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
US9420093B2 (en) Apparatus and method for providing additional information by using caller phone number
KR102051418B1 (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
KR102141155B1 (ko) 모바일 장치의 상태에 대응하는 변경된 숏컷 아이콘을 제공하는 모바일 장치 및 그 제어 방법
US20140317499A1 (en) Apparatus and method for controlling locking and unlocking of portable terminal
KR102117261B1 (ko) 거리 검출 및 생체 인증 방법, 저장 매체 및 단말
KR20130034765A (ko) 휴대 단말기의 펜 입력 방법 및 장치
US20170076139A1 (en) Method of controlling mobile terminal using fingerprint recognition and mobile terminal using the same
KR102090948B1 (ko) 대화 기록 장치 및 그 방법
KR20140082460A (ko) 복수의 단말들간의 메시지 싱크 방법, 기계로 읽을 수 있는 저장 매체 및 서버
WO2019218843A1 (zh) 按键配置方法、装置、移动终端及存储介质
KR20140111790A (ko) 가상 키보드에서 난수를 이용한 키 입력 방법 및 장치
KR20150003501A (ko) 전자 디바이스 및 전자 디바이스에서 지문을 이용한 인증 방법
US10114496B2 (en) Apparatus for measuring coordinates and control method thereof
KR102123406B1 (ko) 멀티 터치 입력을 지원하는 터치스크린을 구비한 모바일 단말기 및 그의 제어 방법
KR102096824B1 (ko) 보안 환경을 제공하는 장치 및 방법
KR20150008963A (ko) 스크린을 제어하는 휴대 단말 및 방법
KR20160054799A (ko) 원격 제어 장치 및 그의 동작 방법
US9299014B2 (en) Mobile terminal and code recognition method thereof

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130710

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20180710

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20130710

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190722

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20200122

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20200313

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20200316

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240228

Start annual number: 5

End annual number: 5