KR20120135381A - Method of biometrics and device by using pupil geometry - Google Patents
Method of biometrics and device by using pupil geometry Download PDFInfo
- Publication number
- KR20120135381A KR20120135381A KR1020110071551A KR20110071551A KR20120135381A KR 20120135381 A KR20120135381 A KR 20120135381A KR 1020110071551 A KR1020110071551 A KR 1020110071551A KR 20110071551 A KR20110071551 A KR 20110071551A KR 20120135381 A KR20120135381 A KR 20120135381A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- pupil
- iris
- area
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Abstract
동공으로부터 취해지는 고유정보를 이용하는 새로운 생체 인식 방법을 개시한다. 생체 인식 방법은: 동공과 홍채를 포함하는 이미지를 획득하는 단계; 상기 이미지로부터, 동공 영역을 추출하는 단계; 그리고 상기 동공 영역으로부터 동공의 특정 패턴을 추출하여 생체 고유 정보를 생성하는 단계;를 포함하며, 보다 증진된 생체 인식 방법은 동공 고유 정보와 홍채 고유 정보를 결합하여 생체를 인식한다.A new biometric recognition method using unique information taken from a pupil is disclosed. A biometric method includes: obtaining an image comprising a pupil and an iris; Extracting a pupil area from the image; And generating specific biometric information by extracting a specific pattern of the pupil from the pupil region, and further improving the biometric recognition method by combining the unique pupil information and the iris unique information.
Description
동공의 경계 모양으로부터 고유한 정보를 인식하고 이를 적용하는 장치에 관련하여 기술된다.It is described in relation to a device that recognizes and applies unique information from the shape of the pupil boundary.
생체 인식 중, 정확성, 안정성 및 인증 속도 면에서 성능이 다른 생체 정보보다 우수한 장점 때문에 홍채를 이용한 인식 방법들이 많이 연구되어 왔다[비특허문헌 1, 2]. 그러나 주변광이나 조명 반사광에 따른 주변 환경에 민감한 점, 사용자의 움직임 중의 하나인 눈꺼풀에 의한 홍채 가림 등[비특허문헌 3]으로 발생되는 노이즈는 홍채 인식의 정확도 저하를 발생시킨다. 최근에는 인식률을 보다 향상시키기 위한 방법으로 반사광에 강인한 동공 영역 검출 방법이나[비특허문헌 4], 특징 추출을 위한 필터방법과 눈꺼풀 영역 검출 방법이 제안되고 있으나[비특허 문헌 5, 6] 여전히, 눈 영상을 통한 홍채 이미지를 획득하는 과정에 발생되는 주변 노이즈나 눈꺼풀에 의한 홍채 가림 문제로 인식률의 저하가 발생한다. During biometrics, many recognition methods using iris have been studied because of their advantages over other biometric information in terms of accuracy, stability, and authentication speed [
특허문헌 1에 개시된 방법은 보다 신속한 홍채 인식을 위하여 동공 영역을 추정 방법을 제안한다. 즉, 홍채인식 특성상 주변 환경(조명의 의한 반사광이나 주변광의 밝기)의 영향에 따라 인식률의 변화가 존재하며, 제어 불가능한 사용자의 눈꺼풀의 움직임에 홍채가 가리어지게 되는 경우, 결과적으로 홍채 인식의 정확성을 저하시킬 수 있다.The method disclosed in
특허문헌 2에 개시된 방법은 눈 영상을 통해 동공크기 및 눈 깜박임 속도/빈도 등의 다수의 생체 정보를 획득한다. 이 방법은 사용자 상태를 추적하여 기계(컴퓨터)와 사용자간의 인터랙션(interaction)을 통한 감성 인식을 수행하나, 사용자의 고유정보 즉, 생체 인식(identification)에는 사용될 수 없다.The method disclosed in
본 발명은 주변 이미지 노이즈에 영향이 적으면서도 신속하게 생체 고유 정보의 획득할 수 있는 새로운 생체 정보 인식 방법 및 이를 적용하는 장치를 제시한다.The present invention provides a novel method for recognizing biometric information and a device for applying the same, capable of quickly obtaining biometric information without affecting surrounding image noise.
본 발명에 따른 생체 정보 인식 방법: 은Biometric information recognition method according to the present invention:
동공과 홍채를 포함하는 이미지를 획득하는 단계; 그리고Obtaining an image comprising the pupil and the iris; And
상기 이미지로부터, 동공 영역을 추출하는 단계;Extracting a pupil area from the image;
상기 동공 영역으로부터 동공의 경계 모양에 대한 특정 패턴을 추출하여 생체 고유 정보를 생성하는 단계;를 포함한다.And extracting a specific pattern of the boundary shape of the pupil from the pupil region to generate bio-information information.
본 발명에 따른 생체 정보 인식 장치: 는Biometric information recognition apparatus according to the present invention:
동공과 홍채를 포함하는 이미지를 획득하는 이미지 캡쳐부;An image capture unit which acquires an image including a pupil and an iris;
상기 이미지로부터, 동공의 특정 패턴을 추출하고 이로부터 생체 고유 정보를 산출하는 정보 처리부;An information processor for extracting a specific pattern of a pupil from the image and calculating biometric information therefrom;
그리고 상기 생체 고유 정보를 저장하는 저장부; 를 포함한다.And a storage unit for storing the biometric information; It includes.
본 발명의 구체적인 실시 예에 따르면, 상기 특정 패턴은 상기 동공 영역의 외곽 경계 부분으로부터 얻는다.According to a specific embodiment of the present invention, the specific pattern is obtained from an outer boundary portion of the pupil area.
본 발명의 보다 구체적인 실시 예에 따르면, 상기 특정 패턴은 일정 각도 간격으로 획득된 상기 동공의 가장자리 부분의 반경의 변화로부터 산출된다.According to a more specific embodiment of the present invention, the specific pattern is calculated from the change in the radius of the edge portion of the pupil obtained at regular angular intervals.
본 발명의 보다 더 구체적인 실시 예에 따르면, 상기 생체 고유 정보를 생성하는 단계:는, 상기 동공 영역의 정보를 이용하여 대략적인 동공의 중심을 결정하는 단계; 상기 중심으로부터 상기 동공의 외곽 부분까지의 교점 거리(반경) 값을 일정 각도 간격(360도/N, N: 자연수)으로 산출하는 단계; 상기 거리 값 각각을 인접한 다른 거리 값과의 비교하여 차이 값을 구하고 차이 값의 부호를 기준으로 2진의 비트 값으로 변환하여 생체 고유 정보를 결정하는 단계;를 포함한다.According to a more specific embodiment of the present invention, the step of generating the bio-unique information: determining the approximate center of the pupil using the information of the pupil area; Calculating an intersection distance (radius) value from the center to an outer portion of the pupil at a predetermined angle interval (360 degrees / N, N: natural number); And comparing each of the distance values with other adjacent distance values to obtain a difference value, and converting the distance value into a binary bit value based on a sign of the difference value to determine biometric information.
본 발명의 일 실시 예에 따르면, 인접한 거리 값들로부터 얻어진 차이 값은 생체 고유 정보의 로 데이타(raw data)에 해당하며, 이러한 로 데이터는 생체 고유 정보에 해당하는 2진의 비트 값으로 변환된다.According to an embodiment of the present invention, a difference value obtained from adjacent distance values corresponds to raw data of biometric unique information, and the raw data is converted into a binary bit value corresponding to biometric unique information.
본 발명의 다른 실시 예에 따른 생체 정보 인식 방법 및 장치는:Biometric information recognition method and apparatus according to another embodiment of the present invention:
상기 홍채 영역으로부터 생체 고유 정보를 생성하는 단계; 그리고Generating biometric information from the iris region; And
상기 동공 영역과 홍채 영역으로부터 얻어진 고유정보를 결합하는 단계;를 더 포함한다.Combining the unique information obtained from the pupil region and the iris region.
상기 고유 정보를 결합하는 단계는 피쳐 레벨(feature level), 스코어 레벨(score level), 디시젼 레벨(decision level) 중의 어느 하나의 레벨에서 수행된다. The combining of the unique information is performed at any one of a feature level, a score level, and a decision level.
도 1은 본 발명에 따른 생체 인식 장치를 상징적으로 도시한다.
도 2는 본 발명에 따른 생체 고유 정보를 인식하는 방법의 흐름도이다.
도 3은 CED (Circular Edge Detection) 방법을 이용한 대략적인 동공 중심 검출의 예를 보인다.
도 4는 동공 경계로부터 고유정보를 추출하는 과정을 설명하는 도면이다.
도 5는 원본 정보(DB data)와 새로 취득된 정보(New data)의 비교를 도식적으로 보인다.
도 6은 주위 조도 차에 따른 동일 인의 동공 크기의 변화를 보이는 사진이다.
도 7은 본 발명의 생체 인식 방법에 따라, 동공경계정보 비교결과 해밍거리(HDp)에 대한 축과 홍채정보 비교결과 해밍거리(HDi)에 대한 축이 이루는 2차원 평면상에서의 생체 정보의 분포를 도시한다.
도 8은 도 7에 도시된 분포도에서, 앤드룰(AND rule)을 적용하여 동공 경계 정보와 홍채 정보를 결합했을 때의 생체 인식 여부(Accept or Reject)를 설명하는 그래프이다.
도 9는 도 7에 도시된 분포도에서, 오어룰(Or rule)을 적용하여 동공 경계 정보와 홍채 정보를 결합했을 때의 생체 인식 여부(Accept or Reject)를 설명하는 그래프이다.
도 10은 특정한 분포 형태를 가지는 Imposter 결과에 의해, 선형 분류기에 의한 XOR 문제를 설명하는 그래프이다.
도 11은 도 10에 도시된 바와 같은 선형 분류기의 문제를 해결하기 위한 비선형 분류기의 적용을 예시하는 그래프이다.,1 symbolically illustrates a biometric device according to the present invention.
2 is a flowchart of a method of recognizing biometric information according to the present invention.
Figure 3 shows an example of the approximate pupil center detection using the CED (Circular Edge Detection) method.
4 is a diagram illustrating a process of extracting unique information from a pupil boundary.
5 schematically shows a comparison of original information DB data and newly acquired information New data.
Figure 6 is a photograph showing the change in pupil size of the same phosphorus according to the ambient illuminance difference.
FIG. 7 illustrates distribution of biometric information on a two-dimensional plane formed by an axis of a hamming distance HDp as a result of comparing the pupil boundary information and an axis of a hamming distance HDi as a result of comparing the iris information according to the biometric method of the present invention. Illustrated.
FIG. 8 is a graph illustrating acceptance or rejection when combining pupil boundary information and iris information by applying an AND rule in the distribution diagram illustrated in FIG. 7.
FIG. 9 is a graph illustrating whether biometrics are recognized when the pupil boundary information is combined with the iris information by applying an Or rule in the distribution diagram illustrated in FIG. 7.
10 is a graph illustrating the XOR problem by the linear classifier, with Imposter results having a specific distribution form.
FIG. 11 is a graph illustrating the application of a nonlinear classifier to solve the problem of the linear classifier as shown in FIG. 10.
이하, 첨부된 도면을 참조하면서 본 발명의 실시 예에 따른 생체 인식 방법 및 이를 적용하는 장치에 대해 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a biometric method and an apparatus applying the same according to an embodiment of the present invention.
도 1은 본 발명에 다른 생체 인식 장치의 상징적이고 개략적 구조를 보인다.1 shows a symbolic and schematic structure of a biometric device according to the present invention.
도 1을 참조하면, 생체의 눈(6)을 촬영하는 카메라 등을 포함하는 이미지 캡쳐부(1)는 촬영된 이미지 정보를 저장부(2)로 보내고, 정보 처리부(3)는 저장부(2)에 저장된 이미지 정보를 연산 처리한다. 이때에 정보 처리부(3)에서 처리되는 정보는 기본적으로 동공 영역으로부터 얻어지며, 이에 추가하여, 홍채 영역으로부터 홍채 고유 정보도 같이 처리된다. 동공 영역과 홍채 영역으로 얻어진 두 고유 정보는 하나로 결합(fusion)되며, 이러한 정보 결합(information fusion)은 후술되는 피쳐 레벨(feature level), 스코어 레벨(score level), 디시젼 레벨(decision level) 중의 어느 하나의 레벨에서 수행된다. 이러한 방법 또는 과정을 통해, 정보 처리부(3)에 의해 얻어진 생체 인식 결과는 출력부(4)를 통해서 출력된다. 정보 처리부(3)에서는 저장부(2)로부터의 정보를 읽어낸 후 후술하는 바와 같은 과정을 통하여 요구되는 정보, 즉 생체 고유 정보를 저장부(2)에 저장한다. 저장부(2)는 포괄적으로 정의되는 메모리 장치로서, 여기에는 RAM, FRAM 등과 같은 반도체 메모리, HDD와 같은 자기 메모리, ODD와 같은 저장매체가 포함될 수 있다. 상기 저장부(2)에는 다수의 생체 고유 정보를 포함하는 데이터 베이스가 마련될 수 있다. 상기 정보 처리부(3)는 새롭게 획득된 생체 고유 정보를, 상기 데이터 베이스에 등록된 생체 고유 정보와 비교하여, 데이터 베이스에 선등록되어 있는 정보인지에 대한 검증(판단)을 수행한다. 전술한 모든 부분은 제어부(5)에 의해 통제되며, 제어부(5)는 영상 획득(또는 캡쳐)로부터 결과출력에 이르는 모든 동작에서 요구되는 제반 요소들의 통제를 담당한다. Referring to FIG. 1, an
출력부(4)는 모니터, 프린터, 음향장치 등의 정보 출력 장치를 적어도 하나 포함할 수 있다. 전술한 요소들은 동영상 또는 정지 영상용 카메라가 장착되는 일반적인 컴퓨터 장치 또는 전용화된 컴퓨터 시스템 기반의 장치에 의해 제공될 수 있다. 영상을 처리하여 원형 데이터와 최종의 생체 고유 정보를 연산/산출하는 정보 처리부(3)의 일부 기능은 소프트웨어 또는 펌 웨어(firmware)에 의해 지원될 수 있다.The
이하, 상기와 같은 장치를 구동환경으로 하는 본 발명의 생체 정보 인식 방법의 실시 예를 설명한다.Hereinafter, an embodiment of the biometric information recognition method of the present invention using the above apparatus as a driving environment will be described.
도 2는 생체 고유 정보를 인식하는 방법의 흐름도이다.2 is a flowchart of a method of recognizing biometric information.
먼저 카메라를 이용해 동공 및 홍채를 포함하는 사용자의 눈 영상을 취득한 후(211). 이 눈 영상으로부터 동공을 검출한다(212). 만약에 눈 외에 얼굴부분이 존재하는 것으로 판단되는 경우, 동공 검출에 앞서, 얼굴 영역과 눈 영역을 검출하여야 하며, 이 경우 소위 Adaboost (Adaptive Boosting) 방법을 사용할 수 있다. Adaboost 는 단순하여 빠른 성능으로 비교적 높은 정확도로 얼굴을 검출하여 실시간에서도 작동한다. 비특허문헌 8은 이러한 Adaboost에 대해 기술하며, 이를 참고한 방법에 의해 상기와 같이 얼굴 영역을 추출할 수 있다. 얼굴 영역을 추출한 후, 동공 영역을 검출하기에 앞서, 눈 영역을 검출해야 하며, 이 경우 역시 Adaboost 방법으로 검출한다. 눈 영역의 추출을 위해서는 눈의 특징이 반영된 약한 분류기들을 통해 학습(training)된 정보를 활용한다.First, a user's eye image including a pupil and an iris is acquired using a camera (211). A pupil is detected from the eye image (212). If it is determined that there is a face part other than the eye, the face area and the eye area should be detected before the pupil detection, and in this case, a so-called Adaboost (Adaptive Boosting) method may be used. Adaboost is simple, fast and detects faces with relatively high accuracy and works in real time. Non-Patent Document 8 describes such an adaboost, and can extract a face region as described above by the method with reference thereto. After extracting the facial region, before detecting the pupil region, the eye region should be detected, in this case also by the Adaboost method. In order to extract the eye region, information trained through weak classifiers reflecting eye characteristics is used.
한편, 동공 (영역) 검출(212)에 있어서는 아래와 같은 원형 검출 알고리즘이 사용된다. 먼저 도 3의 (가)에 나타내 보인 바와 같이 원형 템플릿 매칭을 통해 초기 동공 영역을 결정한다. 원형 템플릿 매칭 방법은 아래의 식으로 설명되며, 이에 대해서는 비특허문헌 [7]이 참조될 수 있다.On the other hand, in the pupil (area)
여기에서, 여기에서, I(x, y) 은 (x, y) 위치에서의 영상의 밝기를 나타내고, (x0, y0 ) 와 r 은 원형 템플릿의 중심과 반지름을 나타낸다. 결국 두 개의 원형 템플릿 각각의 밝기 합의 차가 최대가 되는 지점을 동공 영역으로 결정하는 것이다. 하지만 동공은 시선 위치 및 카메라 촬영 각도에 따라 원이 아닌 타원의 형태로 나타날 수 있기 때문에, 원형 템플릿 매칭 방법으로 결정된 위치가 정확하다고 할 수 없다. 따라서, 결정된 위치를 기준으로 도 3의 (나)와 같이 지역적 이진화 과정을 수행한다. 사각 지역 영역은 동공 영역 (전경)과 동공이 아닌 영역 (배경)의 두 종류로 분류되므로 이진화의 임계치는 Gonzalez가 제안한 방법(참조: 비특허문헌 [9]) 및 오쯔(Otzu)가 제안한 임계값 자동 결정 방법(참조: 비특허 문헌[10])을 사용한다. 지역적 이진화 후에는 눈썹이나 그림자에 의한 노이즈 영역이 존재할 수 있으며, 반사광이 동공 영역 내부에 존재할 경우 뚫린 형태로 나타날 수 있다. 이를 해결하기 위해, 이진화된 영역에 대해서 라벨링(Component Labeling) 방법을 수행하여, 서로 인접된 영역들에 아이덴티티(identity)를 부여한 후, 가장 넓이가 큰 영역을 남기고 다른 아이덴티티를 가지는 영역을 제거함으로써, 노이즈 영역을 제거한다. 최종적으로 구멍난 영역을 채우기 위해 모폴로지 닫힘 연산 (morphological closing operation)을 수행한다. 결과적으로 도 3의 (다)에 도시된 바와 같이 흑색(동공) 영역의 무게 중심을 구하여(213), 최종 동공 중심으로 결정한다.Here, I ( x, y ) represents the brightness of the image at the ( x, y ) position, and ( x 0 , y 0 ) and r represent the center and radius of the circular template. In the end, the pupil area is determined at the point where the difference in brightness of each of the two circular templates is maximized. However, since the pupil may appear in the form of an ellipse rather than a circle according to the gaze position and the camera photographing angle, the position determined by the circular template matching method may not be accurate. Therefore, the local binarization process is performed as shown in FIG. 3B based on the determined position. Since the blind area is classified into two types, the pupil area (foreground) and the non-pupillary area (background), the threshold of binarization is the method proposed by Gonzalez (Non-Patent Document 9) and the threshold proposed by Otzu. An automatic determination method (see Non-Patent Document 10) is used. After local binarization, there may be noise areas caused by eyebrows or shadows, and when reflected light is present inside the pupil area, it may appear as punctured. In order to solve this problem, by performing a component labeling method on the binarized areas, by assigning an identity to the areas adjacent to each other, the area having the largest width is removed and the areas having different identities are removed. Remove the noise area. Finally, a morphological closing operation is performed to fill the perforated area. As a result, as shown in FIG.
동공 중심점(Xp, Yp)에서부터 동공 경계(즉, 동공 영역에서 흑화소에서 백화소로 바뀌는 부분)의 거리를 구한다(214). 여기에서 모폴로지 연산은 이진화 도형의 경계를 모호하게 하는 특성을 가지고 있기 때문에, 동공 경계정보 판단을 위해서는 도3의 (나)와 같이 모폴로지 연산 전 영상을 사용한다. 이때에 거리는 도 4에 도시된 바와 같이, 동공 경계(6a)의 n개(예를 들어 256개) 위치에서의 반경이다. 즉, 동공 중심으로부터 등각으로 배치되는 방사상 직선(CR1 ~ CRn )과 동공 경계의 교점(Xr1, Yr1)~(Xrn , Yrn)을 구한다. 여기서 동공 중심과 경계까지의 n개의 거리(Di , 예를 들어 i = 0 ~ 255)가 구해진다(215). 교점까지의 거리(D0 ~ Dn)를 구한 후, 상기 동공 경계의 반경(거리) 변화(율)를 계산한다(216).Pupil center point (Xp, Yp), The distance between the pupil boundary (ie, the portion of the pupil area that changes from the black pixel to the white pixel) is obtained (214). Since the morphology calculation has a characteristic of blurring the boundary of the binarization figure, the image before the morphology calculation is used to determine the pupil boundary information as shown in FIG. The distance at this time is the radius at n (e.g. 256) positions of the
위의 과정에서 구해진 n개의 거리 값 각각으로부터 임의의 한 위치의 거리값의 인접한 위치의 값의 차이(예시: Oi = Di -Di-1 )를 구한다(217). 임의의 I 번째 지점(xi )과 이에 인접한 지점(xi-1 )을 비교한 차이 값이 0과 같거나 0보다 작은 경우는 0값을, 0보다 크면 1값으로 이진화한 후, 이를 고유의 동공 경계정보에 대한 이진 패턴으로서 저장한다(219). From each of the n distance values obtained in the above process, a difference (eg, O i = D i - D i-1 ) of the distance values of any one position is calculated (217). Comparing any I- th point ( x i ) to its adjacent point ( x i-1 ), if the difference is equal to or less than zero, binarizes the value to zero, and if it is greater than zero, it is unique. Stored as a binary pattern for the pupil boundary information of (219).
위와 같은 경계 정보 검출 과정에서 적외선 조명의 반사광이 동공과 홍채의 경계에 걸쳐서 경계 정보가 손실되었다고 판단된 경우에는 해당 정보를 사용할 수 없다. 따라서, 1.406 도 간격의 256개의 직선 경로에서 원영상에서의 밝기 값이 소정 수, 예를 들어 250 이상인 지점을 지나는 경우는 조명 반사광에 의해 잘못 검출된 정보로 간주한다. 이와 같은 유효성 정보를 저장(유효: 1, 무효: 0)하고 있는 256 개의 이진 패턴은 하나의 경계 정보 이진 패턴과 별도로 구성된다.If it is determined that the boundary information is lost from the reflected light of the infrared light across the boundary between the pupil and the iris in the process of detecting the boundary information as described above, the corresponding information cannot be used. Therefore, when the brightness value in the original image passes through a predetermined number of points, for example, 250 or more, in 256 straight paths having a 1.406 degree interval, information is incorrectly detected by the reflected light. 256 binary patterns storing such validity information (valid: 1, invalid: 0) are configured separately from one boundary information binary pattern.
상기와 같이 얻어진 2진의 경계 정보는 생체의 고유 정보로서 데이터 베이스에 저장되어 향후 대조 원본으로 사용되거나, 기등록(旣登錄)된 다수의 생체 고유 정보를 가지는 데이터 베이스의 원본과 대조함으로써 기등록된 정보인지, 아니면 새로운 정보인지를 파악한다.The binary boundary information obtained as described above is stored as a unique information of a living body in a database and used as a control original in the future, or previously registered by matching with an original of a database having a plurality of bio-specific information previously registered. Determine if it is information or new information.
데이터 베이스의 원본과 대조하여 바이오 인식을 통한 동일인 또는 타인인지를 판단하기 위해서는 도 5에 도시된 바와 같이 원본 정보(DB data)와 새로 취득된 정보(New data)의 비교가 필요하다. 저장된 동공패턴(Ei )은 새롭게 취득된 동공(Ni )과 정해진 얼굴 회전량 범위(θ), 예를 들어 -20 ~ +20도 범위 안에서 일대일(1:1) 패턴의 비교 과정을 통해 동일 인물 여부를 판단하게 된다. 도 5는 서로 매칭되는 두 개의 데이터 비교를 나타내 보인다. 이때 얼굴의 회전량을 고려하여 θ 범위만큼 새로 취득된 정보(New data)를 원형이동(circular shift)하여 비교할 수 있으며, 그 결과 해밍 거리(Hamming distance))가 최소가 되는 것을 선택한다. 기존의 홍채인식 방법에서는 2048 비트의 이진 패턴 비교를 위해 해밍 거리 측정법이 사용되었다. 본 발명에서도 이진 패턴 매칭을 위해 수학식 (3)과 같은 공지의 해밍 거리 측정법을 사용할 수 있다.In order to determine whether the same person or another person through bio-recognition compared to the original of the database, it is necessary to compare original information (DB data) and newly acquired information (New data) as shown in FIG. 5. The stored pupil pattern E i is identical through a process of comparing the newly acquired pupil N i with a one-to-one (1: 1) pattern within a predetermined face rotation range (θ), for example, within a range of -20 to +20 degrees. Determine whether or not a person. 5 shows a comparison of two data that match each other. In this case, the newly acquired information (New data) can be compared by circular shift in consideration of the amount of rotation of the face, and as a result, the Hamming distance is selected to be the minimum. In the conventional iris recognition method, Hamming distance measurement is used to compare binary patterns of 2048 bits. In the present invention, a known hamming distance measuring method such as Equation (3) may be used for binary pattern matching.
잘 알려진 바와 같이, codeA 와 codeB 는 비교하는 두 개의 동공 경계 정보 이진 패턴을 각각 의미하고, maskA 와 maskB 는 codeA 와 codeB 의 유효성 정보 이진패턴을 의미한다. code A ⓧ code B 는 해밍 거리에 의한 XOR(Exclusive OR)연산 과정으로 패턴의 동일성을 확인하며, mask A 와 mask B는 패턴의 유효성 검사를 의미한다. 따라서, XOR 연산 결과값 / mask A, B의 교집합의 결과값을 통해 동공패턴 일치 여부 확인하게 된다.As is well known, codeA and codeB refer to two pupil boundary information binary patterns to be compared, respectively, and maskA and maskB refer to validity information binary patterns of codeA and codeB . Code A ⓧ code B confirms pattern identity by XOR (Exclusive OR) operation by Hamming distance, and mask A and mask B mean validity of pattern. Therefore, whether or not the pupil pattern coincides with the result of the intersection of the XOR operation result value / mask A, B is determined.
위의 실시 예 설명에서는 동공 경계의 거리의 샘플링 수가 256로 국한되어 설명되었으나, 이는 보다 정밀한 정보 추출을 위해 512 또는 1024가 될 수 도 있으며, 이러한 샘플링 수는 본 발명을 제한하지 않는다. 또한, 복수로 샘플링된 반경 또는 거리 값으로부터 차이 값에 의한 동공 패턴을 구하였으나, 차이 값이 아닌 다른 연산 또는 계산법에 의해 2진 부호화될 수 있다. 즉, 복수로 샘플링된 거리 또는 반경 값들로부터 부호화된 고유의 동공 패턴을 산출하는 방법 역시 다른 다양한 방법에 의해 시도될 수 있다.In the above description of the embodiment, the sampling number of the distance of the pupil boundary is limited to 256, but this may be 512 or 1024 for more accurate information extraction, and this sampling number does not limit the present invention. In addition, although a pupil pattern based on a difference value is obtained from a plurality of sampled radius or distance values, binary coding may be performed by another operation or calculation method other than the difference value. That is, a method of calculating an encoded unique pupil pattern from a plurality of sampled distance or radius values may also be tried by other various methods.
도 6은 주위 조도 차에 따른 동일 인의 동공 크기의 변화를 보이는 사진이다. 다양한 조도 차를 배경으로 취득된 다수의 2진화 동공 패턴을 비교한 결과, 조도에 관계없이 동공의 패턴은 일정범위 내에서 일치함을 확인 할 수 있었고, 따라서 생체의 동공 경계로부터 얻어지는 정보는 홍채 정보와 같이 식별력이 있는 고유한 정보로 이용될 수 있다.Figure 6 is a photograph showing the change in pupil size of the same phosphorus according to the ambient illuminance difference. As a result of comparing a plurality of binarized pupil patterns against the background of various illuminance differences, it was confirmed that the pupil patterns coincide within a certain range regardless of the illuminance, so that information obtained from the pupil boundary of the living body is iris information. It can be used as unique information that is discernible.
상기와 같은 본 발명의 방법, 즉 동공의 특정 패턴을 생체 고유 정보로 이용함으로써, 홍채 인식의 단점인 주변 광이나 반사 광 등의 주변 환경에서 비롯되는 빛의 영향에 따른 인식률 저하를 방지할 뿐만 아니라, 사용자의 눈 깜박임 등의 행동에 의한 노이즈에도 동공을 이용한 인식이므로 인식률의 저하가 없다. 또한 눈이 작은 사용자에게도 홍채인식을 보다 효율적으로 적용 가능한데, 예를 들어 홍채와 동공 인식을 조합하여 멀티 모달(multi-modal) 생체 인식을 통해 인식률의 향상을 기대할 수 있다.By using the method of the present invention as described above, that is, the specific pattern of the pupil as bio-specific information, it is not only prevents the recognition rate deterioration due to the influence of light from the surrounding environment such as ambient light or reflected light, which is a disadvantage of iris recognition, In addition, the recognition rate is reduced using the pupil even in noise caused by the blinking of the user's eyes. In addition, iris recognition can be applied more efficiently to a user with small eyes, for example, a combination of iris and pupil recognition can be expected to improve recognition rate through multi-modal biometrics.
동공 경계 정보와 홍채 정보를 얻는 방법으로서는 생체로부터 얻은 하나의 이미지로부터 추출이 가능하다. 이 경우,y 홍채가 충분히 캡쳐 되어야 한다. 얻어진 이미지로부터 눈 영역을 검출하고 이로부터 홍채 정보 및 동공 정보를 획득한다. 여기에서 홍채 정보는 기존의 방법을 이용해 획득하며, 동공 정보는 전술한 본 발명의 방법에 의해 획득된다. 이와 같이 획득된 두 정보를 이용해 생체를 인식하기 위해서는 두 정보의 결합이 필요하며, 이러한 두 정보의 결합 방법에 관하여 Arun Ross와 Anil Jain이 제시한 비특허 문헌 12의 "Information fusion in biometrics"가 참조될 수 있다.As a method for obtaining pupil boundary information and iris information, it is possible to extract from one image obtained from a living body. In this case, the iris must be captured sufficiently. An eye region is detected from the obtained image and iris information and pupil information are obtained therefrom. Herein, the iris information is obtained by using an existing method, and the pupil information is obtained by the method of the present invention described above. In order to recognize a living body using the two pieces of information thus obtained, a combination of the two pieces of information is required. For information on how to combine the two pieces of information, refer to "Information fusion in biometrics" of Non-Patent Document 12 presented by Arun Ross and Anil Jain. Can be.
상기 두 정보는 다양한 결합방법, 예를 들어 후술하는 피쳐 레벨(feature level), 스코어 레벨(score level) 디시젼 레벨(decision level)에서 결합할 수 있으며, 결합된 이들 정보는 멀티 모달 생체 인식에 활용될 수 있다.The two pieces of information may be combined at various combination methods, for example, feature level and score level decision level, which will be described later, and the combined information may be used for multi-modal biometrics. Can be.
피쳐 레벨에서의 결합은, 예를 들어, 동공경계로부터 추출된 256비트 정보와 홍채에서 추출된 2048비트 정보를 단순히 결합하는 것으로, 이에 따르면 산술적 합에 해당하는 비트, 예를 들어 총 2304비트의 생체 정보를 얻을 수 있다. 이러한 2304 비트의 생체 정보는, 전술한 바와 같은 방법에 의해, 기등록된 2304 비트의 생체 정보 DB와 비교됨으로써 그 동일성 여부가 판단되게 된다.Coupling at the feature level simply combines, for example, 256 bits of information extracted from the pupil boundary with 2048 bits of information extracted from the iris, thus corresponding to an arithmetic sum, for example a total of 2304 bits of biometrics. You can get information. Such 2304-bit biometric information is compared with a previously registered biometric information DB of 2304-bit by the method as described above, thereby determining whether or not the same.
스코어 레벨에서의 결합은, 동공경계정보(캡쳐된 새로운 동공경계 정보와 DB에 등록되어 있는 동공 경계 정보)끼리의 비교결과 해밍거리(HDp)와 홍채정보끼리 비교결과 해밍거리(HDi)를 각 정보들에 대한 스코어라고 정의할 때, 각 해밍거리를 합(HDp+HDi)하거나, 곱(HDp*HDi)하여 하나의 대표 값으로 표현한다. 이로부터 얻어진 결과 값을 이용해 새로운 생체 정보에 대한 판독이 가능하다.The combination at the score level is a result of comparing the Hamming distance (HDp) between the pupil boundary information (new captured pupil boundary information and the pupil boundary information registered in the DB) and the Hamming distance (HDi) between the iris information. When defining the score for the field, each Hamming distance is summed (HDp + HDi) or multiplied (HDp * HDi) and expressed as one representative value. The resulting value can be used to read new biometric information.
그리고, 디시젼 레벨에서의 결합의 경우, Genuine matching(동일 생체로부터 얻어진 복수 정보끼리의 비교)과 Imposter matching(다른 생체로부터 얻어진 복수 정보끼리의 비교)결과를 동공경계정보 비교결과 해밍거리(HDp)에 대한 축과 홍채정보 비교결과 해밍거리(HDi)에 대한 축이 이루는 2차원 평면상에 표현했을 때, 도 7에 된 형태의 분포가 나타난다. 앤드룰(AND rule)을 통해 상기 두 결과를 결합하는 경우, 홍채정보와 동공정보에 대해 모두 임계치(Ti, Tp)이하의 값이 나타나는 경우 액셉트(accept), 즉 생체에 대한 아이덴티티가 확인되고 나머지는 미확인 정보로서 모두 리젝트(reject) 되므로 도 8과 같이 표현 가능하다. 그리고, 오어룰(Or rule)을 통해 결합하는 경우, 홍채 정보와 동공 정부 중 하나만 임계치(Ti 또는 Tp) 이하의 값이 나타나면 액셉트이므로 도 9와 같이 표현 가능하다. 한편, 도 10, 11에 도시된 바와 같은 분포를 가질 경우, 선형 분류기(linear classifier)는 XOR 문제(Exclusive OR problem)로 인한 에러가 심각할 수 있으므로(도 10의 false acceptance error), SVM(Support Vector Machine, 비특허논문 11 참고)과 같은 비선형 분류기법을 사용하여 적절한 분류기를 결정해줄 수 있다. In the case of binding at the decision level, the results of Genuine matching (compare multiple information obtained from the same living body) and Imposter matching (compare multiple information obtained from different living bodies) are compared with the pupil boundary information comparison result Hamming distance (HDp). As a result of comparing the axis with the iris information on the two-dimensional plane formed by the axis about the Hamming distance HDi, the distribution of the shape shown in FIG. 7 appears. In the case of combining the two results through AND rule, when a value below the threshold (Ti, Tp) appears for both the iris information and the pupil information, the accept, i.e. the identity of the living body, is confirmed. Since the rest is rejected as unconfirmed information, it can be expressed as shown in FIG. In the case of combining through an Or rule, if only one of the iris information and the pupil is less than the threshold value Ti or Tp, the value is an accept and thus may be expressed as shown in FIG. 9. On the other hand, when having a distribution as shown in Figures 10 and 11, the linear classifier (linear classifier) may be a serious error due to the XOR problem (Exclusive OR problem) (false acceptance error of Figure 10), SVM (Support Nonlinear classification techniques such as Vector Machine (see Non-Patent Paper 11) can be used to determine the appropriate classifier.
Claims (14)
상기 이미지로부터, 동공 영역을 추출하는 단계; 그리고
상기 동공 영역으로부터 동공의 특정 패턴을 추출하여 생체 고유 정보를 생성하는 단계;를 포함하는 생체 정보 인식 방법.Obtaining an image comprising the pupil and the iris;
Extracting a pupil area from the image; And
And extracting a specific pattern of a pupil from the pupil area to generate biometric information.
상기 고유 정보는 상기 동공 영역의 경계로부터 얻는 것을 특징으로 하는 생체 정보 인식 방법.The method of claim 1,
And the unique information is obtained from a boundary of the pupil area.
상기 고유 정보는 상기 동공 영역의 경계로부터 샘플링되는 복수의 거리 값으로부터 산출하는 것을 특징으로 하는 생체 정보 인식 방법.The method of claim 2,
And the unique information is calculated from a plurality of distance values sampled from a boundary of the pupil area.
상기 고유 정보는 상기 동공 영역의 경계로부터 샘플링되는 거리 값의 변화 값으로부터 산출하는 것을 특징으로 하는 생체 정보 인식 방법.The method of claim 2,
And the unique information is calculated from a change value of a distance value sampled from a boundary of the pupil area.
상기 생체 고유 정보를 생성하는 단계:는,
상기 동공 영역의 정보를 이용하여 상기 동공의 무게 중심을 결정하는 단계; 상기 무게 중심으로부터 상기 동공의 외곽 부분까지의 교점 거리(반경) 값을 일정 각도 간격(360도/N, N: 자연수)으로 산출하는 단계;
상기 거리 값 각각을 인접한 다른 거리 값과의 비교하여 절대차(absolute difference)를 구하고 절대차를 임의 기준값을 기준으로 이진화 값으로 변환하여 생체 고유 정보를 결정하는 단계;를 포함하는 것을 특징으로 하는 생체 정보 인식 방법.5. The method according to any one of claims 1 to 4,
Generating the bio-specific information:
Determining a center of gravity of the pupil using information of the pupil area; Calculating an intersection distance (radius) value from the center of gravity to the outer portion of the pupil at a predetermined angle interval (360 degrees / N, N: natural number);
Comparing each of the distance values with other adjacent distance values to obtain an absolute difference, and converting the absolute difference into a binarization value based on an arbitrary reference value to determine bio-specific information. Information recognition method.
상기 홍채 영역으로부터 생체 고유 정보를 생성하는 단계; 그리고
상기 동공 영역과 홍채 영역으로부터 얻어진 고유정보를 결합하는 단계;를 더 포함하는 것을 특징으로 하는 생체 정보 인식방법.The method of claim 5, wherein
Generating biometric information from the iris region; And
And combining the unique information obtained from the pupil area and the iris area.
상기 고유 정보를 결합하는 단계는 피쳐 레벨(feature level), 스코어 레벨(score level), 디시젼 레벨(decision level) 중의 어느 하나의 레벨에서 수행하는 것을 특징으로 하는 생체 정보 인식 방법.The method according to claim 6,
The combining of the unique information may be performed at any one of a feature level, a score level, and a decision level.
상기 이미지로부터 동공의 특정 패턴을 추출하고 이로부터 생체 고유 정보를 산출하는 정보 처리부;
그리고 상기 생체 고유 정보를 저장하는 저장부;를 포함하는 생체 정보 인식 장치.An image capture unit which acquires an image including a pupil and an iris;
An information processor for extracting a specific pattern of a pupil from the image and calculating biometric information therefrom;
And a storage unit for storing the biometric information.
상기 정보 처리부는, 상기 동공 영역의 경계로부터 상기 고유 정보를 얻는 것을 특징으로 하는 생체 정보 인식 장치.The method of claim 8,
And the information processing unit obtains the unique information from a boundary of the pupil area.
상기 정보 처리부는, 상기 동공 영역의 경계로부터 샘플링되는 복수의 거리 값으로부터 상기 고유 정보를 산출하는 것을 특징으로 하는 생체 정보 인식 장치.The method of claim 8,
And the information processing unit calculates the unique information from a plurality of distance values sampled from a boundary of the pupil area.
상기 정보 처리부는, 상기 동공 영역의 경계로부터 샘플링되는 거리 값의 변화 값으로부터 상기 고유 정보를 산출하는 것을 특징으로 하는 생체 정보 인식.The method of claim 8,
And the information processing unit calculates the unique information from a change value of a distance value sampled from a boundary of the pupil area.
상기 정보 처리부는:
상기 동공 영역의 정보를 이용하여 상기 동공의 무게 중심을 결정하며, 상기 무게 중심으로부터 상기 동공의 외곽 부분까지의 교점 거리(반경) 값을 일정 각도 간격(360도/N, N: 자연수)으로 산출하며,
상기 거리 값 각각을 인접한 다른 거리 값과 비교하여 차이 값(difference)을 구하고, 차이 값의 부호를 기준으로 이진화 값으로 변환하여 생체 고유 정보를 결정하는, 것을 특징으로 하는 생체 정보 인식 장치.The method according to any one of claims 6 to 9,
The information processing unit:
The center of gravity of the pupil is determined using the information of the pupil area, and the intersection distance (radius) value from the center of gravity to the outer portion of the pupil is calculated as a predetermined angular interval (360 degrees / N, N: natural number). ,
And comparing each of the distance values with other adjacent distance values to obtain a difference value, and converting the distance value into a binarization value based on a sign of the difference value to determine biometric information.
상기 정보 처리부는:
상기 홍채 영역으로부터 생체 고유 정보를 생성하고, 그리고
상기 동공 영역과 홍채 영역으로부터 얻어진 고유정보를 결합하는 것을 특징으로 하는 생체 정보 인식 장치.13. The method of claim 12,
The information processing unit:
Generate bio-specific information from the iris region, and
And a unique information obtained from the pupil area and the iris area.
상기 정보 처리부는, 피쳐 레벨(feature level), 스코어 레벨(score level), 디시젼 레벨(decision level) 중의 어느 하나의 레벨에서, 상기 동공 영역과 홍채 영역으로부터 얻어진 고유정보를 결합하는 것을 특징으로 하는 생체 정보 인식 방법.The method of claim 13,
The information processing unit combines the unique information obtained from the pupil area and the iris area at any one of a feature level, a score level, and a decision level. Biometric Information Recognition Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/239,827 US20120308089A1 (en) | 2011-06-03 | 2011-09-22 | Method of biometric authentication by using pupil border and apparatus using the method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20110054149 | 2011-06-03 | ||
KR1020110054149 | 2011-06-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120135381A true KR20120135381A (en) | 2012-12-13 |
Family
ID=47903186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110071551A Ceased KR20120135381A (en) | 2011-06-03 | 2011-07-19 | Method of biometrics and device by using pupil geometry |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120135381A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170036764A (en) * | 2014-07-24 | 2017-04-03 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Pupil detection |
WO2018128241A1 (en) * | 2017-01-09 | 2018-07-12 | 주식회사 쓰리이 | Method for coding iris pattern |
KR20190023748A (en) * | 2017-08-30 | 2019-03-08 | 주식회사 쓰리이 | Payment System and Method for the use of public transportation |
CN113822174A (en) * | 2021-09-02 | 2021-12-21 | 北京的卢深视科技有限公司 | Gaze estimation method, electronic device, and storage medium |
KR20220066739A (en) * | 2020-11-16 | 2022-05-24 | 주식회사 스마트디아그노시스 | Apparatus and method for extraction of iris information |
-
2011
- 2011-07-19 KR KR1020110071551A patent/KR20120135381A/en not_active Ceased
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170036764A (en) * | 2014-07-24 | 2017-04-03 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Pupil detection |
KR20220143171A (en) * | 2014-07-24 | 2022-10-24 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Pupil detection |
WO2018128241A1 (en) * | 2017-01-09 | 2018-07-12 | 주식회사 쓰리이 | Method for coding iris pattern |
US11126841B2 (en) | 2017-01-09 | 2021-09-21 | 3E Co. Ltd. | Method for coding iris pattern |
KR20190023748A (en) * | 2017-08-30 | 2019-03-08 | 주식회사 쓰리이 | Payment System and Method for the use of public transportation |
KR20220066739A (en) * | 2020-11-16 | 2022-05-24 | 주식회사 스마트디아그노시스 | Apparatus and method for extraction of iris information |
CN113822174A (en) * | 2021-09-02 | 2021-12-21 | 北京的卢深视科技有限公司 | Gaze estimation method, electronic device, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110326001B (en) | Systems and methods for performing fingerprint-based user authentication using images captured with a mobile device | |
CN107438854B (en) | System and method for performing fingerprint-based user authentication using images captured by a mobile device | |
CN106557726B (en) | Face identity authentication system with silent type living body detection and method thereof | |
Hou et al. | Finger-vein biometric recognition: A review | |
US20190362130A1 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
US20120308089A1 (en) | Method of biometric authentication by using pupil border and apparatus using the method | |
KR100940902B1 (en) | The biometrics using finger geometry information | |
CN112232155B (en) | Non-contact fingerprint identification method and device, terminal and storage medium | |
Parkavi et al. | Multimodal biometrics for user authentication | |
Diwakar et al. | An extraction and recognition of tongue-print images for biometrics authentication system | |
KR100842258B1 (en) | Method and apparatus for determining forgery of face image | |
Vega et al. | Biometric personal identification system based on patterns created by finger veins | |
Abidin et al. | Iris segmentation analysis using integro-differential and hough transform in biometric system | |
CN112232159A (en) | Fingerprint identification method, device, terminal and storage medium | |
KR20120135381A (en) | Method of biometrics and device by using pupil geometry | |
Carney et al. | A multi-finger touchless fingerprinting system: Mobile fingerphoto and legacy database interoperability | |
Gottemukkula et al. | Method for using visible ocular vasculature for mobile biometrics | |
Nadheen et al. | Fusion in multimodal biometric using iris and ear | |
Estacio et al. | A rotation invariant algorithm for bimodal hand vein recognition system | |
Guo et al. | Iris extraction based on intensity gradient and texture difference | |
CN112232157A (en) | Fingerprint area detection method, device, equipment and storage medium | |
BENzIANE et al. | Biometric Technology based on hand vein | |
CN112232152B (en) | Non-contact fingerprint identification method and device, terminal and storage medium | |
Akintoye et al. | Challenges of finger vein recognition system: a theoretical perspective | |
Uhl et al. | Fusion of iris segmentation results |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20110719 |
|
PG1501 | Laying open of application | ||
N231 | Notification of change of applicant | ||
PN2301 | Change of applicant |
Patent event date: 20131112 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20140715 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20110719 Comment text: Patent Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20150831 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20160211 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20150831 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |