KR20150075481A - 손 자세 인식 기반 사용자 인터페이스 방법 및 시스템 - Google Patents
손 자세 인식 기반 사용자 인터페이스 방법 및 시스템 Download PDFInfo
- Publication number
- KR20150075481A KR20150075481A KR1020130163480A KR20130163480A KR20150075481A KR 20150075481 A KR20150075481 A KR 20150075481A KR 1020130163480 A KR1020130163480 A KR 1020130163480A KR 20130163480 A KR20130163480 A KR 20130163480A KR 20150075481 A KR20150075481 A KR 20150075481A
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- skeleton
- finger
- mpeg
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000003993 interaction Effects 0.000 title description 7
- 210000003811 finger Anatomy 0.000 claims abstract description 157
- 210000003813 thumb Anatomy 0.000 claims abstract description 53
- 238000001514 detection method Methods 0.000 claims abstract description 43
- 210000004247 hand Anatomy 0.000 claims abstract description 28
- 210000000707 wrist Anatomy 0.000 claims abstract description 26
- 230000008569 process Effects 0.000 claims description 32
- 230000007547 defect Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims description 6
- 230000033001 locomotion Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 230000036544 posture Effects 0.000 description 58
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000003292 glue Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000004553 finger phalanx Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 일실시예에 따른 손 자세 인식 기반 사용자 인터페이스 시스템은 손 영역을 검출하고, 손목의 위치와 손가락의 끝 위치가 정해지고, 이 위치들과 함께 대략 검출된 손 영역이 더 정교해지도록 보정하며, 최소 손 영역의 중심점이 손가락 검출을 위해 계산되고, 손가락들의 끝점이 검출되며, 왼손과 오른손 사이 및 엄지, 검지, 중지, 약지 및 소지 사이를 구분하며, 손의 자세와 손가락의 펴진 상태를 판단하고, 최종적으로 손 자세를 인식하는 손 자세 인식부; 및 MPEG-U part 2 표준에 따라서 특징을 가지는 손 자세를 인식하고, 인식된 손 자세를 상호연동 가능한 데이터 포맷으로 표현하기 위해 MPEG-U part 2 표준에 따라서 XML 문서로 파싱하는 MPEG-U XML 생성부를 포함하는 것을 특징으로 한다.
Description
도 2(a)는 Candescent NUI를 이용하여 손 검출의 결과를 보여준다.
도 2(b)는 라인 피팅 알고리즘을 적용하여 손목 검출의 결과를 보여준다.
도 2(c)는 손 영역의 최적 사각형 검출 결과를 보여준다.
도 2(d)는 거리 변환 알고리즘을 적용하여 최적 사각형의 중심을 검출한 결과를 보여준다.
도 2(e)는 Convex Hull 기반의 Convexity Defects 방법을 이용하여 손가락 검출의 결과를 보여준다.
도 3은 본 발명의 손가락 뼈대 인식 알고리즘의 수행과정을 도시한 것이다.
도 4는 사용자가 Rect 자세를 가지는 때 파싱된 MPEG-U part 2 기하학적 패턴의 Rect XML을 도시한 것이다.
110: 입력 이미지
120: 손 자세 인식부
121: 검출모듈
122: 인식모듈
130: MPEG-U XML 생성부
Claims (13)
- 손 자세 인식 기반 사용자 인터페이스 시스템에 있어서,
손 영역을 검출하고, 손목의 위치와 손가락의 끝 위치가 정해지고, 이 위치들과 함께 대략 검출된 손 영역이 더 정교해지도록 보정하며, 최소 손 영역의 중심점이 손가락 검출을 위해 계산되고, 손가락들의 끝점이 검출되며, 왼손과 오른손 사이 및 엄지, 검지, 중지, 약지 및 소지 사이를 구분하며, 손의 자세와 손가락의 펴진 상태를 판단하고, 최종적으로 손 자세를 인식하는 손 자세 인식부; 및
MPEG-U part 2 표준에 따라서 특징을 가지는 손 자세를 인식하고, 인식된 손 자세를 상호연동 가능한 데이터 포맷으로 표현하기 위해 MPEG-U part 2 표준에 따라서 XML 문서로 파싱하는 MPEG-U XML 생성부;를 포함하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 시스템.
- 제 1항에 있어서, 손 자세 인식부는 검출모듈과 인식모듈로 구성되고,
검출모듈은 KINECT에서 적외선을 쏘아 반사되어 돌아오는 시간을 검출 센서에 의해 측정하여 깊이 정보를 획득하고, KINECT로부터 입력 받은 깊이 정보를 Candescent NUI의 오픈 소스를 이용해 손 영역을 검출하고, 검출된 전체 손 영역 중에 최소 손 영역 검출하며, 손목 지점을 찾은 다음으로 손목 지점으로부터 손가락들의 끝 부분까지의 최소 손 영역을 포함하는 최적의 사각형을 계산하며, 거리 변환 알고리즘을 적용하여 최소 손 영역의 중심점을 찾고, Convex Hull 기반의 Convexity Defects 방법을 이용하여 손가락들의 끝 점을 검출하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 시스템.
- 제 2항에 있어서, 상기 인식모듈은
검출된 손과 손가락에 기초하여 오른손과 왼손을 인식하고, 엄지, 검지, 중지, 약지 및 소지를 인식하고, 최소 손 영역이 한 손일 때와 양 손일 때의 상황을 고려하여 손을 인식하며, 만일 양손이라면 위상학적 판단으로 왼쪽에 있는 영역을 왼손, 오른쪽에 있는 영역을 오른손이라 판정하여 인식하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 시스템.
- 제 2항 또는 제 3항에 있어서, 상기 인식모듈은
검출된 손 영역의 개수를 계산하여, 손 영역의 개수가 2개일 때는 손 영역의 중심점이 2개, 손가락 끝점이 10개로 초기화되며, 손 영역의 수가 1개일 때는 손 영역의 중심점이 1개, 손가락 끝점이 5개로 초기화되며,
손 영역의 중심점이 C(xc,yc)이고 각 손가락의 끝점이 Fi(xi,yi),(i=0~4)일 때, 각 손가락의 뼈대 Li는 C와 Fi를 연결하는 선을 그려 손의 뼈대가 만들어지며,
각 뼈대의 길이 Length_Li 중 두 개의 가장 짧은 뼈대를 찾고, 엄지의 뼈대 후보를 찾아 가능한 엄지의 뼈대 후보 LS1와 LS2를 판정하며, 엄지의 뼈대 후보 중에서 그 길이 값이 임계 값 보다 더 작은 뼈대가 선택되고, 선택된 뼈대가 최적 엄지 뼈대로 판정되거나, 인접 뼈대와의 각도를 이용하여 다른 뼈대와의 각도 값이 임계값 보다 작거나 큰 때에 최적 엄지 뼈대라고 판정되며,
엄지의 뼈대의 인식 후에 엄지에 가장 가까운 뼈대 순서로 손가락의 나머지가 검지, 중지, 약지 및 소지의 뼈대로 인식하며, 그 후에, 만일 인식된 손가락의 뼈대를 이용하여 손가락의 끝점이 해당 뼈대에 놓이거나 해당 뼈대에 인접하여 놓이게 되면, 손가락의 끝점은 해당 뼈대의 손가락의 끝점으로 인식되고,
손 자세와 각 손가락이 펴져있는지를 판단하여 최종 손 자세가 인식되는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 시스템.
- 제 4항에 있어서, 손 자세 인식부는
실시간 응용을 위하여 각 입력 시점에서 새로운 뼈대가 만들어지지 않으며, 검출모듈만 실행되고, 얻어진 최적 사각형이 이전의 최적 사각형의 점과 비교되고, 이동과 회전 변환의 매개변수가 계산되고, 이것을 이전 점에서 생성된 뼈대에 적용하고 뼈대의 생성을 위한 복잡도를 감소시키는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 시스템.
- 제 1항에 있어서, 상기 MPEG-U XML 생성부는
MPEG-U part 2에 정의된 스키마 구조에 따른 MPEG-U Part 2 표준에 따라서 XML 문서를 생성하며, 상기 MPEG-U Part 2는 모든 데이터 타입에 대한 스키마 구조를 XSD(XML SCHEMA DEFINITION) 문서로 지원하도록 하고, 만약 사용자가 자신의 인식되어진 손과 손가락을 이용해 가위(Scissors)라는 포즈를 취하게 되면, 가위 타입의 스키마 구조를 이용하여 해당 XML 문서를 생성하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 시스템.
- 손 자세 인식 기반 사용자 인터페이스 방법에 있어서,
손 영역을 검출하고, 손목의 위치와 손가락의 끝 위치가 정해지고, 이 위치들과 함께 대략 검출된 손 영역이 더 정교해지도록 보정하며, 최소 손 영역의 중심점이 손가락 검출을 위해 계산되고, 손가락들의 끝점이 검출되며, 왼손과 오른손 사이 및 엄지, 검지, 중지, 약지 및 소지 사이를 구분하며, 손의 자세와 손가락의 펴진 상태를 판단하고, 최종적으로 손 자세를 인식하는 손 자세 인식 단계; 및
MPEG-U part 2 표준에 따라서 특징을 가지는 손 자세를 인식하고, 인식된 손 자세를 상호연동 가능한 데이터 포맷으로 표현하기 위해 MPEG-U part 2 표준에 따라서 XML 문서로 파싱하는 MPEG-U XML 생성 단계;를 포함하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 방법.
- 제 7항에 있어서, 손 자세 인식 단계는 검출단계와 인식단계를 포함하여 구성되고,
상기 검출단계는
KINECT에서 적외선을 쏘아 반사되어 돌아오는 시간을 검출 센서에 의해 측정하여 깊이 정보를 획득하는 과정,
KINECT로부터 입력 받은 깊이 정보를 Candescent NUI의 오픈 소스를 이용해 손 영역을 검출하는 과정,
검출된 전체 손 영역 중에 최소 손 영역 검출하는 과정,
손목 지점을 찾고, 손목 지점으로부터 손가락들의 끝 부분까지의 최소 손 영역을 포함하는 최적의 사각형을 계산하는 과정,
거리 변환 알고리즘을 적용하여 최소 손 영역의 중심점을 찾는 과정, 및
Convex Hull 기반의 Convexity Defects 방법을 이용하여 손가락들의 끝 점을 검출하는 과정을 포함하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 방법.
- 제 8항에 있어서, 상기 인식단계는
검출된 손과 손가락에 기초하여 오른손과 왼손을 인식하는 과정,
엄지, 검지, 중지, 약지 및 소지를 인식하는 과정, 및
최소 손 영역이 한 손일 때와 양 손일 때의 상황을 고려하여 손을 인식하며, 만일 양손이라면 위상학적 판단으로 왼쪽에 있는 영역을 왼손, 오른쪽에 있는 영역을 오른손이라 판정하여 인식하는 과정을 포함하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 방법.
- 제 8항 또는 제 9항에 있어서, 상기 인식단계는
검출된 손 영역의 개수를 계산하여, 손 영역의 개수가 2개일 때는 손 영역의 중심점이 2개, 손가락 끝점이 10개로 초기화되고, 손 영역의 수가 1개일 때는 손 영역의 중심점이 1개, 손가락 끝점이 5개로 초기화되는 과정,
손 영역의 중심점이 C(xc,yc)이고 각 손가락의 끝점이 Fi(xi,yi),(i=0~4)일 때, 각 손가락의 뼈대 Li는 C와 Fi를 연결하는 선을 그려 손의 뼈대가 만들어지는 과정,
각 뼈대의 길이 Length_Li 중 두 개의 가장 짧은 뼈대를 찾고, 엄지의 뼈대 후보를 찾아 가능한 엄지의 뼈대 후보 LS1와 LS2를 판정하며, 엄지의 뼈대 후보 중에서 그 길이 값이 임계 값 보다 더 작은 뼈대가 선택되고, 선택된 뼈대가 최적 엄지 뼈대로 판정되거나, 인접 뼈대와의 각도를 이용하여 다른 뼈대와의 각도 값이 임계값 보다 작거나 큰 때에 최적 엄지 뼈대라고 판정되는 과정,
엄지의 뼈대의 인식 후에 엄지에 가장 가까운 뼈대 순서로 손가락의 나머지가 검지, 중지, 약지 및 소지의 뼈대로 인식하는 과정,
그 후에, 만일 인식된 손가락의 뼈대를 이용하여 손가락의 끝점이 해당 뼈대에 놓이거나 해당 뼈대에 인접하여 놓이게 되면, 손가락의 끝점은 해당 뼈대의 손가락의 끝점으로 인식되는 과정, 및
손 자세와 각 손가락이 펴져있는지를 판단하여 최종 손 자세가 인식되는 과정을 포함하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 방법.
- 제 10항에 있어서, 상기 손 자세 인식 단계는
실시간 응용을 위하여 각 입력 시점에서 새로운 뼈대가 만들어지지 않으며, 검출모듈만 실행되고, 얻어진 최적 사각형이 이전의 최적 사각형의 점과 비교되고, 이동과 회전 변환의 매개변수가 계산되고, 이것을 이전 점에서 생성된 뼈대에 적용하고 뼈대의 생성을 위한 복잡도를 감소시키는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 방법.
- 제 7항에 있어서, 상기 MPEG-U XML 생성 단계는
MPEG-U part 2에 정의된 스키마 구조에 따른 MPEG-U Part 2 표준에 따라서 XML 문서를 생성하는 과정,
상기 MPEG-U Part 2는 모든 데이터 타입에 대한 스키마 구조를 XSD(XML SCHEMA DEFINITION) 문서로 지원하도록 하는 과정,
만약 사용자가 자신의 인식되어진 손과 손가락을 이용해 가위(Scissors)라는 포즈를 취하게 되면, 가위 타입의 스키마 구조를 이용하여 해당 XML 문서를 생성하는 과정을 포함하는 것을 특징으로 하는 손 자세 인식 기반 사용자 인터페이스 방법.
- 제 7 항 내지 제 12 항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130163480A KR101541421B1 (ko) | 2013-12-26 | 2013-12-26 | 손 자세 인식 기반 사용자 인터페이스 방법 및 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130163480A KR101541421B1 (ko) | 2013-12-26 | 2013-12-26 | 손 자세 인식 기반 사용자 인터페이스 방법 및 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150075481A true KR20150075481A (ko) | 2015-07-06 |
KR101541421B1 KR101541421B1 (ko) | 2015-08-03 |
Family
ID=53788588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130163480A Expired - Fee Related KR101541421B1 (ko) | 2013-12-26 | 2013-12-26 | 손 자세 인식 기반 사용자 인터페이스 방법 및 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101541421B1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170068829A (ko) * | 2015-12-10 | 2017-06-20 | 현대모비스 주식회사 | 제스쳐 인식 시 손가락 포인트 보정 방법 및 그 장치 |
US10078796B2 (en) | 2015-09-03 | 2018-09-18 | Korea Institute Of Science And Technology | Apparatus and method of hand gesture recognition based on depth image |
WO2019004686A1 (ko) * | 2017-06-26 | 2019-01-03 | 서울대학교산학협력단 | 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법 |
CN114995388A (zh) * | 2022-05-08 | 2022-09-02 | 西北工业大学 | 一种姿态控制的实验水池航车控制系统及方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101962872B1 (ko) | 2017-03-31 | 2019-03-27 | 중앙대학교 산학협력단 | 손동작 추적을 이용한 스마트 인식 시스템 및 방법 |
-
2013
- 2013-12-26 KR KR1020130163480A patent/KR101541421B1/ko not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10078796B2 (en) | 2015-09-03 | 2018-09-18 | Korea Institute Of Science And Technology | Apparatus and method of hand gesture recognition based on depth image |
KR20170068829A (ko) * | 2015-12-10 | 2017-06-20 | 현대모비스 주식회사 | 제스쳐 인식 시 손가락 포인트 보정 방법 및 그 장치 |
WO2019004686A1 (ko) * | 2017-06-26 | 2019-01-03 | 서울대학교산학협력단 | 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법 |
KR20190001559A (ko) * | 2017-06-26 | 2019-01-04 | 서울대학교산학협력단 | 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법 |
KR20200112777A (ko) * | 2017-06-26 | 2020-10-05 | 서울대학교산학협력단 | 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법 |
US10963066B2 (en) | 2017-06-26 | 2021-03-30 | Seoul National University R&Db Foundation | Keyboard input system and keyboard input method using finger gesture recognition |
CN114995388A (zh) * | 2022-05-08 | 2022-09-02 | 西北工业大学 | 一种姿态控制的实验水池航车控制系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
KR101541421B1 (ko) | 2015-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
JP4625074B2 (ja) | サインに基づく人間−機械相互作用 | |
CN104317391B (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
KR101865655B1 (ko) | 증강현실 상호 작용 서비스 제공 장치 및 방법 | |
JP6079832B2 (ja) | ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法 | |
US8830312B2 (en) | Systems and methods for tracking human hands using parts based template matching within bounded regions | |
KR101807241B1 (ko) | 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체 | |
Nickel et al. | Visual recognition of pointing gestures for human–robot interaction | |
JP3863809B2 (ja) | 手の画像認識による入力システム | |
US9480417B2 (en) | Posture estimation device, posture estimation system, and posture estimation method | |
KR101541421B1 (ko) | 손 자세 인식 기반 사용자 인터페이스 방법 및 시스템 | |
US20130279756A1 (en) | Computer vision based hand identification | |
JP2011501316A (ja) | ラベル割当を用いた手サイン認識 | |
KR100862349B1 (ko) | 제스처 인식 기능을 이용한 반투과 거울 기반 사용자인터페이스 시스템 | |
WO2013051681A1 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
Leite et al. | Hand gesture recognition from depth and infrared Kinect data for CAVE applications interaction | |
KR20060021001A (ko) | 개체인지를 이용한 Marker-less 증강현실과 복합현실 응용시스템 및 그 방법 | |
Jiang et al. | independent hand gesture recognition with Kinect | |
CN113961067A (zh) | 基于深度学习的非接触式涂鸦绘制方法与识别交互系统 | |
Xu et al. | A novel method for hand posture recognition based on depth information descriptor. | |
KR102237131B1 (ko) | 객체를 포함하는 이미지를 처리하는 장치 및 방법 | |
Abdallah et al. | An overview of gesture recognition | |
KR101909326B1 (ko) | 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템 | |
Chen et al. | Static hand gesture recognition based on finger root-center-angle and length weighted mahalanobis distance | |
Vančo et al. | Gesture identification for system navigation in 3D scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20131226 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20150121 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20150723 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20150728 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20150729 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20180703 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20180703 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190702 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20190702 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20200701 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20210629 Start annual number: 7 End annual number: 7 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20240508 |