KR102227939B1 - 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치 - Google Patents
단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치 Download PDFInfo
- Publication number
- KR102227939B1 KR102227939B1 KR1020190038587A KR20190038587A KR102227939B1 KR 102227939 B1 KR102227939 B1 KR 102227939B1 KR 1020190038587 A KR1020190038587 A KR 1020190038587A KR 20190038587 A KR20190038587 A KR 20190038587A KR 102227939 B1 KR102227939 B1 KR 102227939B1
- Authority
- KR
- South Korea
- Prior art keywords
- word
- context
- embedding
- words
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000000877 morphologic effect Effects 0.000 claims abstract description 48
- 239000013598 vector Substances 0.000 claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000002457 bidirectional effect Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 16
- 230000006403 short-term memory Effects 0.000 claims description 12
- 230000009467 reduction Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 11
- 238000003058 natural language processing Methods 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 8
- 238000012552 review Methods 0.000 description 7
- 230000007787 long-term memory Effects 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 235000013353 coffee beverage Nutrition 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 235000015115 caffè latte Nutrition 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- TXWRERCHRDBNLG-UHFFFAOYSA-N cubane Chemical compound C12C3C4C1C1C4C3C12 TXWRERCHRDBNLG-UHFFFAOYSA-N 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000015114 espresso Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법에서 단어 임베딩 학습 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 단어의 문맥 정보와 형태론적 정보를 고려한 문맥 문자 모델의 구조를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법에서 단어 임베딩 예측 방법을 설명하기 위한 흐름도이다.
도 5 내지 도 9는 본 발명의 일 실시예에 따른 단어 임베딩 방법에서 단어 임베딩 학습 과정을 예시로 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치의 구성을 설명하기 위한 구성도이다.
도 11은 본 발명의 일 실시예에 따른 단어 임베딩 방법의 실험을 위한 학습 설정을 설명하기 위한 도면이다.
도 12 및 도 13은 본 발명의 일 실시예에 따른 실험에서 사용된 리뷰 데이터 세트의 OOV 비율을 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예와 종래의 다른 OOV 단어 처리 기법들의 텍스트 분류 성능 비교를 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시예와 종래의 다른 OOV 단어 처리 기법들을 테스트 손실 비교를 설명하기 위한 도면이다.
도 16 및 도 17은 본 발명의 일 실시예에 따른 단어 임베딩 방법을 적용하여 OOV 단어를 포함하는 문장에 대해 실험하는 과정과 실험 결과를 설명하기 위한 도면이다.
110: 메모리
120: 프로세서
Claims (22)
- 단어 임베딩 장치에 의해 수행되는 단어 임베딩 방법에 있어서,
학습시킬 문장에서 미등록 단어(OOV: Out Of Vocabulary)를 미지의 토큰(unknown token)으로 대체하여 문장을 가공하는 단계;
상기 가공된 문장에서 상기 미등록 단어를 제외한 타겟 단어의 문자(Character)를 학습 대상인 문맥 문자 모델(Context Character Model)의 입력으로 입력하는 단계;
상기 문장에서 타겟 단어의 주변 단어에 대한 주변 문맥 벡터를 조합하여 상기 문맥 문자 모델의 초기 상태로 설정하는 단계; 및
상기 문맥 문자 모델로부터 산출된 순방향 은닉 상태(Forward hidden state) 및 역방향 은닉 상태(Backward hidden state)를 연결하여 생성된 상기 타겟 단어의 예측 임베딩(Predicted embedding)과 상기 타겟 단어의 실제 임베딩(Real embedding) 간의 오류가 최소가 되도록, 상기 문맥 문자 모델을 학습하는 단계를 포함하고,
상기 문맥 문자 모델을 학습하는 단계는, 상기 타겟 단어의 예측 임베딩(Predicted embedding)과 상기 타겟 단어의 실제 임베딩(Real embedding) 간의 평균 제곱 오차(mean squared error)가 최소가 되도록, 상기 문맥 문자 모델을 학습하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제1항에 있어서,
상기 학습시킬 문장에서 문장 부호 및 불용어(stopword)를 제거하는 단계를 더 포함하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제1항에 있어서,
상기 문맥 문자 모델은,
문자 기반의 양방향 장단기 메모리(Character-based Bidirectional Long Short-Term Memory) 구조를 가지는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제1항에 있어서,
상기 초기 상태로 설정하는 단계는,
상기 주변 단어에 대한 주변 문맥 벡터의 평균을 계산하여 상기 문맥 문자 모델의 양방향에 대한 초기 상태로 설정하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제1항에 있어서,
상기 문맥 문자 모델을 학습하는 단계는,
상기 연결된 순방향 은닉 상태 및 역방향 은닉 상태를 밀집 레이어(Dense layer)를 거친 차원 축소를 통해 상기 타겟 단어의 예측 임베딩을 생성하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 삭제
- 단어 임베딩 장치에 의해 수행되는 단어 임베딩 방법에 있어서,
문장에서 사전에 학습되지 않은 미등록 단어(OOV: Out Of Vocabulary)의 문자(Character)를 기 학습된 문맥 문자 모델의 입력으로 입력하는 단계;
상기 문장에서 미등록 단어의 주변 단어에 대한 주변 문맥 벡터를 조합하여 상기 문맥 문자 모델의 초기 상태로 설정하는 단계; 및
상기 문맥 문자 모델로부터 산출된 순방향 은닉 상태(Forward hidden state) 및 역방향 은닉 상태(Backward hidden state)를 연결하여 미등록 단어의 임베딩을 예측하는 단계를 포함하고,
상기 문맥 문자 모델은, 산출된 순방향 은닉 상태(Forward hidden state) 및 역방향 은닉 상태(Backward hidden state)를 연결하여 생성된 상기 미등록 단어를 제외한 타겟 단어의 예측 임베딩(Predicted embedding)과 상기 타겟 단어의 실제 임베딩(Real embedding) 간의 평균 제곱 오차(mean squared error)가 최소가 되도록 학습되는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제7항에 있어서,
상기 문장에서 문장 부호 및 불용어(stopword)를 제거하는 단계를 더 포함하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제7항에 있어서,
상기 기 학습된 문맥 문자 모델은,
문자 기반의 양방향 장단기 메모리(Character-based Bidirectional Long Short-Term Memory) 구조를 가지는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제7항에 있어서,
상기 초기 상태로 설정하는 단계는,
상기 주변 단어에 대한 주변 문맥 벡터의 평균을 계산하여 상기 문맥 문자 모델의 양방향에 대한 초기 상태로 설정하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 제7항에 있어서,
상기 미등록 단어의 임베딩을 예측하는 단계는,
상기 연결된 순방향 은닉 상태 및 역방향 은닉 상태를 밀집 레이어(Dense layer)를 거친 차원 축소를 통해 상기 미등록 단어의 임베딩을 예측하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법. - 적어도 하나의 프로그램을 저장하는 메모리; 및
상기 메모리와 연결된 프로세서를 포함하고,
상기 프로세서는, 상기 적어도 하나의 프로그램을 실행함으로써,
학습시킬 문장에서 미등록 단어(OOV: Out Of Vocabulary)를 미지의 토큰(unknown token)으로 대체하여 문장을 가공하고,
상기 가공된 문장에서 상기 미등록 단어를 제외한 타겟 단어의 문자(Character)를 학습 대상인 문맥 문자 모델(Context Character Model)의 입력으로 입력하고,
상기 문장에서 타겟 단어의 주변 단어에 대한 주변 문맥 벡터를 조합하여 상기 문맥 문자 모델의 초기 상태로 설정하고,
상기 문맥 문자 모델로부터 산출된 순방향 은닉 상태(Forward hidden state) 및 역방향 은닉 상태(Backward hidden state)를 연결하여 생성된 상기 타겟 단어의 예측 임베딩(Predicted embedding)과 상기 타겟 단어의 실제 임베딩(Real embedding) 간의 오류가 최소가 되도록, 상기 문맥 문자 모델을 학습하되,
상기 타겟 단어의 예측 임베딩(Predicted embedding)과 상기 타겟 단어의 실제 임베딩(Real embedding) 간의 평균 제곱 오차(mean squared error)가 최소가 되도록, 상기 문맥 문자 모델을 학습하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제12항에 있어서,
상기 프로세서는,
상기 학습시킬 문장에서 문장 부호 및 불용어(stopword)를 제거하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제12항에 있어서,
상기 문맥 문자 모델은,
문자 기반의 양방향 장단기 메모리(Character-based Bidirectional Long Short-Term Memory) 구조를 가지는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제12항에 있어서,
상기 프로세서는,
상기 주변 단어에 대한 주변 문맥 벡터의 평균을 계산하여 상기 문맥 문자 모델의 양방향에 대한 초기 상태로 설정하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제12항에 있어서,
상기 프로세서는,
상기 연결된 순방향 은닉 상태 및 역방향 은닉 상태를 밀집 레이어(Dense layer)를 거친 차원 축소를 통해 상기 타겟 단어의 예측 임베딩을 생성하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 삭제
- 적어도 하나의 프로그램을 저장하는 메모리; 및
상기 메모리와 연결된 프로세서를 포함하고,
상기 프로세서는, 상기 적어도 하나의 프로그램을 실행함으로써,
문장에서 사전에 학습되지 않은 미등록 단어(OOV: Out Of Vocabulary)의 문자(Character)를 기 학습된 문맥 문자 모델의 입력으로 입력하고,
상기 문장에서 미등록 단어의 주변 단어에 대한 주변 문맥 벡터를 조합하여 상기 문맥 문자 모델의 초기 상태로 설정하고,
상기 문맥 문자 모델로부터 산출된 순방향 은닉 상태(Forward hidden state) 및 역방향 은닉 상태(Backward hidden state)를 연결하여 미등록 단어의 임베딩을 예측하고,
상기 문맥 문자 모델은, 산출된 순방향 은닉 상태(Forward hidden state) 및 역방향 은닉 상태(Backward hidden state)를 연결하여 생성된 상기 미등록 단어를 제외한 타겟 단어의 예측 임베딩(Predicted embedding)과 상기 타겟 단어의 실제 임베딩(Real embedding) 간의 평균 제곱 오차(mean squared error)가 최소가 되도록 학습되는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제18항에 있어서,
상기 프로세서는,
상기 문장에서 문장 부호 및 불용어(stopword)를 제거하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제18항에 있어서,
상기 기 학습된 문맥 문자 모델은,
문자 기반의 양방향 장단기 메모리(Character-based Bidirectional Long Short-Term Memory) 구조를 가지는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제18항에 있어서,
상기 프로세서는,
상기 주변 단어에 대한 주변 문맥 벡터의 평균을 계산하여 상기 문맥 문자 모델의 양방향에 대한 초기 상태로 설정하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치. - 제18항에 있어서,
상기 프로세서는,
상기 연결된 순방향 은닉 상태 및 역방향 은닉 상태를 밀집 레이어(Dense layer)를 거친 차원 축소를 통해 상기 미등록 단어의 임베딩을 예측하는, 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190038587A KR102227939B1 (ko) | 2019-04-02 | 2019-04-02 | 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치 |
PCT/KR2020/003000 WO2020204364A2 (ko) | 2019-04-02 | 2020-03-03 | 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190038587A KR102227939B1 (ko) | 2019-04-02 | 2019-04-02 | 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200116760A KR20200116760A (ko) | 2020-10-13 |
KR102227939B1 true KR102227939B1 (ko) | 2021-03-15 |
Family
ID=72667172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190038587A Active KR102227939B1 (ko) | 2019-04-02 | 2019-04-02 | 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102227939B1 (ko) |
WO (1) | WO2020204364A2 (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102586569B1 (ko) | 2020-11-12 | 2023-10-10 | 주식회사 엔씨소프트 | 아이템 임베딩 장치 및 방법 |
KR102614912B1 (ko) * | 2021-02-10 | 2023-12-19 | 주식회사 페어랩스 | 딥러닝 기반 특허 잠재가치 평가 장치 및 그 방법 |
CN113190602B (zh) * | 2021-04-09 | 2022-03-25 | 桂林电子科技大学 | 融合字词特征与深度学习的事件联合抽取方法 |
CN113254637B (zh) * | 2021-05-07 | 2023-04-07 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
KR102574512B1 (ko) * | 2021-08-19 | 2023-09-05 | 성균관대학교산학협력단 | 은유 탐지 장치 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004070636A (ja) | 2002-08-06 | 2004-03-04 | Mitsubishi Electric Corp | 概念検索装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7265837B2 (ja) * | 2017-07-20 | 2023-04-27 | ヤフー株式会社 | 学習装置および学習方法 |
KR102012404B1 (ko) * | 2017-08-18 | 2019-08-20 | 동아대학교 산학협력단 | 언어 분석기별 정답 레이블 분포를 이용한 자연어 이해 방법 |
-
2019
- 2019-04-02 KR KR1020190038587A patent/KR102227939B1/ko active Active
-
2020
- 2020-03-03 WO PCT/KR2020/003000 patent/WO2020204364A2/ko active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004070636A (ja) | 2002-08-06 | 2004-03-04 | Mitsubishi Electric Corp | 概念検索装置 |
Non-Patent Citations (4)
Title |
---|
Bazzi, Modelling out-of-vocabulary words for robust speech recognition, MIT Press, available on https://dspace.mit.edu/handle/1721.1/29241 (2002)* |
F. Horn, Context encoders as a simple but powerful extension of word2vec, arXiv:1706.02496v1 (2017.06.08)* |
M. Seo et al., Bi-directional attention flow for machine comprehension, ICLR 2017* |
R. Sennrich et al., Neural Machine Translation of Rare Words with Subword Units, arXiv:1508.07909v5 (2016.06.10) |
Also Published As
Publication number | Publication date |
---|---|
WO2020204364A3 (ko) | 2020-11-19 |
WO2020204364A2 (ko) | 2020-10-08 |
KR20200116760A (ko) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102227939B1 (ko) | 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치 | |
CN109933780B (zh) | 使用深度学习技术确定文档中的上下文阅读顺序 | |
CN110347799B (zh) | 语言模型训练方法、装置和计算机设备 | |
US20180189272A1 (en) | Apparatus and method for sentence abstraction | |
JP6649536B1 (ja) | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム | |
KR102143745B1 (ko) | 음절 기반의 벡터를 이용한 한글 오류 보정 방법 및 한글 오류 보정 시스템 | |
CN110210032A (zh) | 文本处理方法及装置 | |
US20200042547A1 (en) | Unsupervised text simplification using autoencoders with a constrained decoder | |
JP7342971B2 (ja) | 対話処理装置、学習装置、対話処理方法、学習方法及びプログラム | |
CN113268996B (zh) | 用于扩充语料的方法和用于翻译模型的训练方法及产品 | |
CN113239666B (zh) | 一种文本相似度计算方法及系统 | |
KR20210044559A (ko) | 출력 토큰 결정 방법 및 장치 | |
CN111368531A (zh) | 翻译文本处理方法、装置、计算机设备和存储介质 | |
KR102519618B1 (ko) | 단대단 신경망 번역 시스템 및 그 방법 | |
KR20210044003A (ko) | 단어 임베딩 방법 및 장치와 단어 검색 방법 | |
KR20230062064A (ko) | 문서 요약을 위한 방법 및 장치 | |
Khassanov et al. | Enriching rare word representations in neural language models by embedding matrix augmentation | |
Choi et al. | VAE-PGN based abstractive model in multi-stage architecture for text summarization | |
JP7555701B2 (ja) | テキスト処理装置、方法、デバイス及びコンピュータ読み取り可能な記録媒体 | |
JP4405542B2 (ja) | 音素モデルをクラスタリングする装置、方法およびプログラム | |
KR102561817B1 (ko) | 어족 기반 지식 증류 기법을 적용한 다국어 신경망 기계 번역 시스템, 장치 및 방법 | |
KR102743434B1 (ko) | 한국어 최적화된 토큰화 및 임베딩 기반의 언어모델 학습 장치 및 방법, 어휘사전 구축 방법 | |
CN115437511B (zh) | 一种拼音汉字转换方法、转换模型训练方法及存储介质 | |
JP5980142B2 (ja) | 学習データ選択装置、識別的音声認識精度推定装置、学習データ選択方法、識別的音声認識精度推定方法、プログラム | |
JP4226942B2 (ja) | アクセント位置推定方法、装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190402 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200827 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210222 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210309 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210310 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20231227 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20241226 Start annual number: 5 End annual number: 5 |