KR102177567B1 - Method for generating bone image and apparatus using the same - Google Patents
Method for generating bone image and apparatus using the same Download PDFInfo
- Publication number
- KR102177567B1 KR102177567B1 KR1020190162678A KR20190162678A KR102177567B1 KR 102177567 B1 KR102177567 B1 KR 102177567B1 KR 1020190162678 A KR1020190162678 A KR 1020190162678A KR 20190162678 A KR20190162678 A KR 20190162678A KR 102177567 B1 KR102177567 B1 KR 102177567B1
- Authority
- KR
- South Korea
- Prior art keywords
- bone
- feature vector
- bone image
- image
- age
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000000988 bone and bone Anatomy 0.000 title claims abstract description 229
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000013598 vector Substances 0.000 claims abstract description 115
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 12
- 238000004891 communication Methods 0.000 claims description 16
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- CYTYCFOTNPOANT-UHFFFAOYSA-N Perchloroethylene Chemical compound ClC(Cl)=C(Cl)Cl CYTYCFOTNPOANT-UHFFFAOYSA-N 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000014461 bone development Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001493 electron microscopy Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/505—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H70/00—ICT specially adapted for the handling or processing of medical references
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Data Mining & Analysis (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Dentistry (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 골 영상 생성 방법 및 이를 이용한 장치에 관한 것이다.The present invention relates to a bone image generation method and an apparatus using the same.
일반적으로 골 연령을 판독하는 다양한 평가 방식은 각각의 연령을 대표하는 골 영상에 대한 비교를 통해 수행된다.In general, various evaluation methods for reading bone age are performed by comparing bone images representing each age.
데이터베이스화된 연령별 대표 골 영상을 이용하는 방식의 경우, 대표 골 영상에 존재하지 않는 연령, 중간 단계에 해당하는 연령(예를 들어,10.4세, 21.3세 등)에 대해서는 판독자 별로 판독 결과가 상이할 수 있다.In the case of using the database-based representative bone image by age, the reading result may be different for each reader for the age that does not exist in the representative bone image or the intermediate age (e.g., 10.4 years, 21.3 years, etc.). have.
입력 영상의 특징 벡터를 추출하고, 이에 기반하여 골 연령을 판독하는 인공 신경망의 경우, 준비된 학습 데이터에 기반하여 학습될 수 있다. 이 경우, 일부 학습 데이터가 누락되는 연령에 대해서는 성능이 떨어질 가능성이 높다.In the case of an artificial neural network that extracts a feature vector of an input image and reads a bone age based on this, it may be learned based on prepared training data. In this case, there is a high possibility that performance will deteriorate for ages in which some training data is missing.
본 발명은 미리 저장된 골 영상을 이용하여, 데이터베이스화되어있지 않은 연령에 대응되는 골 영상을 생성함으로써, 골 영상에 대한 판독을 보조할 수 있는 수단을 제공하고자 한다.An object of the present invention is to provide a means for assisting the reading of the bone image by generating a bone image corresponding to an age that is not in a database using a previously stored bone image.
또한, 골 영상으로부터 특징 벡터를 추출하는 판독 모델의 판독 정확성을 향상시킬 수 있는 판독 모델 학습 방법을 제공하고자 한다.In addition, an object of the present invention is to provide a reading model learning method capable of improving reading accuracy of a reading model that extracts feature vectors from a bone image.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described later is as follows.
본 발명의 일 태양(aspect)에 따르면, 컴퓨팅 장치에 의해 수행되는 골 영상 생성 방법은 (a) 타깃 골 연령을 입력받는 단계; (b) 타깃 골 연령에 대응되는 골 영상을 생성하기 위한 제1 후보 골 영상 및 제2 후보 골 영상을 획득하는 단계; (c) 미리 학습된 판독 모델에 기초하여, 상기 제1 후보 골 영상 및 제2 후보 골 영상 각각에 대한 제1 특징 벡터 및 제2 특징 벡터를 획득하는 단계; (d) 상기 제1 특징 벡터 및 상기 제2 특징 벡터를 합성하여 상기 타깃 골 연령에 대응되는 제3 특징 벡터를 생성하는 단계; 및 (e) 상기 제3 특징 벡터에 기초하여, 상기 타깃 골 연령에 대응되는 타깃 골 영상을 생성하는 단계를 포함할 수 있다.According to an aspect of the present invention, a method for generating a bone image performed by a computing device includes the steps of: (a) receiving a target bone age; (b) obtaining a first candidate bone image and a second candidate bone image for generating a bone image corresponding to the target bone age; (c) obtaining a first feature vector and a second feature vector for each of the first candidate bone image and the second candidate bone image, based on a pre-learned readout model; (d) synthesizing the first feature vector and the second feature vector to generate a third feature vector corresponding to the target bone age; And (e) generating a target bone image corresponding to the target bone age based on the third feature vector.
일 실시예에 따르면, 상기 미리 학습된 판독 모델은 가공된 학습 골 영상에 기초하여, 입력 골 영상의 특징 벡터를 출력하도록 미리 학습되고, 상기 가공된 학습 골 영상은 학습 골 영상에 획득한 제1 학습 골 영상 및 제2 학습 골 영상을 합성하여, 상기 제1 학습 골 영상에 대응되는 제1 골 연령 및 상기 제2 학습 골 영상에 대응되는 제2 골 연령 사이의 연령에 대응되는 제3 골 연령에 대응되는 제3 학습 골 영상을 생성함으로써 생성될 수 있다.According to an embodiment, the pre-learned readout model is pre-trained to output a feature vector of an input bone image based on a processed learning bone image, and the processed learning bone image is obtained from the first learning bone image. By synthesizing the learning bone image and the second learning bone image, the third bone age corresponding to the age between the first bone age corresponding to the first learning bone image and the second bone age corresponding to the second learning bone image It may be generated by generating a third learning goal image corresponding to.
일 태양에 따른 골 영상을 생성하는 컴퓨팅 장치는 타깃 골 연령에 대한 입력을 수신하는 통신부; 및 상기 타깃 골 연령에 대응되는 타깃 골 영상을 생성하는 프로세서를 포함하고, 상기 프로세서는 미리 학습된 판독 모델에 기초하여, 상기 제1 후보 골 영상 및 제2 후보 골 영상 각각에 대한 제1 특징 벡터 및 제2 특징 벡터를 획득하고, 상기 제1 특징 벡터 및 상기 제2 특징 벡터를 합성하여 상기 타깃 골 연령에 대응되는 제3 특징 벡터를 생성하고, 제3 특징 벡터에 기초하여, 상기 타깃 골 연령에 대응되는 타깃 골 영상을 생성할 수 있다. A computing device for generating a bone image according to an aspect includes: a communication unit for receiving an input for a target bone age; And a processor for generating a target bone image corresponding to the target bone age, wherein the processor comprises a first feature vector for each of the first candidate bone image and the second candidate bone image based on a pre-learned read model And obtaining a second feature vector, synthesizing the first feature vector and the second feature vector to generate a third feature vector corresponding to the target bone age, and based on the third feature vector, the target bone age A target goal image corresponding to may be generated.
본 발명의 일 실시 예에 의하면, 데이터베이스화 되어 있지 않는 연령에 대응되는 골 영상을 추가적으로 제공함으로써, 골 연령 판독의 정확도를 향상시킬 수 있다.According to an embodiment of the present invention, accuracy of bone age reading may be improved by additionally providing a bone image corresponding to an age that is not in a database.
또한, 가공된 학습 데이터를 이용하는 개선된 학습 방법에 기반하여, 골 영상에서 특징 벡터를 추출하도록 학습되는 판독 모델의 성능을 향상시킬 수 있는 현저한 효과를 제공할 수 있다.In addition, based on an improved learning method using processed learning data, it is possible to provide a remarkable effect of improving the performance of a readout model that is learned to extract a feature vector from a bone image.
본 발명에 따르면 궁극적으로 의료진의 진단의 정확도를 향상시키고, 개별 연령에 대응하는 참조 골 영상을 제공함으로써, 의료 현장에서의 워크플로(workflow)를 혁신할 수 있게 되는 잠재적 효과가 있다.According to the present invention, there is a potential effect that it is possible to innovate the workflow in the medical field by ultimately improving the accuracy of diagnosis by medical staff and providing a reference bone image corresponding to an individual age.
그리고 본 발명은, 종래에 병원에서 이용하고 있는 의료 영상이 그대로 활용될 수 있는바, 본 발명의 방법이 특정 형식의 영상이나 플랫폼에 종속되지 않음은 물론이다.In addition, in the present invention, medical images used in hospitals in the prior art can be utilized as they are, and the method of the present invention is of course not dependent on a specific type of image or platform.
본 발명의 실시 예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시 예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 "통상의 기술자"라고 함)에게 있어서는 발명에 이르는 노력 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 따른 골 영상 생성 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2는 본 발명에 따른 골 영상 생성 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.
도 3은 일 실시 예에 따른 골 영상 생성 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시 예에 따른 골 영상 생성 방법이 수행되는 일례를 도시하는 도면이다.
도 5는 연령에 따른 특징 벡터의 분포를 도시하는 도면이다.
도 6은 일 실시예에 따른 골 영상 생성 방법이 적용된 인터페이스의 일례를 도시하는 도면이다.The accompanying drawings, which are attached to be used in the description of the embodiments of the present invention, are only some of the embodiments of the present invention, and to those of ordinary skill in the technical field to which the present invention belongs (hereinafter referred to as "common technician") Other drawings may be obtained on the basis of these drawings without efforts to reach the invention.
1 is a conceptual diagram schematically showing an exemplary configuration of a computing device that performs a method for generating a bone image according to the present invention.
2 is an exemplary block diagram showing hardware or software components of a computing device that performs a bone image generation method according to the present invention.
3 is a flowchart illustrating a method of generating a bone image according to an exemplary embodiment.
4 is a diagram illustrating an example of performing a method of generating a bone image according to an exemplary embodiment.
5 is a diagram showing the distribution of feature vectors according to age.
6 is a diagram illustrating an example of an interface to which a method for generating a bone image according to an exemplary embodiment is applied.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The detailed description of the present invention to be described later refers to the accompanying drawings, which illustrate specific embodiments in which the present invention may be practiced in order to clarify the objects, technical solutions, and advantages of the present invention. These embodiments are described in detail enough to enable a person skilled in the art to practice the present invention.
본 발명의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다. 예를 들어 "영상"은 X선 영상, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피사체, 즉 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.The term "image" or "image data" used throughout the detailed description and claims of the present invention refers to multidimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image). Refers to. For example, "image" refers to an X-ray image, (cone-beam) computed tomography, magnetic resonance imaging (MRI), ultrasound, or any other medical image known in the art. It may be a medical image of a subject, that is, a subject collected by the system. Also, an image may be provided in a non-medical context, such as a remote sensing system, an electron microscopy, and the like.
본 발명의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 비디오 화면에 표시된) 눈으로 볼 수 있는 영상 또는 (예컨대, CT, MRI 검출기 등의 픽셀 출력에 대응되는 파일과 같은) 영상의 디지털 표현물을 지칭하는 용어이다.Throughout the detailed description and claims of the present invention, an'image' refers to an image that can be seen by the eye (e.g., displayed on a video screen) or (e.g., a file corresponding to a pixel output such as a CT, MRI detector). It is a term referring to digital representations.
본 발명의 상세한 설명 및 청구항들에 걸쳐 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.Throughout the detailed description and claims of the present invention, the'DICOM (Digital Imaging and Communications in Medicine; Medical Digital Imaging and Communication)' standard is a generic term for various standards used for digital image expression and communication in medical devices. Standards are published by a coalition committee formed by the American Radiological Society (ACR) and the American Electrical Industry Association (NEMA).
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 '의료영상 저장 전송 시스템(PACS; picture archiving and communication system)'은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.In addition, throughout the detailed description and claims of the present invention, the term'picture archiving and communication system (PACS)' refers to a system that stores, processes, and transmits according to the DICOM standard, and X-ray, CT , Medical image images acquired using digital medical imaging equipment such as MRI are stored in DICOM format and can be transmitted to terminals inside and outside the hospital through a network, and reading results and medical records can be added to this.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.And, throughout the detailed description and claims of the present invention,'learning' or'learning' is a term that refers to performing machine learning through computing according to a procedure. It will be appreciated by those of skill in the art that it is not intended to be referred to.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.And throughout the detailed description and claims of the present invention, the word'comprise' and variations thereof are not intended to exclude other technical features, additions, components or steps. In addition,'one' or'one' is used in more than one meaning, and'another' is limited to at least a second or more.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.Other objects, advantages, and features of the present invention to those skilled in the art will appear, partly from the present disclosure, and partly from the practice of the present invention. The examples and drawings below are provided by way of example and are not intended to limit the invention. Therefore, the details disclosed in this specification with respect to a specific structure or function are not to be construed in a limiting sense, but only representatives that provide guidance for a person skilled in the art to variously implement the present invention with any detailed structures that are substantially suitable. It should be interpreted as basic data.
더욱이 본 발명은 본 명세서에 표시된 실시 예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Moreover, the present invention covers all possible combinations of the embodiments indicated herein. It should be understood that the various embodiments of the present invention are different from each other, but need not be mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be embodied in other embodiments without departing from the spirit and scope of the present invention in relation to one embodiment. In addition, it is to be understood that the location or arrangement of individual components in each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description to be described below is not intended to be taken in a limiting sense, and the scope of the present invention, if properly described, is limited only by the appended claims, along with all scopes equivalent to those claimed by the claims. Like reference numerals in the drawings refer to the same or similar functions over several aspects.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated in this specification or clearly contradicting the context, items referred to in the singular encompass the plural unless otherwise required by that context. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present invention, a detailed description thereof will be omitted.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시 예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to allow those skilled in the art to easily implement the present invention.
도 1은 본 발명에 따른 골 영상 생성 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically showing an exemplary configuration of a computing device that performs a method for generating a bone image according to the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.Referring to FIG. 1, a
구체적으로, 상기 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically, the
이와 같은 컴퓨팅 장치의 통신부(110)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.The
또한, 컴퓨팅 장치의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.In addition, the
하기의 설명에서는 본원 발명의 영상은 골 영상을 대상으로 하고, 골 영상은 일례로 골 X선 영상을 대상으로 하고 있으나, 본원 발명의 권리범위는 이에 한정되지 않고, 일반적인 형태의 골 영상에 모두 적용이 가능하고, 대상이 되는 영상의 골 연령을 판독하는 과정에서 적용될 수 있다는 점은 통상의 기술자가 용이하게 이해할 것이다.In the following description, the image of the present invention targets a bone image, and the bone image targets a bone X-ray image as an example, but the scope of the present invention is not limited thereto, and is applied to all general types of bone images. It will be readily understood by those skilled in the art that this is possible and can be applied in the process of reading the bone age of a target image.
도 2는 본 발명에 따른 골 영상 생성 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.2 is an exemplary block diagram showing hardware or software components of a computing device that performs a bone image generation method according to the present invention.
도 2에 도시된 개별 모듈들은, 예컨대, 컴퓨팅 장치(100)에 포함된 통신부(110)나 프로세서(120), 또는 상기 통신부(110) 및 프로세서(120)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.The individual modules shown in FIG. 2 may be implemented by interlocking, for example, the
도 2를 참조하여 본 발명에 따른 방법 및 장치의 구성을 간략히 개관하면, 컴퓨팅 장치(100)는 그 구성요소로서 타깃 골 연령 정보 수신 모듈(210)을 포함할 수 있다. 타깃 골 연령 정보 수신 모듈(210)은 컴퓨팅 장치에 포함되는 입력 장치, 연동된 사용자 단말로부터 목표 골 연령 정보를 수신할 수 있다.In a brief overview of the configuration of the method and apparatus according to the present invention with reference to FIG. 2, the
타깃 골 연령 정보 수신 모듈(210)을 통해 획득한 타깃 골 연령 정보에 기초하여, 특징 벡터 획득 모듈(220)은 타깃 골 연령 정보에 대응되는 골 영상을 생성하기 위한 특징 벡터를 획득할 수 있다.Based on the target bone age information acquired through the target bone age
일 실시예에 따르면, 특징 벡터 획득 모듈(220)은 입력 골 영상에서 특징 벡터를 추출하고, 이에 기반하여 골 연령을 판독하도록 미리 학습된 판독 모델을 포함할 수 있다. 미리 학습된 판독 모델은 예를 들어, DNN (Deep Neural Network), CNN (Convolutional Neural Network), DCNN (Deep Convolution Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), SSD (Single Shot Detector), YOLO (You Only Look Once) 등이 이용될 수 있음은 통상의 기술자가 이해할 것이다. 본 발명에서 사용될 수 있는 인공 신경망의 종류는 제시된 예시에 한정되지 않고, 라벨링된 학습 데이터에 기반하여 골 영상에서 특징 벡터를 추출하고, 이에 기초하여 골 연령을 판독하도록 학습될 수 있는 임의의 인공 신경망을 포함할 수 있다는 점은 통상의 기술자가 이해할 수 있을 것이다.According to an embodiment, the feature
특징 벡터 획득 모듈(220)은 타깃 골 연령에 상응하는 적어도 둘 이상의 후보 골 영상을 획득하고, 미리 학습된 판독 모델을 통해 골 영상에 대응되는 특징 벡터를 추출할 수 있다. 예를 들어, 타깃 골 연령이 4세인 경우, 특징 벡터 획득 모듈은 3세에 대응하는 제1 후보 골 영상 및 5세에 대응하는 제2 후보 골 영상을 획득하고, 각각의 영상에 대응하는 제1 특징 벡터 및 제2 특징 벡터를 추출할 수 있다.The feature
다른 실시예에 따르면, 특징 벡터 획득 모듈(220)은 데이터베이스화된 특징 벡터들 중, 타깃 골 연령에 대응되는 제1 특징 벡터 및 제2 특징 벡터를 획득할 수 있다. 실시예에 따라서, 각각의 연령에 대응되는 특징 벡터가 데이터베이스화될 수 있고, 타깃 연령이 4세인 경우, 특징 벡터 획득 모듈(220)은 3세에 대응하는 특징 벡터 및 5세에 대응하는 특징 벡터를 데이터베이스에서 획득할 수 있다.According to another embodiment, the feature
합성 모듈(230)은 특징 벡터 획득 모듈(220)을 통해 획득한 제1 특징 벡터 및 제2 특징 벡터를 합성하여, 타깃 연령에 대응되는 제3 특징 벡터를 생성할 수 있다. 구체적으로, 합성 모듈(230)은 소정의 조건에 기초하여 제1 특징 벡터 및 제2 특징 벡터를 합성할지 여부를 우선적으로 결정할 수 있다. 예를 들어, 합성 모듈(230)은 수학식 1에 기초하여, 제1 특징 벡터 및 제2 특징 벡터를 합성할지 여부를 결정할 수 있다.The
는 제1 특징 벡터에 대응되는 제1 레이블(나이), 는 제2 특징 벡터에 대응되는 제2 레이블(나이), 은 미리 설정된 임계값을 나타낼 수 있다. Is a first label (age) corresponding to the first feature vector, Is a second label (age) corresponding to the second feature vector, May represent a preset threshold.
은 합성 결과의 정확성을 위해 미리 설정되는 임계값일 수 있다. 구체적으로, 10세에 대응되는 특징 벡터를 생성하기 위하여 1세에 대응되는 특징 벡터 및 19세에 대응되는 특징 벡터를 사용하는 경우보다, 9세에 대응되는 특징 벡터 및 11세에 대응되는 특징 벡터를 이용하는 것이 보다 정확도가 높은 결과가 산출될 수 있다. 따라서, 컴퓨팅 장치는 소정의 임계값에 따라 특징 벡터의 합성 여부를 결정할 수 있다. May be a threshold value set in advance for the accuracy of the synthesis result. Specifically, a feature vector corresponding to 9 years old and a feature vector corresponding to 11 years old than when using a feature vector corresponding to 1 year old and a feature vector corresponding to 19 years old to generate a feature vector corresponding to 10 years old The use of may yield higher accuracy results. Accordingly, the computing device may determine whether to synthesize feature vectors according to a predetermined threshold.
다른 실시예에 따르면, 합성 모듈(230)은 특징 벡터의 레이블 사이의 간격이 임계값 이하인 경우, 소정의 확률에 따라 합성을 진행할 지 여부를 결정할 수 있다.According to another embodiment, when the interval between the labels of the feature vectors is less than or equal to a threshold value, the
합성 모듈(230)은 수학식 1에 기초하여, 특징 벡터를 합성하기로 결정된 경우, 수학식 2에 기초하여 특징 벡터 및 특징 벡터에 대응하는 레이블의 합성을 진행할 수 있다.When it is determined to synthesize the feature vector based on
, , 는 각각 제1 특징 벡터, 제2 특징 벡터, 제3 특징 벡터이고, , , 는 각각 제1 특징 벡터에 대응되는 제1 레이블, 제2 특징 벡터에 대응되는 제2 레이블, 제3 특징 벡터에 대응되는 제3 레이블을 의미하고, 는 합성 정도를 나타내는 임의의 변수일 수 있으며, 예를 들어, 는 beta 분포를 따르는 변수일 수 있다. , , Is a first feature vector, a second feature vector, and a third feature vector, respectively, , , Denotes a first label corresponding to a first feature vector, a second label corresponding to a second feature vector, and a third label corresponding to a third feature vector, respectively, May be any variable indicating the degree of synthesis, for example, May be a variable following the beta distribution.
수학식 2 및 수학식 3에 기초하여 제3 특징 벡터 및 이에 대응하는 제3 레이블(나이)가 결정될 수 있다.A third feature vector and a third label (age) corresponding thereto may be determined based on
합성 모듈(230)이 합성을 진행하는 방식은 Linear interpolation 또는 Fully connected layer를 이용하는 방식을 포함하는 임의의 데이터 합성 방식을 포함할 수 있음은 통상의 기술자가 이해할 것이다.It will be understood by those of ordinary skill in the art that the method of synthesizing by the synthesizing
골 영상 생성 및 전송 모듈(240)은 합성 모듈(230)을 통해 생성한 제3 특징 벡터에 기초하여 타깃 연령에 상응하는 골 영상을 생성할 수 있다. 구체적으로, 골 영상 생성 및 전송 모듈(240)은 CycleGAN, BiBigGAN과 같은 인공 신경망 모델을 포함할 수 있고, 이에 기초하여 타깃 연령에 상응하는 골 영상을 생성할 수 있다. 통상의 기술자는 골 영상 생성 및 전송 모듈(240)이 제시된 예시에 한정되지 않고, 특징 벡터에 기반하여 골 영상을 생성하는 임의의 방식을 통해 구현될 수 있음을 용이하게 이해할 수 있다.The bone image generation and
골 영상 생성 및 전송 모듈(240)은 생성된 골 영상을 데이터베이스에 저장하거나, 외부 엔티티에 제공할 수 있다. 골 영상이 외부 엔티티에 제공되는 때, 골 영상 생성 및 전송 모듈(240)은 소정의 디스플레이 장치 등을 이용하거나, 구비된 통신부를 통해 외부 엔티티에 생성된 골 영상을 제공할 수 있다. 여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치(100)의 사용자, 관리자, 담당 의료 전문가 등을 포함하나, 이 이외에도 상기 타깃 연령에 대한 골 영상을 필요로 하는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 예를 들어, 상기 외부 엔티티는 상기 골 영상을 활용하는 별도의 AI(artificial intelligence; 인공지능) 하드웨어 및/또는 소프트웨어 모듈을 포함하는 외부의 AI 장치일 수도 있다. 또한, 외부 엔티티에서의 '외부(external)'는 상기 골 영상을 이용하는 AI 하드웨어 및/또는 소프트웨어 모듈이 상기 컴퓨팅 장치(100)에 일체화되는 실시 예를 배제하도록 의도된 것이 아니라, 본 발명의 방법을 수행하는 하드웨어 및/또는 소프트웨어 모듈의 결과물인 골 영상이 타 방법의 입력 데이터로 활용될 수 있음을 시사하도록 이용된 것임을 밝혀둔다. 즉, 상기 외부 엔티티는 컴퓨팅 장치(100) 자체일 수도 있다.The bone image generation and
도 2에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(100)는 복수개가 서로 연동되도록 구성될 수도 있다는 점이 이해될 것이다.Although the components shown in FIG. 2 are illustrated as being realized in one computing device for convenience of description, it will be understood that a plurality of
도 3은 일 실시 예에 따른 골 영상 생성 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of generating a bone image according to an exemplary embodiment.
도 3을 참조하면, 컴퓨팅 장치는 단계(310)에서 통신부를 통해 타깃 골 연령을 입력을 받을 수 있다.Referring to FIG. 3, the computing device may receive an input of a target goal age through a communication unit in
컴퓨팅 장치는 단계(320)에서 타깃 골 연령에 대응되는 골 영상을 생성하기 위한 제1 후보 골 영상 및 제2 후보 골 영상을 획득할 수 있다. 컴퓨팅 장치는 제1 후보 골 영상에 대응되는 골 연령 및 제2 후보 골 영상에 대응되는 골 연령 사이에 상기 타깃 골 연령이 포함되면, 제1 후보 골 영상의 골 연령 및 제2 후보 골 영상의 골 연령 사이의 간격이 미리 설정된 소정의 간격보다 작거나 같도록, 제1 후보 골 영상 및 제2 후보 골 영상 중 적어도 하나를 다시 획득할 수 있다. 이는 앞서 설명한 바와 같이, 타깃 골 연령에 대응되는 영상을 생성하는 과정에서, 타깃 골 연령에 가까운 연령에 대응하는 골 영상을 이용하여 산출 결과의 정확도를 향상시키기 위함이다.The computing device may obtain a first candidate bone image and a second candidate bone image for generating a bone image corresponding to the target bone age in
컴퓨팅 장치는 단계(330)에서 미리 학습된 판독 모델에 기초하여, 상기 제1 후보 골 영상 및 제2 후보 골 영상 각각에 대한 제1 특징 벡터 및 제2 특징 벡터를 획득할 수 있다. 미리 학습된 판독 모델은 앞서 설명한 바와 같이, 입력 골 영상에서 특징 벡터를 획득하고, 이에 기초하여 입력 골 영상의 연령을 판독하도록 학습된 인공 신경망 일 수 있다.The computing device may acquire a first feature vector and a second feature vector for each of the first candidate bone image and the second candidate bone image, based on the read model learned in advance in
미리 학습된 판독 모델은 가공된 학습 골 영상에 기초하여, 입력 골 영상의 특징 벡터를 출력하도록 학습된 것일 수 있다. 대응되는 나이가 라벨링된 골 영상을 학습데이터로 이용하여, 판독 모델이 골 영상의 연령을 판독하도록 학습되는 방식은 통상의 기술자가 용이하게 이해할 수 있다. 본 발명에서 사용되는 미리 학습된 판독 모델은 판독의 정확도를 향상시키기 위하여 가공된 학습 골 영상을 이용하여 학습될 수 있다. 구체적으로, 가공된 학습 골 영상은, 학습 골 영상에 획득한 제1 학습 골 영상 및 제2 학습 골 영상을 합성하여 생성되는 제3 학습 골 영상을 더 포함할 수 있다. 제3 학습 골 영상은 제1 학습 골 영상에 대응되는 제1 골 연령 및 제2 학습 골 영상에 대응되는 제2 골 연령 사이의 연령에 대응되는 제3 골 연령에 대응될 수 있다. 가공된 학습 데이터는 기존 학습 데이터에 비해 개별 연령에 대응되는 요소들을 빠짐없이 포함할 수 있다. 본원 발명은 가공된 학습 데이터를 이용하여 학습된 판독 모델을 통해 보다 정확도 높은 판독 결과를 제공할 수 있는 현저한 효과가 있다.The pre-learned readout model may be learned to output a feature vector of the input bone image based on the processed learning bone image. A method in which the reading model is learned to read the age of the bone image by using the bone image labeled with the corresponding age as training data can be easily understood by a person skilled in the art. The pre-learned reading model used in the present invention may be learned using a processed learning bone image to improve reading accuracy. Specifically, the processed learning bone image may further include a third learning bone image generated by synthesizing the first learning bone image and the second learning bone image acquired on the learning bone image. The third learning bone image may correspond to a third bone age corresponding to an age between the first bone age corresponding to the first learning bone image and the second bone age corresponding to the second learning bone image. The processed learning data may include all elements corresponding to individual ages compared to existing learning data. The present invention has a remarkable effect of providing a more accurate reading result through a reading model learned using processed learning data.
컴퓨팅 장치는 단계(340)에서 제1 특징 벡터 및 상기 제2 특징 벡터를 합성하여 상기 타깃 골 연령에 대응되는 제3 특징 벡터를 생성할 수 있다. 컴퓨팅 장치는 제1 특징 벡터 및 제2 특징 벡터를 보간(interpolation)함으로써, 제3 특징 벡터를 생성할 수 있으며, 제3 특징 벡터를 생성하는 방식은 앞서 설명한 바와 같이, 제시된 예시에 한정되지 않는다.The computing device may generate a third feature vector corresponding to the target bone age by synthesizing the first feature vector and the second feature vector in
컴퓨팅 장치는 단계(350)에서 제3 특징 벡터에 기초하여, 상기 타깃 골 연령에 대응되는 타깃 골 영상을 생성할 수 있다.In
도 4는 일 실시 예에 따른 골 영상 생성 방법이 수행되는 일례를 도시하는 도면이다.4 is a diagram illustrating an example of performing a method of generating a bone image according to an exemplary embodiment.
영상을 통해 골 연령을 판독하는 시스템은, 개별 연령에 대응되는 참조 골 영상을 판독자에게 제공할 수 있고, 판독자는 참조 골 영상과의 비교를 통해 입력된 골 영상의 연령을 판독할 수 있다. 데이터베이스에 저장된 참조 골 영상 중 좌측과 같이 3세에 대응되는 참조 골 영상(410)이 부재한 경우, 판독자는 해당 연령대의 골 연령 판독이 어려울 수 있다. 뿐만 아니라, 발달 속도가 매우 빠른 유아의 경우, 수개월 만에도 골 발육의 차이가 클 수 있기 때문에, 1세에 대응하는 참조 골 영상 및 2세에 대응하는 참조 골 영상을 이용하더라도, 1세에서 2세 사이의 유아의 골 연령 예측은 매우 어려울 수 있다.A system for reading bone age through an image may provide a reader with a reference bone image corresponding to an individual age, and the reader may read the age of the input bone image through comparison with the reference bone image. In the absence of the
컴퓨팅 장치(420)는 누락된 3세의 참조 골 영상을 생성하기 위하여, 2세에 대응되는 제1 후보 골 영상(431) 및 제2 후보 골 영상(432)를 수신하고, 이에 기초하여, 3세에 대응하는 골 영상(440)을 생성할 수 있다.The
컴퓨팅 장치(420)는 제시된 방식뿐만 아니라, 데이터베이스에 나이에 기초한 라벨링을 통해 미리 저장된 특징 벡터에 기반하여 타깃 연령에 대응하는 골 영상을 생성할 수도 있다. 이 경우, 타깃 연령에 대응하는 골 영상을 생성하는 과정에서, 컴퓨팅 장치(420)는 골 영상을 입력 받지 않고, 타깃 골 연령에 대한 정보만을 통해 골 영상을 생성할 수 있다.The
도 5는 연령에 따른 특징 벡터의 분포를 도시하는 도면이다. 5 is a diagram showing the distribution of feature vectors according to age.
도 5를 참조하면, 그래프(510)는 남성의 골 영상에 대한 특징 벡터의 분포일 수 있고, 그래프(520)는 여성의 골 영상에 대한 특징 벡터의 분포일 수 있다. 그래프(510, 520)에 포함된 각 포인트(511, 512)는 개별 골 영상의 특징 벡터에 대응될 수 있고, 포인트(511, 512)의 색상은 대응되는 연령을 나타낼 수 있다. 그래프(510, 520)을 참조하면, 유사한 연령에 대응되는 포인트(511, 512)는 인접 영역에 분포하는 것을 확인할 수 있다. 이러한 분포를 고려할 때에, 인접 연령의 특징 벡터의 합성을 통해 산출된 특징 벡터는 타깃 연령의 특성을 드러낼 수 있음을 이해할 수 있다.Referring to FIG. 5, a
도 6은 일 실시예에 따른 골 영상 생성 방법이 적용된 인터페이스의 일례를 도시하는 도면이다.6 is a diagram illustrating an example of an interface to which a method for generating a bone image according to an exemplary embodiment is applied.
도 6을 참조하면, 인터페이스(610)을 통해 현재 골 영상(620)와 비슷한 연령의 참조 골 영상(621, 622, 623)이 제공될 수 있다. 각각의 연령에 대응되는 참조 골 영상(621, 622, 623)은 데이터베이스에 미리 저장된 것일 수 있다. 판독자는 판독 과정에서, 10세와 11세 사이의 참조 골 영상이 요구되는 경우, 그래픽 오브젝트(630)에 대한 사용자 입력을 토대로 해당 연령에 대응되는 참조 골 영상에 대한 생성 요청을 진행할 수 있다. 그래픽 오브젝트(630)에 대한 사용자 입력이 이루어지는 경우, 타깃 연령을 입력하는 그래픽 오브젝트(640)이 화면 상에 디스플레이될 수 있다. 컴퓨팅 장치는 타깃 연령에 대응되는 참조 골 영상(650)를 생성하여, 화면 상에 디스플레이할 수 있다.Referring to FIG. 6,
위 실시 예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Based on the description of the above embodiment, one of ordinary skill in the art can realize that the method and/or processes of the present invention, and the steps thereof, can be implemented in hardware, software, or any combination of hardware and software suitable for a specific application. Can understand the point clearly. The hardware may include a general-purpose computer and/or a dedicated computing device, or a specific computing device or special features or components of a specific computing device. The processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors or other programmable devices, with internal and/or external memory. In addition, or as an alternative, the processes can be configured to process application specific integrated circuits (ASICs), programmable gate arrays, programmable array logic (PAL) or electronic signals. May be implemented with any other device or combination of devices. Furthermore, the objects of the technical solution of the present invention or parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded in a machine-readable recording medium. The machine-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the machine-readable recording medium may be specially designed and configured for the present invention, or may be known to and usable by a person skilled in the computer software field. Examples of machine-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROM, DVD, Blu-ray, and magnetic-optical media such as floptical disks. (magneto-optical media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include a processor, a processor architecture, or a heterogeneous combination of different hardware and software combinations, as well as any one of the aforementioned devices, or storage and compilation or interpreting to be executed on a machine capable of executing any other program instructions. Can be made using a structured programming language such as C, an object-oriented programming language such as C++, or a high-level or low-level programming language (assembly, hardware description languages and database programming languages and technologies), machine code, This includes not only bytecode but also high-level language code that can be executed by a computer using an interpreter or the like.
따라서 본 발명에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 개시서의 범위 내에 속하도록 의도된 것이다.Thus, in an aspect according to the present invention, when the above-described method and combinations thereof are performed by one or more computing devices, the method and combinations of methods may be implemented as executable code that performs each step. In another aspect, the method may be implemented as systems that perform the steps, and the methods may be distributed in several ways across devices or all functions may be integrated into one dedicated, standalone device or other hardware. In yet another aspect, the means for performing the steps associated with the processes described above may include any hardware and/or software described above. All such sequential combinations and combinations are intended to be within the scope of this disclosure.
예를 들어, 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.For example, the hardware device can be configured to operate as one or more software modules to perform the processing according to the present invention, and vice versa. The hardware device may include a processor such as MPU, CPU, GPU, TPU, which is coupled with a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and may include an external device and a signal It may include a communication unit that can send and receive. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands written by developers.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시 예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described by specific matters such as specific components and limited embodiments and drawings, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments, Anyone with ordinary knowledge in the technical field to which the present invention pertains can make various modifications and variations from this description.
따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is limited to the above-described embodiments and should not be defined, and all modifications equivalently or equivalently to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. I would say.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalently or equivalently modified ones will include, for example, a logically equivalent method capable of producing the same result as that of carrying out the method according to the present invention, the true meaning and scope of the present invention. Is not to be limited by the above-described examples, and should be understood in the broadest possible meaning by law.
Claims (7)
타깃 골 연령을 입력받는 단계;
타깃 골 연령에 대응되는 골 영상을 생성하기 위한 제1 후보 골 영상 및 제2 후보 골 영상을 획득하는 단계;
미리 학습된 판독 모델에 기초하여, 상기 제1 후보 골 영상 및 제2 후보 골 영상 각각에 대한 제1 특징 벡터 및 제2 특징 벡터를 획득하는 단계;
상기 제1 특징 벡터 및 상기 제2 특징 벡터를 합성하여 상기 타깃 골 연령에 대응되는 제3 특징 벡터를 생성하는 단계; 및
상기 제3 특징 벡터에 기초하여, 상기 타깃 골 연령에 대응되는 타깃 골 영상을 생성하는 단계
를 포함하고,
상기 제3 특징 벡터를 생성하는 단계는,
제1 가중치가 부여된, 상기 제1 후보 골 영상의 골 연령에 대응되는 제1 레이블과, 제2 가중치가 부여된, 상기 제2 후보 골 영상의 골 연령에 대응되는 제2 레이블의 합을 통해 생성되는 제3 레이블이 상기 타깃 골 연령에 대응되도록 상기 제1 가중치 및 상기 제2 가중치를 결정하고,
상기 제1 가중치가 부여된 상기 제1 특징 벡터 및 상기 제2 가중치가 부여된 상기 제2 특징 벡터의 합에 기초하여 상기 제3 특징 벡터를 생성하는, 골 영상 생성 방법.
In the bone image generation method performed by a computing device,
Receiving an input of a target bone age;
Obtaining a first candidate bone image and a second candidate bone image for generating a bone image corresponding to the target bone age;
Obtaining a first feature vector and a second feature vector for each of the first candidate bone image and the second candidate bone image based on a pre-learned readout model;
Generating a third feature vector corresponding to the target bone age by synthesizing the first feature vector and the second feature vector; And
Generating a target bone image corresponding to the target bone age based on the third feature vector
Including,
Generating the third feature vector,
Through the sum of the first label corresponding to the bone age of the first candidate bone image to which a first weight is assigned, and the second label corresponding to the bone age of the second candidate bone image to which the second weight is assigned. Determine the first weight and the second weight so that the generated third label corresponds to the target bone age,
Generating the third feature vector based on a sum of the first feature vector to which the first weight is assigned and the second feature vector to which the second weight is assigned.
상기 미리 학습된 판독 모델은,
가공된 학습 골 영상에 기초하여, 입력 골 영상의 특징 벡터를 출력하도록 미리 학습되고,
상기 가공된 학습 골 영상은,
제1 학습 골 영상, 제2 학습 골 영상 및 상기 제1 학습 골 영상 및 상기 제2 학습 골 영상의 합성에 기초하여 생성되는 제3 학습 골 영상을 포함하고,
상기 제3 학습 골 영상에 대응되는 제3 골 연령은,
상기 제1 학습 골 영상에 대응되는 제1 골 연령 및 상기 제2 학습 골 영상에 대응되는 제2 골 연령 사이에 포함되는, 골 영상 생성 방법.
The method of claim 1,
The pre-trained reading model,
Based on the processed learning bone image, it is pre-trained to output a feature vector of the input bone image,
The processed learning goal image,
A first learning bone image, a second learning bone image, and a third learning bone image generated based on the synthesis of the first learning bone image and the second learning bone image,
The third bone age corresponding to the third learning bone image,
A bone image generation method included between a first bone age corresponding to the first learning bone image and a second bone age corresponding to the second learning bone image.
상기 제3 특징 벡터를 생성하는 단계는,
상기 제1 레이블 및 상기 제2 레이블 사이의 간격이 소정의 임계값 미만인 경우, 상기 제1 특징 벡터 및 상기 제2 특징 벡터에 기초하여 상기 제3 특징 벡터를 생성하고,
상기 간격이 상기 소정의 임계값 이상인 경우, 제3 특징 벡터를 생성하지 않는, 골 영상 생성 방법.
The method of claim 1,
Generating the third feature vector,
When the distance between the first label and the second label is less than a predetermined threshold, generating the third feature vector based on the first feature vector and the second feature vector,
When the interval is greater than or equal to the predetermined threshold value, a third feature vector is not generated.
A computer program, stored on a machine-readable non-transitory recording medium, comprising instructions embodied to cause a computing device to perform the method of any one of claims 1, 2 and 4.
타깃 골 연령에 대한 입력을 수신하는 통신부; 및
상기 타깃 골 연령에 대응되는 타깃 골 영상을 생성하는 프로세서
를 포함하고,
상기 프로세서는,
미리 학습된 판독 모델에 기초하여, 제1 후보 골 영상 및 제2 후보 골 영상 각각에 대한 제1 특징 벡터 및 제2 특징 벡터를 획득하고,
상기 제1 특징 벡터 및 상기 제2 특징 벡터를 합성하여 상기 타깃 골 연령에 대응되는 제3 특징 벡터를 생성하고,
제3 특징 벡터에 기초하여, 상기 타깃 골 연령에 대응되는 타깃 골 영상을 생성하고,
상기 프로세서는,
제1 가중치가 부여된, 상기 제1 후보 골 영상의 골 연령에 대응되는 제1 레이블과, 제2 가중치가 부여된, 상기 제2 후보 골 영상의 골 연령에 대응되는 제2 레이블의 합을 통해 생성되는 제3 레이블이 상기 타깃 골 연령에 대응되도록 상기 제1 가중치 및 상기 제2 가중치를 결정하고,
상기 제1 가중치가 부여된 상기 제1 특징 벡터 및 상기 제2 가중치가 부여된 상기 제2 특징 벡터의 합에 기초하여 상기 제3 특징 벡터를 생성하는, 컴퓨팅 장치.
In the computing device for generating a bone image,
A communication unit for receiving an input for the target bone age; And
Processor for generating a target goal image corresponding to the target goal age
Including,
The processor,
Obtaining a first feature vector and a second feature vector for each of the first candidate bone image and the second candidate bone image based on the pre-learned readout model,
Synthesizing the first feature vector and the second feature vector to generate a third feature vector corresponding to the target bone age,
Based on the third feature vector, a target bone image corresponding to the target bone age is generated,
The processor,
Through the sum of the first label corresponding to the bone age of the first candidate bone image to which a first weight is assigned, and the second label corresponding to the bone age of the second candidate bone image to which the second weight is assigned. Determine the first weight and the second weight so that the generated third label corresponds to the target bone age,
And generating the third feature vector based on a sum of the first feature vector to which the first weight is assigned and the second feature vector to which the second weight is assigned.
상기 미리 학습된 판독 모델은,
가공된 학습 골 영상에 기초하여, 입력 골 영상의 특징 벡터를 출력하도록 미리 학습되고,
상기 가공된 학습 골 영상은,
제1 학습 골 영상, 제2 학습 골 영상 및 상기 제1 학습 골 영상 및 상기 제2 학습 골 영상의 합성에 기초하여 생성되는 제3 학습 골 영상을 포함하고,
상기 제3 학습 골 영상에 대응되는 제3 골 연령은 상기 제1 학습 골 영상에 대응되는 제1 골 연령 및 상기 제2 학습 골 영상에 대응되는 제2 골 연령 사이에 포함되는 , 컴퓨팅 장치.
The method of claim 6,
The pre-trained reading model,
Based on the processed learning bone image, it is pre-trained to output a feature vector of the input bone image,
The processed learning goal image,
A first learning bone image, a second learning bone image, and a third learning bone image generated based on the synthesis of the first learning bone image and the second learning bone image,
The computing device, wherein the third bone age corresponding to the third learning bone image is included between a first bone age corresponding to the first learning bone image and a second bone age corresponding to the second learning bone image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190162678A KR102177567B1 (en) | 2019-12-09 | 2019-12-09 | Method for generating bone image and apparatus using the same |
PCT/KR2020/015487 WO2021118068A1 (en) | 2019-12-09 | 2020-11-06 | Medical image generation method and device using same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190162678A KR102177567B1 (en) | 2019-12-09 | 2019-12-09 | Method for generating bone image and apparatus using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102177567B1 true KR102177567B1 (en) | 2020-11-11 |
Family
ID=73451702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190162678A Active KR102177567B1 (en) | 2019-12-09 | 2019-12-09 | Method for generating bone image and apparatus using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102177567B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170096088A (en) * | 2016-02-15 | 2017-08-23 | 삼성전자주식회사 | Image processing apparatus, image processing method thereof and recording medium |
KR101898575B1 (en) * | 2018-01-18 | 2018-09-13 | 주식회사 뷰노 | Method for predicting future state of progressive lesion and apparatus using the same |
KR102045223B1 (en) * | 2019-05-03 | 2019-11-19 | 주식회사 크레스콤 | Apparatus, method and computer program for analyzing bone age |
-
2019
- 2019-12-09 KR KR1020190162678A patent/KR102177567B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170096088A (en) * | 2016-02-15 | 2017-08-23 | 삼성전자주식회사 | Image processing apparatus, image processing method thereof and recording medium |
KR101898575B1 (en) * | 2018-01-18 | 2018-09-13 | 주식회사 뷰노 | Method for predicting future state of progressive lesion and apparatus using the same |
KR102045223B1 (en) * | 2019-05-03 | 2019-11-19 | 주식회사 크레스콤 | Apparatus, method and computer program for analyzing bone age |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101898575B1 (en) | Method for predicting future state of progressive lesion and apparatus using the same | |
US11816833B2 (en) | Method for reconstructing series of slice images and apparatus using same | |
KR102177568B1 (en) | Method for semi supervised reinforcement learning using data with label and data without label together and apparatus using the same | |
KR102102255B1 (en) | Method for aiding visualization of lesions in medical imagery and apparatus using the same | |
KR101995383B1 (en) | Method for determining brain disorder based on feature ranking of medical image and apparatus using the same | |
CN111989710A (en) | Automatic slice selection in medical imaging | |
KR101919847B1 (en) | Method for detecting automatically same regions of interest between images taken on a subject with temporal interval and apparatus using the same | |
KR102067412B1 (en) | Method for evaluating dementia and apparatus using the same | |
KR101923962B1 (en) | Method for facilitating medical image view and apparatus using the same | |
EP4266074A1 (en) | Segmentation of medical images reconstructed from a set of magnetic resonance images | |
KR102202398B1 (en) | Image processing apparatus and image processing method thereof | |
KR101898580B1 (en) | Method for facilitating image view and apparatus using the same | |
KR102108418B1 (en) | Method for providing an image based on a reconstructed image group and an apparatus using the same | |
KR102222816B1 (en) | Method for generating future image of progressive lesion and apparatus using the same | |
KR102290799B1 (en) | Method for providing tooth leison information and apparatus using the same | |
KR20200131737A (en) | Method for aiding visualization of lesions in medical imagery and apparatus using the same | |
KR102186709B1 (en) | Method for providing tooth leison information and apparatus using the same | |
KR101919908B1 (en) | Method for facilitating labeling of medical image and apparatus using the same | |
KR101885562B1 (en) | Method for mapping region of interest in first medical image onto second medical image and apparatus using the same | |
KR102112706B1 (en) | Method for detecting nodule and apparatus using the same | |
KR20200116278A (en) | Method for determining sex and age of subject from dental image and apparatus using the same | |
KR102601970B1 (en) | Apparatus and method for detecting leison region and gland region in medical image | |
KR20230030810A (en) | Data generation method and training method and apparatus using same | |
KR102556646B1 (en) | Method and apparatus for generating medical image | |
KR102034827B1 (en) | Method for improving reproducibility of trained deep neural network model and apparatus using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20191209 |
|
PA0201 | Request for examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20191210 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20191209 Patent event code: PA03021R01I Comment text: Patent Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200131 Patent event code: PE09021S01D |
|
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20200825 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20201105 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20201105 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240919 Start annual number: 5 End annual number: 5 |