[go: up one dir, main page]

KR102657737B1 - Method and apparatus for analysis of oral in pets - Google Patents

Method and apparatus for analysis of oral in pets Download PDF

Info

Publication number
KR102657737B1
KR102657737B1 KR1020230083403A KR20230083403A KR102657737B1 KR 102657737 B1 KR102657737 B1 KR 102657737B1 KR 1020230083403 A KR1020230083403 A KR 1020230083403A KR 20230083403 A KR20230083403 A KR 20230083403A KR 102657737 B1 KR102657737 B1 KR 102657737B1
Authority
KR
South Korea
Prior art keywords
information
area
oral
color uniformity
gingival
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020230083403A
Other languages
Korean (ko)
Inventor
김광현
정주호
박주용
박건우
Original Assignee
주식회사 십일리터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 십일리터 filed Critical 주식회사 십일리터
Priority to US18/523,634 priority Critical patent/US20250000442A1/en
Application granted granted Critical
Publication of KR102657737B1 publication Critical patent/KR102657737B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4552Evaluating soft tissue within the mouth, e.g. gums or tongue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/40Animals

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Physiology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Image Analysis (AREA)

Abstract

반려동물 구강 정보 분석 방법이 개시된다. 본 개시의 일 실시예에서 반려동물 구강 정보 분석 방법은 반려동물의 구강 촬영 이미지를 획득하는 단계와, 상기 획득된 구강 촬영 이미지의 데이터를, 기계 학습으로 기 생성된 구강 정보 분석 모델에 입력하고, 상기 구강 정보 분석 모델에서 출력된 데이터를 이용하여 구강 정보 분석 결과를 생성하는 단계를 포함하되, 상기 구강 정보 분석 모델은, 제1 치관 영역의 색상 균일도에 대한 정보와, 제1 치은 영역의 색상 균일도에 대한 정보와, 제1 잇몸 라인의 퇴축 정도에 대한 정보를 출력하는 CNN(Convolutional Neural Network)과, 상기 CNN에서 출력된 정보에 기초한 분류를 수행하는 분류기(classifier)를 포함하는 인공 신경망으로 구성된 것이고, 상기 제1 치은 영역은 상기 제1 치관 영역의 인접 영역으로서, 상기 제1 치관 영역이 표현하는 제1 치관에 대응되는 치은을 표현하는 영역이고, 상기 제1 잇몸 라인은 상기 제1 치은 영역과 상기 제1 치관 영역의 경계선인, 단계를 포함할 수 있다.A method for analyzing companion animal oral information is disclosed. In one embodiment of the present disclosure, a method for analyzing oral information of a companion animal includes the steps of acquiring an oral image of a companion animal, inputting data from the acquired oral image into an oral information analysis model previously created through machine learning, Generating an oral information analysis result using data output from the oral information analysis model, wherein the oral information analysis model includes information on color uniformity of the first coronal region and color uniformity of the first gingival region. It is composed of an artificial neural network including a CNN (Convolutional Neural Network) that outputs information about the degree of recession of the first gum line, and a classifier that performs classification based on the information output from the CNN. , the first gingival area is an area adjacent to the first crown area, and is an area representing the gingiva corresponding to the first crown expressed by the first crown area, and the first gum line is the first gingival area and It may include a step that is the boundary line of the first crown region.

Description

반려동물 구강 정보 분석 제공 방법 및 장치{METHOD AND APPARATUS FOR ANALYSIS OF ORAL IN PETS}Method and device for providing analysis of oral information of companion animals {METHOD AND APPARATUS FOR ANALYSIS OF ORAL IN PETS}

본 개시는 반려동물의 구강 정보를 분석하는 방법 및 그 방법이 적용된 장치에 관한 것이다. 보다 자세하게는, 반려동물의 구강 사진으로 반려동물의 구강 건강 및 치주염 발생을 유추하는 방법 및 그 방법이 적용된 시스템에 관한 것이다.The present disclosure relates to a method for analyzing oral information of a companion animal and a device to which the method is applied. More specifically, it relates to a method of inferring the oral health and occurrence of periodontitis of a companion animal from a photograph of the pet's mouth and a system to which the method is applied.

반려동물에게도 치아는 건강을 좌우하는 중요한 신체부위 중 하나이다. 특히 반려견은 총 42개의 치아를 갖고 있으며, 치아가 많다 보니 이빨을 닦는 범위도 넓고, 인간과 다르게 깊은 구강구조를 갖고 있어 치석이 생기기도 쉬워 건강한 치아를 유지하는 데 어려움이 있다. Teeth are also one of the important body parts that determine the health of pets. In particular, dogs have a total of 42 teeth, and since they have many teeth, they have a wide range of teeth brushing. Unlike humans, they have a deep oral structure, so it is easy for dogs to develop tartar, making it difficult to maintain healthy teeth.

현재 반려동물의 치아 건강 상태 측정은 엑스레이 촬영 데이터 등으로 전문가가 직접 검진하는 방식으로 구현된다. Currently, the dental health status of pets is measured through direct examination by experts using X-ray data.

한편, 인공 지능 기술을 기반으로 한 진단 보조 기술들이 제공된다. 대표적으로 문제 부위가 촬영된 사진을 분석하여 특정 질환의 발병 가능성 또는 그 중증도를 예측하는 기계 학습 기반 인공 지능이 제공된다. 동물 병원 내원이 어려운 상황에서, 반려 동물의 보호자가 스마트 폰 등을 활용하여 촬영한 대상 반려 동물의 이미지를 분석함으로써, 특정 질환의 발병 가능성 또는 그 중증도를 예측하는 인공 지능이 제공된다.Meanwhile, diagnostic assistance technologies based on artificial intelligence technology are provided. A representative example is machine learning-based artificial intelligence that predicts the likelihood of developing a specific disease or its severity by analyzing photos of problem areas. In situations where it is difficult to visit a veterinary hospital, artificial intelligence is provided that predicts the likelihood of developing a specific disease or its severity by analyzing images of the target pet taken by the pet's guardian using a smartphone, etc.

그러나, 인공 지능을 이용하여 반려동물의 치아를 단말로 촬영하고 반려동물의 치아 건강을 유추하기 위한 기반 기술 및 요소 기술들은 국내에 존재하지 않았으며, 이러한 인공 지능의 이용에 대한 논의 역시 거의 없는 상황이다. However, the basic and elemental technologies for photographing a pet's teeth using a terminal and inferring the dental health of the pet using artificial intelligence did not exist in Korea, and there was little discussion on the use of artificial intelligence. am.

한국공개특허 제10-2021-0107115호Korean Patent Publication No. 10-2021-0107115 한국등록특허 제10-2218752호Korean Patent No. 10-2218752

한영선, 신인철, 장원두, "인공신경망을 사용하는 치아 및 치석 인식"공학석사 학위 논문(2022.02) Young-seon Han, Shin In-cheol, and Jang Won-du, “Tooth and tartar recognition using artificial neural networks” Master of Engineering thesis (2022.02)

본 개시의 몇몇 실시예들에서 해결하고자 하는 기술적 과제는, 반려동물의 구강 사진을 이용하여 엑스레이 없이도 반려동물의 치아 건강을 정확하게 유추하는 인공 지능 기반 반려동물 구강 정보 분석 방법을 제공하는 것이다.The technical problem to be solved in some embodiments of the present disclosure is to provide an artificial intelligence-based companion animal oral information analysis method that accurately infers the dental health of a companion animal without an X-ray using an oral photograph of the companion animal.

본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 기술적 과제를 해결하기 위한, 본 개시의 일 실시예에 따른 반려동물 구강 정보 분석 방법은, 반려동물의 구강 촬영 이미지를 획득하는 단계, 상기 획득된 구강 촬영 이미지의 데이터를, 기계 학습으로 기 생성된 구강 정보 분석 모델에 입력하고, 상기 구강 정보 분석 모델에서 출력된 데이터를 이용하여 구강 정보 분석 결과를 생성하는 단계를 포함하되, 상기 구강 정보 분석 모델은, 제1 치관 영역의 색상 균일도에 대한 정보와, 제1 치은 영역의 색상 균일도에 대한 정보와, 제1 잇몸 라인의 퇴축 정도에 대한 정보를 출력하는 CNN(Convolutional Neural Network)과, 상기 CNN에서 출력된 정보에 기초한 분류를 수행하는 분류기(classifier)를 포함하는 인공 신경망으로 구성된 것이고, 상기 제1 치은 영역은 상기 제1 치관 영역의 인접 영역으로서, 상기 제1 치관 영역이 표현하는 제1 치관에 대응되는 치은을 표현하는 영역이고, 상기 제1 잇몸 라인은 상기 제1 치은 영역과 상기 제1 치관 영역의 경계선인 것일 수 있다.In order to solve the above technical problem, a method of analyzing oral information of a companion animal according to an embodiment of the present disclosure includes the steps of acquiring an oral photographed image of a companion animal, and data of the acquired oral photographed image is previously generated using machine learning. inputting the data into an oral information analysis model and generating an oral information analysis result using data output from the oral information analysis model, wherein the oral information analysis model includes information about the color uniformity of the first crown region. A CNN (Convolutional Neural Network) that outputs information about the color uniformity of the first gingival area and information about the degree of recession of the first gum line, and a classifier that performs classification based on the information output from the CNN. ), wherein the first gingival area is an adjacent area to the first crown area, and is an area representing the gingiva corresponding to the first crown expressed by the first crown area, and the first gingival area is an area adjacent to the first crown area. The gum line may be a boundary line between the first gingival area and the first crown area.

몇몇 실시예에서, 상기 분류기는, 상기 제1 치관 영역의 색상 균일도에 대한 정보와, 상기 제1 치은 영역의 색상 균일도에 대한 정보를 특징 융합(feature fusion)한 결과를 이용한 분류를 수행하는 것일 수 있다.In some embodiments, the classifier may perform classification using the result of feature fusion of information about the color uniformity of the first coronal region and information about the color uniformity of the first gingival region. there is.

몇몇 실시예에서, 제1 치관 영역의 색상 균일도에 대한 정보와, 제1 치은 영역의 색상 균일도에 대한 정보를 특징 융합(feature fusion)한 결과는, 상기 제1 치관 영역의 색상 균일도에 대한 점수와 상기 제1 치은 영역의 색상 균일도에 대한 점수가 동일하며 기 정의된 점수 이상인 경우 가중치가 부여된 것일 수 있다.In some embodiments, the result of feature fusion of information about the color uniformity of the first coronal region and information about the color uniformity of the first gingival region is a score for the color uniformity of the first coronal region and If the score for color uniformity of the first gingival area is the same and is higher than a predefined score, weight may be assigned.

몇몇 실시예에서, 상기 분류기는, 상기 제1 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링(scoring)한 결과를 이용한 분류를 수행하는 것일 수 있다.In some embodiments, the classifier may perform classification using the results of scoring information about the degree of recession of the first gum line.

몇몇 실시예에서, 상기 제1 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링(scoring)한 결과는, 상기 제1 잇몸 라인의 퇴축 정도를 정상견 이미지로 학습하여 생성한 잇몸 라인의 곡률 모델을 이용하여 도출되는 것일 수 있다.In some embodiments, the result of scoring information on the degree of recession of the first gum line is obtained by using a curvature model of the gum line generated by learning the degree of recession of the first gum line from a normal dog image. It may be derived.

몇몇 실시예에서, 상기 제1 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링(scoring)한 결과는, 상기 제1 잇몸 라인의 퇴축 정도를 정상견 이미지로 학습하여 생성한 제1 치은 영역/(제1 치은 영역+제1 치관 영역) 연산 모델을 이용하여 도출되는 것일 수 있다.In some embodiments, the result of scoring the information about the degree of recession of the first gum line is the first gingival area / (first It may be derived using a computational model (gingival area + first crown area).

몇몇 실시예에서, 상기 분류기는, 상기 제1 치은 영역/(제1 치은 영역+제1 치관 영역) 연산 모델을 이용하여 연산된 제1 잇몸 라인의 퇴축 정도와 상기 제1 치관 영역의 색상 균일도에 대한 정보와, 제1 치은 영역의 색상 균일도에 대한 정보를 특징 융합(feature fusion)한 결과를 이용한 분류를 수행하는 것일 수 있다.In some embodiments, the classifier is based on the degree of recession of the first gum line calculated using the first gingival area/(first gingival area + first crown area) calculation model and the color uniformity of the first crown area. Classification may be performed using the result of feature fusion of information about and information about color uniformity of the first gingival area.

상기한 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시예에 따른 반려동물 구강 정보 분석 시스템은, 반려동물 구강 정보 분석 프로그램이 로드되는 메모리와 상기 반려동물 구강 정보 분석 프로그램이 실행되는 프로세서를 포함하되, 상기 반려동물 구강 정보 분석 프로그램은, 반려동물의 구강 촬영 이미지를 획득하는 인스트럭션과, 상기 획득된 구강 촬영 이미지의 데이터를, 기계 학습으로 기 생성된 구강 정보 분석 모델에 입력하고, 상기 구강 정보 분석 모델에서 출력된 데이터를 이용하여 구강 정보 분석 결과를 생성하는 인스트럭션을 포함하되, 상기 구강 정보 분석 모델은, 제1 치관 영역의 색상 균일도에 대한 정보와, 제1 치은 영역의 색상 균일도에 대한 정보와, 제1 잇몸 라인의 퇴축 정도에 대한 정보를 출력하는 CNN(Convolutional Neural Network)과, 상기 CNN에서 출력된 정보에 기초한 분류를 수행하는 분류기(classifier)를 포함하는 인공 신경망으로 구성된 것이고, 상기 제1 치은 영역은 상기 제1 치관 영역의 인접 영역으로서, 상기 제1 치관 영역이 표현하는 제1 치관에 대응되는 치은을 표현하는 영역이고, 상기 제1 잇몸 라인은 상기 제1 치은 영역과 상기 제1 치관 영역의 경계선인 것일 수 있다. A companion animal oral information analysis system according to another embodiment of the present disclosure for solving the above technical problem includes a memory on which a companion animal oral information analysis program is loaded and a processor on which the companion animal oral information analysis program is executed. , the companion animal oral information analysis program inputs instructions for acquiring an oral image of a companion animal, data from the acquired oral image, into an oral information analysis model previously created through machine learning, and analyzes the oral information. Includes instructions for generating an oral information analysis result using data output from the model, wherein the oral information analysis model includes information on the color uniformity of the first coronal region, information on the color uniformity of the first gingival region, and , It is composed of an artificial neural network including a CNN (Convolutional Neural Network) that outputs information about the degree of recession of the first gum line, and a classifier that performs classification based on the information output from the CNN, and the first The gingival area is an area adjacent to the first crown area, and is an area representing the gingiva corresponding to the first crown expressed by the first crown area, and the first gum line is the first gingival area and the first crown. It may be the border of the area.

도 1은 본 개시의 일 실시예에 따른 반려동물 구강 정보 분석 시스템의 구성도이다.
도 2는 본 개시의 몇몇 실시예에 따른 반려동물 구강 정보 분석 방법의 순서도이다.
도 3은 본 개시의 몇몇 실시예들에서 이용되는 치관 영역의 색상 균일도에 대한 정보를 도출하는 CNN을 설명하기 위한 도면이다.
도 4는 본 개시의 몇몇 실시예들에서 이용되는 치은 영역의 색상 균일도에 대한 정보를 도출하는 CNN을 설명하기 위한 도면이다.
도 5는 도 3 내지 도 4를 이용하여 설명한 두 정보를 특징 융합하는 과정을 설명하기 위한 도면이다.
도 6은 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링하는 CNN을 설명하기 위한 도면이다.
도 7은 본 개시의 몇몇 실시예들에서 이용되는 모델의 인공 신경망 아키텍처를 설명하기 위한 도면이다.
도 8은 본 개시의 몇몇 실시예들에서 설명한 컴퓨팅 시스템의 하드웨어 구성도이다.
1 is a configuration diagram of a companion animal oral information analysis system according to an embodiment of the present disclosure.
Figure 2 is a flowchart of a method for analyzing oral information of a companion animal according to some embodiments of the present disclosure.
FIG. 3 is a diagram illustrating a CNN that derives information about color uniformity of a crown region used in some embodiments of the present disclosure.
Figure 4 is a diagram for explaining a CNN that derives information about the color uniformity of the gingival area used in some embodiments of the present disclosure.
Figure 5 is a diagram for explaining the process of feature fusion of the two pieces of information described using Figures 3 and 4.
Figure 6 is a diagram for explaining a CNN that scores information about the degree of recession of the gum line.
FIG. 7 is a diagram illustrating the artificial neural network architecture of a model used in some embodiments of the present disclosure.
8 is a hardware configuration diagram of a computing system described in some embodiments of the present disclosure.

이하, 첨부된 도면을 참조하여 본 개시의 다양한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속한 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the attached drawings. The advantages and features of the present disclosure and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the technical idea of the present disclosure is not limited to the following embodiments and may be implemented in various different forms. The following examples are merely intended to complete the technical idea of the present disclosure and to cover the technical field to which the present disclosure belongs. is provided to fully inform those skilled in the art of the scope of the present disclosure, and the technical idea of the present disclosure is only defined by the scope of the claims.

본 개시의 다양한 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In describing various embodiments of the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description will be omitted.

다른 정의가 없다면, 이하의 실시예들에서 사용되는 용어(기술 및 과학적 용어를 포함)는 본 개시가 속한 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수도 있다. 본 개시에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시의 범주를 제한하고자 하는 것은 아니다.Unless otherwise defined, terms (including technical and scientific terms) used in the following embodiments may be used in a meaning that can be commonly understood by those skilled in the art to which this disclosure pertains. It may vary depending on the intentions of engineers working in the related field, precedents, the emergence of new technologies, etc. The terminology used in this disclosure is for describing embodiments and is not intended to limit the scope of this disclosure.

이하의 실시예들에서 사용되는 단수의 표현은 문맥상 명백하게 단수인 것으로 특정되지 않는 한, 복수의 개념을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정되지 않는 한, 단수의 개념을 포함한다.The singular expressions used in the following embodiments include plural concepts, unless the context clearly specifies singularity. Additionally, plural expressions include singular concepts, unless the context clearly specifies plurality.

또한, 이하의 실시예들에서 사용되는 제1, 제2, A, B, (a), (b) 등의 용어는 어떤 구성요소를 다른 구성요소와 구별하기 위해 사용되는 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지는 않는다.In addition, terms such as first, second, A, B, (a), (b) used in the following embodiments are only used to distinguish one component from another component, and the terms The essence, order, or order of the relevant components are not limited.

이하, 첨부된 도면들을 참조하여 본 개시의 다양한 실시예들에 대하여 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the attached drawings.

먼저, 본 개시의 일 실시예에 따른 반려동물 구강 정보 분석 시스템의 구성 및 동작을 도 1을 참조하여 설명하기로 한다.First, the configuration and operation of the companion animal oral information analysis system according to an embodiment of the present disclosure will be described with reference to FIG. 1.

도 1에 도시된 바와 같이, 본 실시예에 따른 반려동물 구강 정보 분석 시스템은 반려동물 구강 정보 분석 보조 시스템(100) 및 사용자 단말(200)을 포함하여 구성될 수 있다. 사용자 단말(200)의 사용자는 대상 반려동물(10)의 치아와 치관의 색상 및 잇몸 라인이 선명하게 보이도록 사진을 촬영하고, 상기 촬영의 결과물인 촬영 이미지를 반려동물 구강 정보 분석 보조 시스템(100)으로 송신할 수 있다.As shown in FIG. 1, the companion animal oral information analysis system according to this embodiment may be configured to include a companion animal oral information analysis assistance system 100 and a user terminal 200. The user of the user terminal 200 takes a picture so that the color and gum line of the teeth and crown of the target pet 10 are clearly visible, and the captured image resulting from the photograph is used in the pet oral information analysis assistance system (100). ) can be sent.

사용자 단말(200)은 반려동물 구강 정보 분석 보조 시스템(100) 또는 별도의 서비스 서버에 접속되는 반려동물 구강 정보 분석 애플리케이션이 설치된 것일 수 있고, 상기 반려동물 구강 정보 분석 애플리케이션은 반려동물의 치아와 치관의 색상 및 잇몸 라인이 선명하게 보이도록 사진 촬영을 가이드하는 사진 촬영 UI를 제공하는 것일 수 있다. The user terminal 200 may have a companion animal oral information analysis application installed that is connected to the companion animal oral information analysis assistance system 100 or a separate service server, and the companion animal oral information analysis application may be installed on the companion animal's teeth and crown. It may be to provide a photo taking UI that guides photo taking so that the color and gum line are clearly visible.

물론 사용자 단말(200)은 반려동물 구강 정보 분석 보조 시스템(100) 또는 별도의 서비스 서버에 의하여 서비스되는 프론트-엔드 웹 페이지에 접속하는 웹 브라우저가 설치된 것이며, 상기 프론트-엔드 웹 페이지가 반려동물의 치아와 치관의 색상 및 잇몸 라인이 선명하게 보이도록 사진 촬영을 가이드하는 사진 촬영 UI를 제공하는 것일 수도 있다.Of course, the user terminal 200 is installed with a web browser that accesses the front-end web page served by the companion animal oral information analysis assistance system 100 or a separate service server, and the front-end web page is the companion animal's It may be to provide a photo taking UI that guides photo taking so that the color of teeth and crowns and gum lines are clearly visible.

또한 사용자 단말(200)은 반려동물 구강 정보 분석 보조 시스템(100) 또는 별도의 서비스 서버에 의하여 서비스되는 프론트-엔드 웹 페이지에 접속하는 웹 브라우저가 설치된 것이며, 상기 프론트-엔드 웹 페이지에 반려동물의 치아와 치관의 색상 및 잇몸 라인이 선명하게 보이는 사진을 서버에 제공하는 것일 수 있다. 상기 사진을 제공 받은 서버에 의하여 분석된 결과는 다시 사용자 단말(200)로 수신되고, 사용자 단말(200)은 결과를 사용자에게 제공하는 UI를 제공하는 것일 수도 있다.In addition, the user terminal 200 is installed with a web browser that accesses a front-end web page served by the companion animal oral information analysis assistance system 100 or a separate service server, and the companion animal's information is displayed on the front-end web page. This may be providing a photo to the server that clearly shows the color of the teeth and crown and the gum line. The results analyzed by the server that received the photo are received back to the user terminal 200, and the user terminal 200 may provide a UI that provides the results to the user.

반려동물 구강 정보 분석 보조 시스템(100)은 하나 이상의 클라우드 노드 상에 프로비저닝(provisioning) 된 가상 머신 또는 컨테이너를 가리킬 수 있다. 물론, 반려동물 구강 정보 분석 보조 시스템(100)은 하나 이상의 on-premise 물리 서버를 통해 구현된 것일 수도 있다. 반려동물 구강 정보 분석 보조 시스템(100)은 기계 학습으로 기 생성된 반려동물 잇몸 라인 스코어링 모델의 정의 데이터를 저장할 수 있다. 상기 반려동물 잇몸 라인 스코어링 모델의 실행을 위한 소프트웨어인 머신 러닝 런타임(ML runtime)이 설치된 것일 수 있다. 즉, 반려동물 구강 정보 분석 보조 시스템(100)은 반려동물의 구강 촬영 이미지를 사용자 단말(200)로부터 수신하고, 상기 획득된 구강 촬영 이미지의 데이터를, 상기 잇몸 라인 스코어링 모델에 입력하고, 상기 잇몸 라인 스코어링 모델에서 출력된 데이터를 이용하여 구강 정보 분석 결과를 생성하며, 생성된 구강 정보 분석 결과를 포함하는 데이터를 사용자 단말(200)에 송신할 수 있다. 상기 구강 정보 분석 결과는 각각의 치아로 세그멘테이션 된 치아의 치관과 치은 및 치관과 치은의 경계인 경계선을 도출할 수 있는 정보를 포함한다.The companion animal oral information analysis assistance system 100 may refer to a virtual machine or container provisioned on one or more cloud nodes. Of course, the companion animal oral information analysis assistance system 100 may be implemented through one or more on-premise physical servers. The companion animal oral information analysis assistance system 100 may store definition data of a companion animal gum line scoring model previously created through machine learning. Machine learning runtime (ML runtime), which is software for executing the pet gum line scoring model, may be installed. That is, the companion animal oral information analysis assistance system 100 receives an oral photographed image of the companion animal from the user terminal 200, inputs the data of the obtained oral photographed image into the gum line scoring model, and Oral information analysis results are generated using data output from the line scoring model, and data including the generated oral information analysis results can be transmitted to the user terminal 200. The oral information analysis result includes information that can be used to derive the crown and gingiva of each tooth segmented, and the boundary line between the crown and the gingiva.

몇몇 실시예들에서, 반려동물 구강 정보 분석 보조 시스템(100)은 잇몸 라인 스코어링 모델을 주기적 또는 비주기적으로 기계 학습시키고, 업데이트 된 잇몸 라인 스코어링 모델을 사용자 단말(200)에 배포(deploy)할 수도 있을 것이다. 즉, 이 경우, 반려동물 구강 정보 분석 보조 시스템(100)은 잇몸 라인 스코어링 모델의 머신 러닝 파이프라인을 실행하는 장치로서의 역할을 수행하고, 사용자 단말(200)은 머신 러닝 애플리케이션을 실행하는 일종의 엣지 장치(edge device)의 역할을 수행할 수도 있을 것이다.In some embodiments, the pet oral information analysis assistance system 100 may machine-learn the gum line scoring model periodically or aperiodically and deploy the updated gum line scoring model to the user terminal 200. There will be. That is, in this case, the pet oral information analysis assistance system 100 serves as a device that executes the machine learning pipeline of the gum line scoring model, and the user terminal 200 is a type of edge device that executes a machine learning application. It may also play the role of an edge device.

본 개시의 다른 실시예에 따른 반려동물 구강 정보 분석 방법을 도 2를 참조하여 설명한다. 본 실시예에 따른 반려동물 구강 정보 분석은 하나 이상의 컴퓨팅 장치에 의하여 수행될 수 있다. 즉, 본 실시예에 따른 반려동물 구강 정보 분석 방법은 하나의 컴퓨팅 장치에 의하여 모든 동작이 수행될 수도 있고, 일부의 동작이 다른 컴퓨팅 장치에 의하여 수행될 수도 있다. 예를 들어, 일부의 동작은 제1 서버 시스템에 의하여 수행되고, 다른 동작은 제2 서버 시스템에 의하여 수행될 수도 있다.A method of analyzing companion animal oral information according to another embodiment of the present disclosure will be described with reference to FIG. 2. Analysis of companion animal oral information according to this embodiment may be performed by one or more computing devices. That is, in the companion animal oral information analysis method according to this embodiment, all operations may be performed by one computing device, or some operations may be performed by another computing device. For example, some operations may be performed by a first server system and other operations may be performed by a second server system.

또한, 서버 시스템이 클라우드 컴퓨팅 노드 상에 구현됨에 따라, 하나의 서버 시스템에 의하여 수행되는 동작들도 복수의 클라우드 컴퓨팅 노드 상에서 나뉘어 수행될 수도 있을 것이다. 이하, 본 실시예에 따른 반려동물 구강 정보 분석 방법을 설명함에 있어서, 일부 동작의 수행 주체에 대한 기재가 생략될 수 있으며, 이 경우 그 수행 주체는 도 1을 참조하여 설명한 반려동물 구강 정보 분석 보조 시스템(100)일 수 있다.Additionally, as the server system is implemented on a cloud computing node, operations performed by one server system may also be performed separately on a plurality of cloud computing nodes. Hereinafter, in explaining the method of analyzing companion animal oral information according to this embodiment, description of the performer of some operations may be omitted, and in this case, the performer is the companion animal oral information analysis assistant described with reference to FIG. 1. It may be system 100.

단계 S100에서, 학습 데이터가 준비된다. 상기 학습 데이터는 반려동물의 치아와 치관의 색상 및 잇몸 라인이 선명하게 보이도록 촬영한 복수의 사진 및 각 사진에 대한 레이블링 데이터(labeling data)를 포함할 수 있다.In step S100, training data is prepared. The learning data may include a plurality of photos taken so that the color and gum line of the pet's teeth and crowns are clearly visible, and labeling data for each photo.

상기 레이블링 데이터는, 예를 들어 각 사진에 대한 치주염 발생 여부 및 하나 이상의 추가 정보를 포함할 수 있다. 예를 들어, 상기 추가 정보는 반려동물의 연령, 최근 스케일링 날짜 등의 정보를 포함할 수 있을 것이다.The labeling data may include, for example, whether periodontitis occurs for each photo and one or more additional information. For example, the additional information may include information such as the pet's age and the latest scaling date.

상기 레이블링 데이터는, 예를 들어 각 사진에 대한 치주염 발생 여부 만으로 구성될 수도 있다.The labeling data, for example, may consist only of whether periodontitis occurs for each photo.

단계 S200에서, 준비된 학습 데이터를 이용한 반려동물 구강 정보 분석 모델이 기계 학습된다. 학습 데이터 확보가 자동화되고, 학습 데이터 확보 상황에 대한 메트릭(metric)이 마련됨으로써, 반려동물 구강 정보 분석 모델에 대한 기계 학습은 주기적으로 또는 비주기적으로 반복되어 수행되되, 이러한 기계 학습의 수행 시점은 상기 메트릭의 값을 기반으로 결정될 수 있을 것이다.In step S200, a companion animal oral information analysis model using the prepared learning data is machine learned. By automating the acquisition of learning data and establishing a metric for the situation of obtaining the learning data, machine learning for the companion animal oral information analysis model is repeated periodically or aperiodically, but the timing of such machine learning is It may be determined based on the value of the metric.

다음으로, 기계 학습이 마무리되면, 단계 S300에서, 학습된 구강 정보 분석 모델이 서비스 백엔드(back-end) 인스턴스(instance)를 실행하는 컴퓨팅 시스템에 배포(deploy)될 수 있다. 상술한 바와 같이, 상기 백엔드 인스턴스를 실행하는 컴퓨팅 시스템은 서비스 서버일 수 있다.Next, when machine learning is completed, in step S300, the learned oral information analysis model can be deployed to a computing system running a service back-end instance. As described above, the computing system running the backend instance may be a service server.

단계 S400에서 촬영 이미지를 포함한 구강 정보 분석 요청이 사용자 단말로부터 수신되면, 단계 S600에서 촬영 이미지의 데이터가 반려동물 구강 정보 분석 모델에 입력될 수 있다. 이 때, 상기 촬영 이미지에 대한 크롭, 리사이징 또는 색상 필터 반여 등의 기 지정된 전처리(preprocessing)가 수행될 수 있음은 물론이다.When a request for oral information analysis including a captured image is received from the user terminal in step S400, data of the captured image may be input into the companion animal oral information analysis model in step S600. At this time, it goes without saying that pre-designated preprocessing, such as cropping, resizing, or applying a color filter, can be performed on the captured image.

단계 S700에서, 상기 구강 정보 분석 모델로부터 출력된 데이터를 이용하여 반려동물 구강 정보 분석에 대한 요청에 대한 응답이 생성되고, 단계 S800에서, 반려동물 구강 정보 분석 요청에 대한 응답이 사용자 단말에 송신될 수 있다.In step S700, a response to the request for companion animal oral information analysis is generated using the data output from the oral information analysis model, and in step S800, a response to the request for companion animal oral information analysis is transmitted to the user terminal. You can.

본 실시예에 따르면, 반려동물의 보호자는 반려동물의 구강 이미지를 촬영하는 것 만으로도 구강 정보와 관련된 분석 결과를 확인할 수 있게 된다. 예를 들어 치주염의 발생 여부와 진행 정도에 대한 정보가 사용자 단말에 디스플레이 될 수 있는 것이다.According to this embodiment, the guardian of a companion animal can check the analysis results related to oral information simply by taking an image of the oral cavity of the companion animal. For example, information about the occurrence and progress of periodontitis can be displayed on the user terminal.

보다 정확한 반려동물 구강 정보 분석을 위하여, 반려동물의 구강 이미지에 반영되어 정보 분석의 정확성을 향상시키는 특징이 반려동물의 구강 이미지에 잘 반영될 수 있도록 하는 본 개시 특유의 인공 신경망 아키텍처가 후술될 것이다.In order to analyze companion animal oral information more accurately, the present disclosure's unique artificial neural network architecture, which allows features that are reflected in the oral image of the companion animal to improve the accuracy of information analysis, be well reflected in the oral image of the companion animal, will be described later. .

후술되는 구강 정보 분석 모델의 인공 신경망 아키텍처는, 상기 구강 정보 분석 모델이 다양한 관점의 정보를 종합하여 반려동물의 구강 내에 발생할 수 있는 치주염을 최대한 정확하게 파악할 수 있도록 정교하게 고안된 것이다. 이하 도 3 내지 도 7을 참조하여, 반려동물의 구강 촬영 이미지를 분석하는 구강 정보 분석 모델의 인공 신경망 아키텍쳐의 예시들을 설명하기로 한다.The artificial neural network architecture of the oral information analysis model, which will be described later, is elaborately designed so that the oral information analysis model can identify periodontitis that may occur in the oral cavity of a companion animal as accurately as possible by integrating information from various perspectives. Hereinafter, with reference to FIGS. 3 to 7, examples of the artificial neural network architecture of an oral information analysis model that analyzes oral images of companion animals will be described.

도 3을 참조하여, 촬영 이미지(10)를 입력 받고 세그멘테이션 된 개별 치관 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z1)를 출력하는 CNN(Convolutional Neural Network)(110)을 설명한다. 촬영 이미지(10)를 입력 받은 CNN(110)은 개별 치관 영역의 색상 균일도에 대한 정보를 스코어링 점수로 출력할 수 있다.Referring to FIG. 3, a CNN (Convolutional Neural Network) 110 that receives a captured image 10 and outputs a score (Z1) obtained by scoring information on the color uniformity of each segmented crown region will be described. The CNN 110 that receives the captured image 10 can output information about the color uniformity of individual crown regions as a scoring score.

치관 영역은 치아의 가시적인 부분으로 치아의 형태와 색상을 결정하는 영역이다. 치관 영역은 치아의 크기, 형태, 정렬 등을 평가에 이용되고, 치과 진료에서 중요한 정보를 제공한다.The crown area is the visible part of the tooth and is the area that determines the shape and color of the tooth. The crown area is used to evaluate the size, shape, and alignment of teeth, and provides important information in dental care.

치관 영역의 색상 균일도는 촬영 이미지 상에서 치관 영역을 구성하는 픽셀들의 색상이 일관되고 균일한지를 의미하는 기준으로, 치관 영역 내의 픽셀들이 비슷한 색상을 가지고 있고 색상의 차이가 적을수록 색상이 균일한 것일 수 있다.Color uniformity of the crown area is a standard that means whether the colors of the pixels that make up the crown area in the captured image are consistent and uniform. The pixels in the crown area have similar colors, and the smaller the color difference, the more uniform the color. there is.

CNN(110)은 정상견 이미지로 학습하여 생성한 색상 균일도 분석 모델을 이용하여 색상 균일도 정도를 스코어링한 결과를 출력할 수 있다. The CNN 110 can output a result of scoring the degree of color uniformity using a color uniformity analysis model created by learning from normal dog images.

CNN(110)은 하나의 대상 치관 영역의 색상 균일도가 극단적일수록 높은 점수를 출력할 수 있다. 색상 균일도가 극단적인 것은 색상이 균일하지 않다는 것이다. 즉, 높은 색상 균일도 점수는 하나의 대상 치관 영역에 포함되는 색상들이 RGB 코드 기준으로 멀수록 대상 치관 영역의 색상 균일도가 극단적인 것이라고 판단될 수 있다. 하나의 대상 치관 영역에 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷할수록 대상 치관 영역의 색상 균일도가 극단적인 것이라고 판단될 수 있다. 대상 치관 영역의 색상 균일도가 극단적이고, 높은 점수가 출력될수록 염증 관련 증상이 존재할 확률이 높은 것이다.The CNN 110 can output a higher score as the color uniformity of one target crown region is more extreme. Extreme color uniformity means that the color is not uniform. In other words, a high color uniformity score may indicate that the color uniformity of a target crown region is more extreme as the colors included in one target crown region are further apart based on the RGB code. Based on the RGB code included in one target crown area, the closer the areas with distant colors are, the more extreme the color uniformity of the target crown area can be judged to be. The more extreme the color uniformity of the target crown area and the higher the score, the higher the probability that inflammation-related symptoms exist.

치관 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z1)가 촬영 이미지(10)에 오버레이 된 이미지(210)에서 색상 균일도가 극단적일수록 높은 점수가 출력될 수 있다.In the image 210 in which the score Z1, which scores information on the color uniformity of the crown area, is overlaid on the captured image 10, the more extreme the color uniformity, the higher the score may be output.

도 4를 참조하여, 촬영 이미지(10)를 입력 받고 세그멘테이션 된 개별 치은 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z2)를 출력하는 CNN(Convolutional Neural Network)(110)을 설명한다. 촬영 이미지(10)를 입력 받은 CNN(110)은 치은 영역의 색상 균일도에 대한 정보를 스코어링 점수로 출력할 수 있다. Referring to FIG. 4, a CNN (Convolutional Neural Network) 110 that receives a captured image 10 and outputs a score (Z2) obtained by scoring information on the color uniformity of the segmented individual gingival areas will be described. The CNN 110 that receives the captured image 10 can output information about the color uniformity of the gingival area as a scoring score.

치은 영역은 치아와 인접한 잇몸 부분이다. 치은은 잇몸의 색상과 조직상태를 결정하며, 치은 영역의 건강 상태는 구강 위생과 치아 관리에 큰 영향을 미친다.The gingival area is the part of the gums adjacent to the teeth. The gingiva determines the color and tissue condition of the gums, and the health of the gingival area has a significant impact on oral hygiene and dental care.

치은 영역의 색상 균일도는 촬영 이미지 상에서 치은 영역을 구성하는 픽셀들의 색상이 일관되고 균일한지를 의미하는 기준으로, 치은 영역 내의 픽셀들이 비슷한 색상을 가지고 있고 색상의 차이가 적을수록 색상이 균일한 것일 수 있다.Color uniformity of the gingival area is a standard that means whether the colors of the pixels that make up the gingival area in the captured image are consistent and uniform. The pixels in the gingival area have similar colors, and the smaller the color difference, the more uniform the color. there is.

CNN(110)은 정상견 이미지로 학습하여 생성한 색상 균일도 분석 모델을 이용하여 색상 균일도 정도를 스코어링한 결과를 출력할 수 있다. The CNN 110 can output a result of scoring the degree of color uniformity using a color uniformity analysis model created by learning from normal dog images.

CNN(110)은 하나의 대상 치은 영역의 색상 균일도가 극단적일수록 높은 점수를 출력할 수 있다. 하나의 대상 치은 영역에 포함되는 색상들이 RGB 코드 기준으로 멀수록 대상 치은 영역의 색상 균일도가 극단적인 것이라고 판단될 수 있다. 하나의 대상 치은 영역에 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷할수록 대상 치은 영역의 색상 균일도가 극단적인 것이라고 판단될 수 있다. 대상 치은 영역의 색상 균일도가 극단적이고, 높은 점수가 출력될수록 염증 관련 증상이 존재할 확률이 높은 것이다. The CNN 110 can output a higher score as the color uniformity of one target gingival area is more extreme. The farther away the colors included in one target gingival area are based on the RGB code, the more extreme the color uniformity of the target gingival area can be judged to be. Based on the RGB code included in one target gingival area, the closer the areas with distant colors are, the more extreme the color uniformity of the target gingival area can be judged to be. The more extreme the color uniformity of the target gingival area and the higher the score, the higher the probability that inflammation-related symptoms exist.

치은 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z2)가 촬영 이미지(10)에 오버레이 된 이미지(220)에서 색상 균일도가 극단적일수록 높은 점수가 출력될 수 있다.In the image 220 in which the score Z2, which scores information on the color uniformity of the gingival area, is overlaid on the captured image 10, the more extreme the color uniformity, the higher the score may be output.

도 5는 CNN이 치관 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z1)와 CNN이 치은 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z2)를 입력 받는 특징 융합(Feature Fusion)(310)의 결과로 출력된 융합 스코어(Z(f))가 오버레이 된 이미지(230)를 도시하고 있다. Figure 5 shows a feature fusion (310) that receives a score (Z1) in which the CNN scores information on the color uniformity of the crown area and a score (Z2) in which the CNN scores information on the color uniformity in the gingival area. It shows an image 230 on which the fusion score (Z(f)) output as a result of is overlaid.

특징 융합(feature fusion)의 대상인 치관 영역의 색상 균일도에 대한 정보와 치은 영역의 색상 균일도에 대한 정보는 구강 내 염증 관련 증상이 존재할 확률에 영향을 미칠 수 있는 정보이다. Information about the color uniformity of the coronal area and the color uniformity of the gingival area, which are the targets of feature fusion, are information that can affect the probability of the presence of inflammation-related symptoms in the oral cavity.

구체적으로, 하나의 대상 치관 또는 치은 영역에 포함되는 색상들이 RGB 코드 기준으로 멀수록, 또는, 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷할수록, 염증 관련 증상이 존재할 확률이 높은 것이다. Specifically, the further away the colors included in one target crown or gingival area are based on the RGB code, or the more similar the areas with distant colors are based on the included RGB code, the higher the probability that inflammation-related symptoms exist.

하나의 대상 치관 영역에 포함되는 색상들이 RGB 코드 기준으로 먼 것은 치관에 치석이 쌓였거나, 부식이 일어났거나, 충치가 생겼거나, 치관에 이물질이 존재하는 것일 수 있다. 하나의 대상 치은 영역에 포함되는 색상들이 RGB 코드 기준으로 먼 것은 치은이 붓거나, 치은에 출혈이 발생했거나, 치은에 이물질이 존재하는 것일 수 있다.If the colors included in one target crown area are far apart based on the RGB code, this may mean that tartar has accumulated on the crown, corrosion has occurred, cavities have occurred, or foreign substances are present in the crown. If the colors included in one target gingival area are far apart based on the RGB code, it may mean that the gingiva is swollen, bleeding has occurred in the gingiva, or a foreign substance is present in the gingiva.

하나의 대상 치관 영역에 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷한 것은 치관에 쌓인 치석이 과다하거나, 충치가 상당히 진행된 것일 수 있다. 하나의 대상 치은 영역에 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷한 것은 치은의 붓기 정도가 심하거나, 치은에 과다한 출혈이 발생한 것일 수 있다.If the areas with distant colors based on the RGB code included in one target crown area are similar, the amount of tartar accumulated on the crown may be excessive or the decay may have progressed significantly. If the areas with distant colors based on the RGB code included in one target gingival area are similar, the degree of gingival swelling may be severe or excessive bleeding may have occurred in the gingiva.

위와 같이 치관 또는 치은 영역의 색상 균일도에 영향을 미치는 정보는 구강 내 염증 증상이 존재함에 의해 생성된 것일 수 있고, 일시적으로 개별 객체에 발생한 문제에 의해 생성된 것일 수 있고, 이물질이 존재함에 의해 생성된 것일 수 있다.As above, information affecting the color uniformity of the crown or gingival area may be generated by the presence of inflammatory symptoms in the oral cavity, may be generated temporarily by problems occurring in individual objects, or are generated by the presence of foreign substances. It may have happened.

따라서, 치관 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z1)와 치관 영역과 동일한 치아의 치은 영역의 색상 균일도에 대한 정보를 스코어링한 스코어(Z2)가 특징 융합 로직(310)에 입력되고, 특징 융합 로직(310)에서 융합 스코어(Z(f))가 출력될 수 있다.Therefore, a score (Z1) that scores information on the color uniformity of the crown area and a score (Z2) that scores information on the color uniformity of the gingival area of the same tooth as the crown area are input to the feature fusion logic 310, A fusion score (Z(f)) may be output from the feature fusion logic 310.

치관 영역의 색상 균일도와 치관 영역과 동일한 치아의 치은 영역의 색상 균일도가 각각 기 정의된 점수 이상이며 치관 영역의 색상 균일도와 치은 영역의 색상 균일도가 기준치 이내의 차이를 가지는 경우 해당 치아의 융합 스코어(Z(f))가 기 정의된 방식에 따라 증강(augmenting)될 수 있다. 해당 치아의 융합 스코어(Z(f))가 기 정의된 방식에 따라 증강(augmenting)되는 방식으로는 해당 치아의 융합 스코어(Z(f))을 제곱하는 방식 또는 가중점수를 부여하는 방식이 포함될 수 있다. 위의 가중점수는 치관 영역의 색상 균일도 또는 치은 영역의 색상 균일도를 이용하여 도출할 수 없는 점수일 수 있다. If the color uniformity of the crown area and the color uniformity of the gingival area of the same tooth as the crown area are each more than a predefined score, and the difference between the color uniformity of the crown area and the color uniformity of the gingival area is within the standard value, the fusion score ( Z(f)) can be augmented according to a predefined method. The method in which the fusion score (Z(f)) of the tooth is augmented according to a predefined method includes a method of squaring the fusion score (Z(f)) of the tooth or a method of assigning a weighted score. You can. The above weighted score may be a score that cannot be derived using the color uniformity of the crown area or the color uniformity of the gingival area.

치관 영역의 색상 균일도와 치관 영역과 동일한 치아의 치은 영역의 색상 균일도가 각각 기 정의된 점수 이상이며 치관 영역의 색상 균일도와 치은 영역의 색상 균일도가 기준치 초과의 차이를 가지는 경우, 치관 영역 또는 치은 영역 중 어느 한 곳에 일시적으로 개별적인 문제가 발생했을 수 있고, 또는 이물질이 존재하는 것일 수 있다.If the color uniformity of the crown area and the color uniformity of the gingival area of the same tooth as the crown area are each more than a predefined score, and the difference between the color uniformity of the crown area and the color uniformity of the gingival area exceeds the standard value, the crown area or gingival area An individual problem may have occurred temporarily in one of the areas, or a foreign substance may be present.

또한, 도시되어 있지 않지만, 특징 융합(feature fusion)의 대상은 치은 영역의 색상 균일도에 대한 정보와 잇몸 라인의 퇴축 정도에 대한 정보일 수 있다. 치은 영역의 색상 균일도에 대한 정보와 잇몸 라인의 퇴축 정도에 대한 정보는 구강 내 염증 관련 증상이 존재할 확률에 영향을 미칠 수 있는 정보이다. 치은 영역의 색상 균일도에 대한 정보와 잇몸 라인의 퇴축 정도에 대한 정보는 잇몸의 건강상태를 반영하는 정보이다. 잇몸 라인의 퇴축 정도에 대한 정보는 도 6을 참조하여 후술한다.Additionally, although not shown, the object of feature fusion may be information about the color uniformity of the gingival area and information about the degree of recession of the gum line. Information about the color uniformity of the gingival area and the degree of recession of the gum line are information that can affect the probability of the presence of inflammation-related symptoms in the oral cavity. Information about the color uniformity of the gingival area and the degree of recession of the gum line are information that reflects the health status of the gums. Information on the degree of recession of the gum line will be described later with reference to FIG. 6.

구체적으로, 대상 치은 영역에 포함되는 색상들이 RGB 코드 기준으로 멀수록, 또는, 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷할수록, 잇몸 라인의 퇴축 정도가 심할수록 염증 관련 증상이 존재할 확률이 높은 것이다.Specifically, the further away the colors included in the target gingival area are based on the RGB code, or the more similar the areas with distant colors are based on the included RGB code, or the more severe the degree of gum line recession, the more likely it is that inflammation-related symptoms will exist. It is high.

하나의 대상 치은 영역에 포함되는 색상들이 RGB 코드 기준으로 먼 것은 치은이 붓거나, 치은에 출혈이 발생했거나, 치은에 이물질이 존재하는 것일 수 있다. 하나의 대상 치은 영역에 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷한 것은 치은의 붓기 정도가 심하거나, 치은에 과다한 출혈이 발생한 것일 수 있다. 하나의 대상 잇몸 라인에 퇴축이 발생한 것은 잇몸에 물리적인 사고가 발생하여 흉터가 남은 것일 수 있다. 잇몸 라인은 각 개체의 구강구조마다 차이가 존재할 수 있다.If the colors included in one target gingival area are far apart based on the RGB code, it may mean that the gingiva is swollen, bleeding has occurred in the gingiva, or a foreign substance is present in the gingiva. If the areas with distant colors based on the RGB code included in one target gingival area are similar, the degree of gingival swelling may be severe or excessive bleeding may have occurred in the gingiva. Recession in one target gum line may be due to a physical accident occurring to the gums, leaving behind a scar. The gum line may differ depending on the oral structure of each individual.

위와 같이 치은 영역의 색상 균일도에 영향을 미치는 정보는 구강 내 염증 증상이 존재함에 의해 생성된 것일 수 있고, 일시적으로 개별 객체에 발생한 문제에 의해 생성된 것일 수 있고, 이물질이 존재함에 의해 생성된 것일 수 있다.As above, the information affecting the color uniformity of the gingival area may be generated by the presence of inflammatory symptoms in the oral cavity, may be generated by temporary problems occurring in individual objects, or may be generated by the presence of foreign substances. You can.

따라서 치은 영역의 색상 균일도에 대한 정보를 스코어링한 스코어와 해당 치아와 동일한 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링한 스코어가 특징 융합 로직(310)에 입력되고, 특징 융합 로직(310)에서 융합 스코어(Z(f))가 출력될 수 있다.Therefore, a score that scores information on the color uniformity of the gingival area and a score that scores information on the degree of recession of the gum line identical to the corresponding tooth are input to the feature fusion logic 310, and the fusion score is calculated in the feature fusion logic 310. (Z(f)) can be output.

치은 영역의 색상 균일도와 치은 영역과 동일한 치아의 잇몸 라인의 퇴축 정도가 각각 기 정의된 점수 이상이며 서로 기준치 이내의 차이를 가지는 경우 해당 치아의 융합 스코어(Z(f))가 기 정의된 방식에 따라 증강(augmenting)될 수 있다. 해당 치아의 융합 스코어(Z(f))가 기 정의된 방식에 따라 증강(augmenting)되는 방식으로는 해당 치아의 융합 스코어(Z(f))을 제곱하는 방식 또는 가중점수를 부여하는 방식이 포함될 수 있다. 위의 가중점수는 치은 영역의 색상 균일도 또는 잇몸 라인의 퇴축 정도를 이용하여 도출할 수 없는 점수일 수 있다. If the color uniformity of the gingival area and the degree of recession of the gum line of the same tooth as the gingival area are each more than a predefined score and have a difference within the standard value, the fusion score (Z(f)) of the corresponding tooth is calculated according to the predefined method. It can be augmented accordingly. The method in which the fusion score (Z(f)) of the tooth is augmented according to a predefined method includes a method of squaring the fusion score (Z(f)) of the tooth or a method of assigning a weighted score. You can. The above weighted score may be a score that cannot be derived using the color uniformity of the gingival area or the degree of recession of the gum line.

또한, 도시되어 있지 않지만, 특징 융합(feature fusion)의 대상은 치관 영역의 색상 균일도에 대한 정보와 치은 영역의 색상 균일도에 대한 정보와 잇몸 라인의 퇴축 정도에 대한 정보일 수 있다. 치관 영역의 색상 균일도에 대한 정보와 치은 영역의 색상 균일도에 대한 정보와 잇몸 라인의 퇴축 정도에 대한 정보는 구강 내 염증 관련 증상이 존재할 확률에 영향을 미칠 수 있는 정보이다. Additionally, although not shown, the object of feature fusion may be information about the color uniformity of the crown area, information about the color uniformity of the gingival area, and information about the degree of recession of the gum line. Information about the color uniformity of the crown area, information about the color uniformity of the gingival area, and information about the degree of recession of the gum line are information that can affect the probability of the presence of inflammation-related symptoms in the oral cavity.

구체적으로, 대상 치관 영역 및 치은 영역에 포함되는 색상들이 RGB 코드 기준으로 멀수록, 또는, 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷할수록, 잇몸 라인의 퇴축 정도가 심할수록 염증 관련 증상이 존재할 확률이 높은 것이다.Specifically, the further away the colors included in the target crown area and gingival area are based on the RGB code, or the more similar the area with the distant color is based on the included RGB code, or the more severe the degree of gum line recession, the more inflammation-related symptoms occur. There is a high probability that it exists.

하나의 대상 치관 영역에 포함되는 색상들이 RGB 코드 기준으로 먼 것은 치관에 치석이 쌓였거나, 부식이 일어났거나, 충치가 생겼거나, 치관에 이물질이 존재하는 것일 수 있다. 하나의 대상 치은 영역에 포함되는 색상들이 RGB 코드 기준으로 먼 것은 치은이 붓거나, 치은에 출혈이 발생했거나, 치은에 이물질이 존재하는 것일 수 있다.If the colors included in one target crown area are far apart based on the RGB code, this may mean that tartar has accumulated on the crown, corrosion has occurred, cavities have occurred, or foreign substances are present in the crown. If the colors included in one target gingival area are far apart based on the RGB code, it may mean that the gingiva is swollen, bleeding has occurred in the gingiva, or a foreign substance is present in the gingiva.

하나의 대상 치관 영역에 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷한 것은 치관에 쌓인 치석이 과다하거나, 충치가 상당히 진행된 것일 수 있다. 하나의 대상 치은 영역에 포함되는 RGB 코드 기준으로 먼 색상을 갖는 면적이 비슷한 것은 치은의 붓기 정도가 심하거나, 치은에 과다한 출혈이 발생한 것일 수 있다.If the areas with distant colors based on the RGB code included in one target crown area are similar, the amount of tartar accumulated on the crown may be excessive or the decay may have progressed significantly. If the areas with distant colors based on the RGB code included in one target gingival area are similar, the degree of gingival swelling may be severe or excessive bleeding may have occurred in the gingiva.

하나의 대상 잇몸 라인에 퇴축이 발생한 것은 잇몸에 물리적인 사고가 발생하여 흉터가 남은 것일 수 있다. 잇몸 라인은 각 개체의 구강구조마다 차이가 존재할 수 있다.Recession in one target gum line may be due to a physical accident occurring to the gums, leaving behind a scar. The gum line may differ depending on the oral structure of each individual.

위와 같이 치관 또는 치은 영역의 색상 균일도에 영향을 미치는 정보는 구강 내 염증 증상이 존재함에 의해 생성된 것일 수 있고, 일시적으로 개별 객체에 발생한 문제에 의해 생성된 것일 수 있다.As above, information affecting the color uniformity of the crown or gingival area may be generated by the presence of inflammatory symptoms in the oral cavity, or may be generated temporarily by problems occurring in individual objects.

위와 같이 잇몸 라인에 퇴축의 발생에 영향을 미치는 정보는 구강 내 염증 증상이 존재함에 의해 생성된 것일 수 있고, 개별 객체에 발생한 물리적 사고에 의해 생성된 것일 수 있다.As described above, information affecting the occurrence of recession in the gum line may be generated by the presence of inflammatory symptoms in the oral cavity, or may be generated by a physical accident that occurs in an individual object.

따라서 치관 영역의 색상 균일도에 대한 정보를 스코어링한 스코어와 치은 영역의 색상 균일도에 대한 정보를 스코어링한 스코어와 해당 치아와 동일한 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링한 스코어가 특징 융합 로직(310)에 입력되고, 특징 융합 로직(310)에서 융합 스코어(Z(f))가 출력될 수 있다.Therefore, a score that scores information on the color uniformity of the crown area, a score that scores information on the color uniformity of the gingival area, and a score that scores information on the degree of recession of the gum line identical to the tooth in question are characteristic fusion logic (310). is input, and a fusion score (Z(f)) may be output from the feature fusion logic 310.

치관 영역의 색상 균일도와 치은 영역의 색상 균일도와 치은 영역과 동일한 치아의 잇몸 라인의 퇴축 정도가 각각 기 정의된 점수 이상이며 서로 기준치 이내의 차이를 가지는 경우 해당 치아의 융합 스코어(Z(f))가 기 정의된 방식에 따라 증강(augmenting)될 수 있다. 해당 치아의 융합 스코어(Z(f))가 기 정의된 방식에 따라 증강(augmenting)되는 방식으로는 해당 치아의 융합 스코어(Z(f))을 제곱하는 방식 또는 가중점수를 부여하는 방식이 포함될 수 있다. 위의 가중점수는 치관 또는 치은 영역의 색상 균일도 및 잇몸 라인의 퇴축 정도를 이용하여 도출할 수 없는 점수일 수 있다. If the color uniformity of the crown area, the color uniformity of the gingival area, and the degree of recession of the gingival area and the gum line of the same tooth are each more than a predefined score and have a difference within the standard value, the fusion score (Z(f)) of the tooth Can be augmented according to a previously defined method. The method in which the fusion score (Z(f)) of the tooth is augmented according to a predefined method includes a method of squaring the fusion score (Z(f)) of the tooth or a method of assigning a weighted score. You can. The above weighted score may not be derived using the color uniformity of the crown or gingival area and the degree of recession of the gum line.

도 6을 참조하여, 촬영 이미지(10)를 입력 받고 세그멘테이션 된 개별 치아의 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링한 스코어(Z3)를 출력하는 CNN(110)을 설명한다. 촬영 이미지(10)를 입력받은 CNN(110)은 개별 치아의 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링 점수로 출력할 수 있다.Referring to FIG. 6, a CNN 110 that receives a captured image 10 and outputs a score Z3 that scores information on the degree of recession of the gum line of each segmented tooth will be described. The CNN 110 that receives the captured image 10 can output information about the degree of recession of the gum line of each individual tooth as a scoring score.

퇴축 정도에 대한 정보는 잇몸 라인의 퇴축 정도를 도출할 수 있는 정보이다. 잇몸 라인의 퇴축 정도는 잇몸의 형태와 위치가 치아에 비해 얼마나 뒤로 물러나 있는지를 의미한다. 잇몸 라인은 치아를 둘러싸고 있는 잇몸이 치아와 동일한 수평적 라인을 이루는 것이 이상적이나, 다양한 요인에 의해 치아와 잇몸 사이 치아 뿌리 부분이 노출되는 방향으로 퇴축할 수 있다. 잇몸 라인의 퇴축을 일으키는 대표적인 요인으로는 치주염이 있다.Information about the degree of recession is information that can be used to derive the degree of recession of the gum line. The degree of gum line recession refers to how far the shape and position of the gums recede compared to the teeth. Ideally, the gum line surrounding the teeth should form the same horizontal line as the teeth, but due to various factors, the gum line between the teeth and gums may recede in a direction that exposes the tooth roots. One of the most common causes of gum line recession is periodontitis.

CNN(110)은 정상견 이미지로 학습하여 생성한 개별 치아의 잇몸 라인의 곡률 모델을 이용하여 대상 치아의 잇몸 라인의 퇴축 정도를 스코어링한 결과를 출력할 수 있다. CNN(110)은 잇몸 라인의 곡률에 대한 정보를 포함하는 이미지로 학습하여 개별 치아의 잇몸 라인의 곡률 모델을 생성한 것일 수 있다. 잇몸 라인의 곡률은 치아와 동일한 수평적 라인을 기준으로 치아 뿌리 방향으로 퇴축한 라인의 곡률일 수 있다.The CNN 110 can output a result of scoring the degree of recession of the gum line of the target tooth using a curvature model of the gum line of each individual tooth created by learning from a normal dog image. The CNN 110 may generate a curvature model of the gum line of each individual tooth by learning from an image containing information about the curvature of the gum line. The curvature of the gum line may be the curvature of a line receding in the direction of the tooth root based on the same horizontal line as the tooth.

CNN(110)은 정상견 이미지로 학습하여 생성한 제1 치관 영역과 상기 제1 치은 영역 전체 중 상기 제1 치관 영역의 비율 연산 모델을 이용하여 대상 치아의 잇몸 라인의 퇴축 정도를 스코어링한 결과를 출력할 수 있다. CNN(110)은 제1 치관 영역과 상기 제1 치은 영역 전체 중 상기 제1 치관 영역의 비율에 대한 정보를 포함하는 이미지로 학습하여 제1 치관 영역과 상기 제1 치은 영역 전체 중 상기 제1 치관 영역의 비율 연산 모델을 생성한 것일 수 있다. 제1 치관 영역과 제1 치은 영역 전체 중 상기 제1 치관 영역의 비율 연산 모델에서 제1 치관 영역은 대상 치아의 가시적인 부분의 면적일 수 있고, 제1 치은 영역은 대상 치아와 인접한 잇몸 부분의 면적일 수 있다.The CNN (110) scores the degree of recession of the gum line of the target tooth using a ratio calculation model of the first crown area generated by learning from a normal dog image and the first crown area among the entire first gingival area. Can be printed. The CNN (110) learns with an image containing information about the ratio of the first crown area among the first crown area and the entire first gingival area, and selects the first crown area among the first crown area and the entire first gingival area. It may be that a ratio calculation model of the area has been created. In the ratio calculation model of the first crown area among the first crown area and the entire first gingival area, the first crown area may be the area of the visible part of the target tooth, and the first gingival area may be the area of the gum area adjacent to the target tooth. It may be an area.

하나의 대상 치아의 잇몸 라인의 퇴축 진행은 대상 치아의 치관과 치은의 경계면의 곡률 정도를 도출하여 판단되고, 상기 대상 치아의 잇몸 라인의 퇴축 진행 정도는 상기 대상 치아의 제1 치관 영역과 상기 제1 치은 영역 전체 중 상기 제1 치관 영역의 비율을 도출하여 분류될 수 있다.The progression of recession of the gum line of one target tooth is determined by deriving the degree of curvature of the interface between the crown and the gingiva of the target tooth, and the degree of recession of the gum line of the target tooth is determined by the first crown area of the target tooth and the first crown area of the target tooth. 1 It can be classified by deriving the ratio of the first coronal area to the entire gingival area.

각 치아의 위치별로 다른 치아를 덮는 잇몸 라인의 곡률에 따라 치아의 잇몸 라인의 퇴축이 진행 되고 있음이 판단될 수 있다. 치아의 잇몸 라인이 퇴축이 진행 되고 있음이 판단되면, 대상 치아의 치은 영역이 치은 영역과 치관 영역을 합친 영역 중 차지하는 면적에 따라 잇몸 라인의 퇴축 진행 정도가 판단될 수 있다. 잇몸 라인의 곡률이 잇몸 라인의 퇴축이 진행될 확률에 영향을 미칠 수 있는 정보이고, 대상 치아의 치은 영역이 치은 영역과 치관 영역을 합친 영역 중 차지하는 면적은 잇몸 라인의 퇴축 정도를 판단할 수 있는 정보이다. Depending on the curvature of the gum line covering other teeth for each tooth position, it can be determined that the gum line of the tooth is receding. When it is determined that the gum line of a tooth is in progress, the degree of recession of the gum line may be determined according to the area occupied by the gingival area of the target tooth among the combined gingival area and crown area. The curvature of the gum line is information that can affect the probability of gum line recession, and the area occupied by the gingival area of the target tooth among the combined gingival and crown areas is information that can determine the degree of gum line recession. am.

잇몸 라인의 곡률에 의한 퇴축 정도 판정은 현재 일시적으로 개별 객체에 발생한 문제에 의해 생성된 것일 수 있고, 치은 영역이 치은 영역과 치관 영역을 합친 영역 중 차지하는 면적에 의한 퇴축 정도 판정은 치은 영역에 상해를 입었던 흔적일 수 있다.The determination of the degree of recession based on the curvature of the gum line may have been created by a problem currently temporarily occurring in an individual object, and the determination of the degree of recession based on the area occupied by the gingival area among the combined area of the gingival and coronal areas may be due to damage to the gingival area. It could be a trace of having been worn.

치아의 잇몸 라인의 퇴축 정도에 대한 정보를 스코어링한 스코어(Z3)가 촬영 이미지(10)에 오버레이 된 이미지(240)에서 치아의 잇몸 라인의 퇴축 정도가 극단적일수록 높은 점수가 출력될 수 있다.In the image 240 in which the score Z3, which scores information on the degree of recession of the gum line of the tooth, is overlaid on the captured image 10, a higher score may be output as the degree of recession of the gum line of the tooth is more extreme.

도 7을 참조하여, 구강 정보 분석 모델의 아키텍처를 설명한다. 본 인공 신경망 아키텍처에 따르면, 촬영 이미지(10)를 입력 받은 CNN은 특징 스코어를 출력하고, 특징 스코어 Z1과 Z2가 융합 로직(310)에 입력되고, 융합 로직에서 융합 스코어 (Z(f))가 출력되며, 특징 스코어 Z3과 융합 스코어 Z(f)가 특징 스코어에 기초한 분류를 수행하는 분류기(320)에 입력된다.With reference to Figure 7, the architecture of the oral information analysis model will be described. According to this artificial neural network architecture, the CNN that receives the captured image 10 outputs a feature score, the feature scores Z1 and Z2 are input to the fusion logic 310, and the fusion score (Z(f)) in the fusion logic is It is output, and the feature score Z3 and the fusion score Z(f) are input to the classifier 320 that performs classification based on the feature score.

치주염 또는 염증 발생 의심 치아에 대한 정보가 촬영 이미지에 오버레이 된 이미지(250)가 분류기의 수행 결과로서 출력될 수 있다.An image 250 in which information on teeth suspected of having periodontitis or inflammation is overlaid on the captured image may be output as a result of the classifier.

지금까지 본 개시의 몇몇 실시예에 따른 반려동물 구강 정보 분석 방법에 대하여 자세히 설명하였다. 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해되어야 한다.So far, the companion animal oral information analysis method according to some embodiments of the present disclosure has been described in detail. The embodiments described above should be understood in all respects as illustrative and not restrictive.

도 8은 본 개시의 몇몇 실시예들에 따른 컴퓨팅 시스템의 하드웨어 구성도이다. 도 8의 컴퓨팅 시스템(1000)은 하나 이상의 프로세서(1100), 시스템 버스(1600), 통신 인터페이스(1200), 프로세서(1100)에 의하여 수행되는 컴퓨터 프로그램(1500)을 로드(load)하는 메모리(1400)와, 컴퓨터 프로그램(1500)을 저장하는 스토리지(1300)를 포함할 수 있다. 예를 들어 도 8의 컴퓨팅 시스템은 도 1을 참조하여 설명한 반려동물 구강 정보 분석 보조 시스템일 수 있다.8 is a hardware configuration diagram of a computing system according to some embodiments of the present disclosure. The computing system 1000 of FIG. 8 includes one or more processors 1100, a system bus 1600, a communication interface 1200, and a memory 1400 that loads a computer program 1500 executed by the processor 1100. ) and a storage 1300 that stores the computer program 1500. For example, the computing system of FIG. 8 may be the companion animal oral information analysis assistance system described with reference to FIG. 1 .

프로세서(1100)는 컴퓨팅 시스템(1000)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1100)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. The processor 1100 controls the overall operation of each component of the computing system 1000. The processor 1100 may perform operations on at least one application or program to execute methods/operations according to various embodiments of the present disclosure.

메모리(1400)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1400)는 본 개시의 다양한 실시예들에 따른 방법/동작들을 실행하기 위하여 스토리지(1300)로부터 하나 이상의 컴퓨터 프로그램(1500)을 로드(load) 할 수 있다. 또한, 메모리(1400)는 도 3 내지 도 7를 참조하여 설명한 반려동물 구강 정보 분석 모델의 실행을 위한 런타임(runtime)을 로드할 수 있다.The memory 1400 stores various data, commands and/or information. The memory 1400 may load one or more computer programs 1500 from the storage 1300 to execute methods/operations according to various embodiments of the present disclosure. Additionally, the memory 1400 may load a runtime for executing the companion animal oral information analysis model described with reference to FIGS. 3 to 7 .

반려동물 구강 정보 분석 모델의 정의 데이터는, 제1 치관 영역의 색상 균일도에 대한 정보와 제1 치은 영역의 색상 균일도에 대한 정보를 이용하여 제1 특징 스코어를 출력하는 CNN(Convolutional Neural Network)와 제1 잇몸 라인의 퇴축 정도에 대한 정보를 이용하여 제2 특징 스코어를 출력하는 CNN 및 상기 제1 특징 스코어 및 제2 특징 스코어에 기초한 분류를 수행하는 분류기(Classifier)를 포함하는 인공 신경망 아키텍처를 표현하는 데이터일 수 있다.The definition data of the companion animal oral information analysis model is a CNN (Convolutional Neural Network) that outputs the first feature score using information about the color uniformity of the first coronal region and information about the color uniformity of the first gingival region. 1 Expressing an artificial neural network architecture including a CNN that outputs a second feature score using information about the degree of recession of the gum line and a classifier that performs classification based on the first feature score and the second feature score. It could be data.

버스(1600)는 컴퓨팅 시스템(1000)의 구성 요소 간 통신 기능을 제공한다. 통신 인터페이스(1200)는 컴퓨팅 시스템(1000)의 인터넷 통신을 지원한다. 스토리지(1300)는 하나 이상의 컴퓨터 프로그램(1500)을 비임시적으로 저장할 수 있다. 컴퓨터 프로그램(1500)은 본 개시의 다양한 실시예들에 따른 방법/동작들이 구현된 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 컴퓨터 프로그램(1500)이 메모리(1400)에 로드 되면, 프로세서(1100)는 상기 하나 이상의 인스트럭션들을 실행시킴으로써 본 개시의 다양한 실시예들에 따른 방법/동작들을 수행할 수 있다.The bus 1600 provides communication functions between components of the computing system 1000. The communication interface 1200 supports Internet communication of the computing system 1000. Storage 1300 may non-temporarily store one or more computer programs 1500. The computer program 1500 may include one or more instructions implementing methods/operations according to various embodiments of the present disclosure. When the computer program 1500 is loaded into the memory 1400, the processor 1100 can perform methods/operations according to various embodiments of the present disclosure by executing the one or more instructions.

몇몇 실시예들에서, 도 8을 참조하여 설명된 컴퓨팅 시스템(1000)은 가상 머신 등 클라우드 기술에 기반하여 서버 팜(server farm)에 포함된 하나 이상의 물리 서버(physical server)를 이용하여 구성될 수 있다. 이 경우, 도 8에 도시된 구성 요소 중 프로세서(1100), 메모리(1400) 및 스토리지(1300) 중 적어도 일부는 가상 하드웨어(virtual hardware)일 수 있을 것이며, 통신 인터페이스(1200) 또한 가상 스위치(virtual switch) 등 가상화 된 네트워킹 요소로 구성될 수 있을 것이다.In some embodiments, the computing system 1000 described with reference to FIG. 8 may be configured using one or more physical servers included in a server farm based on cloud technology, such as a virtual machine. there is. In this case, at least some of the processor 1100, memory 1400, and storage 1300 among the components shown in FIG. 8 may be virtual hardware, and the communication interface 1200 may also be a virtual switch. It may be composed of virtualized networking elements such as switches.

컴퓨터 프로그램(1500)은 반려동물의 구강 촬영 이미지를 획득하는 인스트럭션과 상기 획득된 구강 촬영 이미지의 데이터를, 기계 학습으로 기 생성된 구강 정보 분석 모델에 입력하고, 상기 구강 정보 분석 모델에서 출력된 데이터를 이용하여 구강 정보 분석 결과를 생성하는 인스트럭션(instruction)들을 포함하되, 상기 구강 정보 분석 모델은, 제1 치관 영역의 색상 균일도에 대한 정보와, 제1 치은 영역의 색상 균일도에 대한 정보와, 제1 잇몸 라인의 퇴축 정도에 대한 정보를 출력하는 CNN(Convolutional Neural Network)과, 상기 CNN에서 출력된 정보에 기초한 분류를 수행하는 분류기(classifier)를 포함하는 인공 신경망으로 구성된 것이고, 상기 제1 치은 영역은 상기 제1 치관 영역의 인접 영역으로서, 상기 제1 치관 영역이 표현하는 제1 치관에 대응되는 치은을 표현하는 영역이고, 상기 제1 잇몸 라인은 상기 제1 치은 영역과 상기 제1 치관 영역의 경계선일 수 있다.The computer program 1500 inputs instructions for acquiring an oral image of a companion animal and data from the obtained oral image into an oral information analysis model previously created through machine learning, and data output from the oral information analysis model. Includes instructions for generating oral information analysis results using, wherein the oral information analysis model includes information on the color uniformity of the first coronal region, information on the color uniformity of the first gingival region, and a first 1 It is composed of an artificial neural network including a CNN (Convolutional Neural Network) that outputs information about the degree of recession of the gum line and a classifier that performs classification based on the information output from the CNN, and the first gingival area is an adjacent area of the first crown area, and is an area representing the gingiva corresponding to the first crown expressed by the first crown area, and the first gum line is an area between the first gingival area and the first crown area. It could be a borderline.

지금까지 도 1 내지 도 8을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present disclosure and effects according to the embodiments have been mentioned with reference to FIGS. 1 to 8 . The effects according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.

지금까지 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical ideas of the present disclosure described so far can be implemented as computer-readable code on a computer-readable medium. The computer program recorded on the computer-readable recording medium can be transmitted to another computing device through a network such as the Internet and installed on the other computing device, and thus can be used on the other computing device.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although operations are shown in the drawings in a specific order, it should not be understood that the operations must be performed in the specific order shown or sequential order or that all illustrated operations must be performed to obtain the desired results. In certain situations, multitasking and parallel processing may be advantageous. Although embodiments of the present disclosure have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. I can understand that there is. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the technical ideas defined by this disclosure.

Claims (13)

컴퓨팅 장치에 의하여 수행되는 방법에 있어서,
반려동물의 구강 촬영 이미지를 획득하는 단계; 및
상기 획득된 구강 촬영 이미지의 데이터를, 기계 학습으로 기 생성된 구강 정보 분석 모델에 입력하고, 상기 구강 정보 분석 모델에서 출력된 데이터를 이용하여 구강 정보 분석 결과를 생성하는 단계를 포함하되,
상기 구강 정보 분석 모델은,
상기 구강 촬영 이미지로부터 치관 영역을 구성하는 픽셀들의 색상이 일관되고 균일한지를 나타내는 제1 치관 영역의 색상 균일도에 대한 정보와, 치은 영역을 구성하는 픽셀들의 색상이 일관되고 균일한지를 나타내는 제1 치은 영역의 색상 균일도에 대한 정보와, 제1 잇몸 라인의 퇴축 정도에 대한 정보를 출력하는 CNN(Convolutional Neural Network)과, 상기 CNN에서 출력된 정보에 기초한 분류를 수행하는 분류기(classifier)를 포함하는 인공 신경망으로 구성된 것이고,
상기 제1 치은 영역은 상기 제1 치관 영역의 인접 영역으로서, 상기 제1 치관 영역이 표현하는 제1 치관에 대응되는 치은을 표현하는 영역이고,
상기 제1 잇몸 라인은 상기 제1 치은 영역과 상기 제1 치관 영역의 경계선인,
반려동물 구강 정보 분석 방법.
In a method performed by a computing device,
Obtaining an oral image of a companion animal; and
Inputting the data of the acquired oral photographed image into an oral information analysis model previously created through machine learning, and generating an oral information analysis result using the data output from the oral information analysis model,
The oral information analysis model is,
From the intraoral image, information on the color uniformity of the first crown area indicating whether the color of the pixels constituting the crown area is consistent and uniform, and the first gingival area indicating whether the color of the pixels constituting the gingival area are consistent and uniform. An artificial neural network that includes a CNN (Convolutional Neural Network) that outputs information about the color uniformity of the area and information about the degree of recession of the first gum line, and a classifier that performs classification based on the information output from the CNN. It is composed of a neural network,
The first gingival area is an area adjacent to the first crown area and is an area representing the gingiva corresponding to the first crown expressed by the first crown area,
The first gum line is a boundary line between the first gingival area and the first coronal area,
How to analyze pet oral information.
제1 항에 있어서,
상기 분류기는,
상기 제1 치관 영역의 색상 균일도에 대한 정보와, 상기 제1 치은 영역의 색상 균일도에 대한 정보를 특징 융합(feature fusion)한 결과를 이용한 분류를 수행하는 것인,
반려동물 구강 정보 분석 방법.
According to claim 1,
The classifier is,
To perform classification using the result of feature fusion of information about the color uniformity of the first coronal region and information about the color uniformity of the first gingival region,
How to analyze pet oral information.
제2 항에 있어서,
제1 치관 영역의 색상 균일도에 대한 정보와, 제1 치은 영역의 색상 균일도에 대한 정보를 특징 융합(feature fusion)한 결과는,
상기 제1 치관 영역의 색상 균일도와 상기 제1 치은 영역의 색상 균일도가 기준치 이내의 차이를 가지는 경우, 융합된 특징에 대하여 사전 정의된 변형을 가한 결과인,
반려동물 구강 정보 분석 방법.
According to clause 2,
The result of feature fusion of information about the color uniformity of the first coronal region and information about the color uniformity of the first gingival region is:
When the color uniformity of the first coronal region and the color uniformity of the first gingival region have a difference within the standard value, it is the result of applying a predefined transformation to the fused feature,
How to analyze pet oral information.
제3 항에 있어서,
상기 제1 치관 영역의 색상 균일도와 상기 제1 치은 영역의 색상 균일도가 기준치 이내의 차이를 가지는 경우, 융합된 특징에 대하여 사전 정의된 변형을 가한 결과는,
기 정의된 방식에 따라 증강(augmenting) 되는 것인,
반려동물 구강 정보 분석 방법.
According to clause 3,
If the color uniformity of the first coronal region and the color uniformity of the first gingival region have a difference within the standard value, the result of applying a predefined transformation to the fused feature is,
Augmenting according to a predefined method,
How to analyze pet oral information.
제4 항에 있어서,
상기 기 정의된 방식에 따라 증강 되는 것은,
치관 영역의 색상 균일도와 치은 영역의 색상 균일도를 이용하여 도출할 수 없는 점수를 가중점수로 부여하는 것인,
반려동물 구강 정보 분석 방법.
According to clause 4,
What is augmented according to the previously defined method is,
A weighted score is given that cannot be derived using the color uniformity of the crown area and the color uniformity of the gingival area,
How to analyze pet oral information.
제4 항에 있어서,
상기 기 정의된 방식에 따라 증강 되는 것은,
상기 제1 치관 영역의 색상 균일도와 상기 제1 치은 영역의 색상 균일도 각각을 제곱하는 것인,
반려동물 구강 정보 분석 방법.
According to clause 4,
What is augmented according to the previously defined method is,
The color uniformity of the first coronal region and the color uniformity of the first gingival region are squared, respectively.
How to analyze pet oral information.
제1 항에 있어서,
상기 제1 잇몸 라인의 퇴축 정도에 대한 정보는,
상기 제1 잇몸 라인의 곡률에 대한 정보를 포함하는,
반려동물 구강 정보 분석 방법.
According to claim 1,
Information on the degree of recession of the first gum line,
Containing information about the curvature of the first gum line,
How to analyze pet oral information.
제1 항에 있어서,
상기 제1 잇몸 라인의 퇴축 정도에 대한 정보는,
상기 제1 치관 영역과 상기 제1 치은 영역 전체 중 상기 제1 치관 영역의 비율에 대한 정보를 포함하는,
반려동물 구강 정보 분석 방법.
According to claim 1,
Information on the degree of recession of the first gum line,
Containing information about the first crown area and the ratio of the first crown area among the entire first gingival area,
How to analyze pet oral information.
제1 항에 있어서,
상기 분류기는,
상기 제1 치은 영역의 색상 균일도에 대한 정보와 상기 제1 잇몸 라인의 퇴축 정도에 대한 정보를 특징 융합(feature fusion)한 결과를 이용한 분류를 수행하는 것인,
반려동물 구강 정보 분석 방법.
According to claim 1,
The classifier is,
To perform classification using the result of feature fusion of information about the color uniformity of the first gingival area and information about the degree of recession of the first gum line,
How to analyze pet oral information.
제9 항에 있어서,
상기 제1 치은 영역의 색상 균일도에 대한 정보와 상기 제1 잇몸 라인의 퇴축 정도에 대한 정보를 특징 융합(feature fusion)한 결과는,
상기 제1 치은 영역의 색상 균일도와 상기 상기 제1 잇몸 라인의 퇴축 정도가 각각 기 정의된 점수 이상이며, 기준치 이내의 차이를 가지는 경우, 융합된 특징에 대하여 사전 정의된 변형을 가한 결과인,
반려동물 구강 정보 분석 방법.
According to clause 9,
The result of feature fusion of information about the color uniformity of the first gingival area and information about the degree of recession of the first gum line is,
When the color uniformity of the first gingival area and the degree of recession of the first gum line are each above a predefined score and have a difference within the standard value, it is the result of applying a predefined transformation to the fused feature,
How to analyze pet oral information.
제1 항에 있어서,
상기 분류기는,
상기 제1 치관 영역의 색상 균일도에 대한 정보와 상기 제1 치은 영역의 색상 균일도에 대한 정보와 상기 제1 잇몸 라인의 퇴축 정도에 대한 정보를 특징 융합(feature fusion)한 결과를 이용한 분류를 수행하는 것인,
반려동물 구강 정보 분석 방법.
According to claim 1,
The classifier is,
Performing classification using the result of feature fusion of information about the color uniformity of the first crown area, information about the color uniformity of the first gingival area, and information about the degree of recession of the first gum line. thing,
How to analyze pet oral information.
제11 항에 있어서,
상기 제1 치관 영역의 색상 균일도에 대한 정보와 상기 제1 치은 영역의 색상 균일도에 대한 정보와 상기 제1 잇몸 라인의 퇴축 정도에 대한 정보를 특징 융합(feature fusion)한 결과는,
상기 제1 치관 영역의 색상 균일도에 대한 정보와 상기 제1 치은 영역의 색상 균일도와 상기 상기 제1 잇몸 라인의 퇴축 정도가 각각 기 정의된 점수 이상이며, 기준치 이내의 차이를 가지는 경우, 융합된 특징에 대하여 사전 정의된 변형을 가한 결과인,
반려동물 구강 정보 분석 방법.
According to claim 11,
The result of feature fusion of the information about the color uniformity of the first crown area, the information about the color uniformity of the first gingival area, and the information about the degree of recession of the first gum line is,
When the information on the color uniformity of the first crown area, the color uniformity of the first gingival area, and the degree of recession of the first gum line are each more than a predefined score and have a difference within the standard value, the fused features The result of applying a predefined transformation to
How to analyze pet oral information.
반려동물 구강 정보 분석 프로그램이 로드되는 메모리; 및
상기 반려동물 구강 정보 분석 프로그램이 실행되는 프로세서를 포함하되,
상기 반려동물 구강 정보 분석 프로그램은,
반려동물의 구강 촬영 이미지를 획득하는 인스트럭션; 및
상기 획득된 구강 촬영 이미지의 데이터를, 기계 학습으로 기 생성된 구강 정보 분석 모델에 입력하고, 상기 구강 정보 분석 모델에서 출력된 데이터를 이용하여 구강 정보 분석 결과를 생성하는 인스트럭션을 포함하되,
상기 구강 정보 분석 모델은,
상기 구강 촬영 이미지로부터 치관 영역을 구성하는 픽셀들의 색상이 일관되고 균일한지를 나타내는 제1 치관 영역의 색상 균일도에 대한 정보와, 치은 영역을 구성하는 픽셀들의 색상이 일관되고 균일한지를 나타내는 제1 치은 영역의 색상 균일도에 대한 정보와, 제1 잇몸 라인의 퇴축 정도에 대한 정보를 출력하는 CNN(Convolutional Neural Network)과, 상기 CNN에서 출력된 정보에 기초한 분류를 수행하는 분류기(classifier)를 포함하는 인공 신경망으로 구성된 것이고,
상기 제1 치은 영역은 상기 제1 치관 영역의 인접 영역으로서, 상기 제1 치관 영역이 표현하는 제1 치관에 대응되는 치은을 표현하는 영역이고,
상기 제1 잇몸 라인은 상기 제1 치은 영역과 상기 제1 치관 영역의 경계선인,
반려동물 구강 정보 분석 시스템.
A memory into which a companion animal oral information analysis program is loaded; and
Including a processor that executes the companion animal oral information analysis program,
The companion animal oral information analysis program is,
Instructions for acquiring oral images of companion animals; and
Including instructions for inputting the data of the acquired oral imaging image into an oral information analysis model previously created through machine learning and generating an oral information analysis result using the data output from the oral information analysis model,
The oral information analysis model is,
From the intraoral image, information on the color uniformity of the first crown area indicating whether the color of the pixels constituting the crown area is consistent and uniform, and the first gingival area indicating whether the color of the pixels constituting the gingival area are consistent and uniform. An artificial neural network that includes a CNN (Convolutional Neural Network) that outputs information about the color uniformity of the area and information about the degree of recession of the first gum line, and a classifier that performs classification based on the information output from the CNN. It is composed of a neural network,
The first gingival area is an area adjacent to the first crown area and is an area representing the gingiva corresponding to the first crown expressed by the first crown area,
The first gum line is a boundary line between the first gingival area and the first coronal area,
Pet oral information analysis system.
KR1020230083403A 2022-10-24 2023-06-28 Method and apparatus for analysis of oral in pets Active KR102657737B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/523,634 US20250000442A1 (en) 2023-06-28 2023-11-29 Method and apparatus for determining patellar dislocation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220137479 2022-10-24
KR20220137479 2022-10-24

Publications (1)

Publication Number Publication Date
KR102657737B1 true KR102657737B1 (en) 2024-04-16

Family

ID=90882451

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230083403A Active KR102657737B1 (en) 2022-10-24 2023-06-28 Method and apparatus for analysis of oral in pets

Country Status (1)

Country Link
KR (1) KR102657737B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102218752B1 (en) 2018-10-16 2021-02-23 주식회사 큐티티 Periodontal disease management system using deep learning and big data
KR20210107115A (en) 2019-09-26 2021-08-31 비티알 뉴 머티리얼 그룹 코., 엘티디. Silicon composite negative electrode material and manufacturing method thereof and lithium ion battery
KR20210130326A (en) * 2020-04-21 2021-11-01 서울대학교산학협력단 Periodontitis automatic diagnosis method, and program implementing the same method
KR20220068230A (en) * 2019-09-24 2022-05-25 덴츠플라이 시로나 인코포레이티드 Method, system and computer readable storage medium for registering intraoral measurements
KR20220138900A (en) * 2021-04-06 2022-10-14 주식회사 알파도 A method and electronic device for distinguishing pet disease using deep-learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102218752B1 (en) 2018-10-16 2021-02-23 주식회사 큐티티 Periodontal disease management system using deep learning and big data
KR20220068230A (en) * 2019-09-24 2022-05-25 덴츠플라이 시로나 인코포레이티드 Method, system and computer readable storage medium for registering intraoral measurements
KR20210107115A (en) 2019-09-26 2021-08-31 비티알 뉴 머티리얼 그룹 코., 엘티디. Silicon composite negative electrode material and manufacturing method thereof and lithium ion battery
KR20210130326A (en) * 2020-04-21 2021-11-01 서울대학교산학협력단 Periodontitis automatic diagnosis method, and program implementing the same method
KR20220138900A (en) * 2021-04-06 2022-10-14 주식회사 알파도 A method and electronic device for distinguishing pet disease using deep-learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한영선, 신인철, 장원두, "인공신경망을 사용하는 치아 및 치석 인식"공학석사 학위 논문(2022.02)

Similar Documents

Publication Publication Date Title
Zhang et al. Development and evaluation of deep learning for screening dental caries from oral photographs
US11735306B2 (en) Method, system and computer readable storage media for creating three-dimensional dental restorations from two dimensional sketches
US11250580B2 (en) Method, system and computer readable storage media for registering intraoral measurements
US20200364860A1 (en) Artificial Intelligence Architecture For Identification Of Periodontal Features
US10489683B1 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
Hwang et al. Learning beyond human expertise with generative models for dental restorations
CN109376767B (en) Classification of retinal OCT images based on deep learning
JP2019525786A (en) System and method for automatically detecting, locating, and semantic segmentation of anatomical objects
JP7084494B2 (en) Weighted image generator, method and program, discriminator learning device, method and program, region extractor, method and program and discriminator
US20220378548A1 (en) Method for generating a dental image
CN116596861B (en) Dental lesion recognition method, system, equipment and storage medium
CN115953583B (en) Tooth segmentation method and system based on iterative boundary optimization and deep learning
CN113643297B (en) A computer-aided tooth age analysis method based on neural network
CN117152507B (en) Tooth health state detection method, device, equipment and storage medium
CN111340209A (en) Network model training method, image segmentation method and focus positioning method
CN116071373A (en) Automatic U-net model tongue segmentation method based on fusion PCA
KR102657737B1 (en) Method and apparatus for analysis of oral in pets
KR20200058316A (en) Automatic tracking method of cephalometric point of dental head using dental artificial intelligence technology and service system
KR102537769B1 (en) A method and electronic device for distinguishing pet disease using deep-learning
CN113554607A (en) A tooth detection model, generation method and tooth segmentation method
CN117808731A (en) Tooth wear degree prediction method, device, equipment and storage medium
CN116385474A (en) Tooth scanning model segmentation method and device based on deep learning and electronic equipment
Ben-Hamadou et al. Teeth3DS+: an extended benchmark for intraoral 3D scans analysis
US20250000442A1 (en) Method and apparatus for determining patellar dislocation
EP4589600A1 (en) Generating restoration options

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20230628

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20230628

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230922

Patent event code: PE09021S01D

PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240111

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240411

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240411

End annual number: 3

Start annual number: 1

PG1601 Publication of registration