[go: up one dir, main page]

KR102032611B1 - Method and application for determining cardiovascular disease using ct image - Google Patents

Method and application for determining cardiovascular disease using ct image Download PDF

Info

Publication number
KR102032611B1
KR102032611B1 KR1020170106893A KR20170106893A KR102032611B1 KR 102032611 B1 KR102032611 B1 KR 102032611B1 KR 1020170106893 A KR1020170106893 A KR 1020170106893A KR 20170106893 A KR20170106893 A KR 20170106893A KR 102032611 B1 KR102032611 B1 KR 102032611B1
Authority
KR
South Korea
Prior art keywords
image
model
subject
cardiovascular
heart
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020170106893A
Other languages
Korean (ko)
Other versions
KR20190021749A (en
Inventor
이근영
최태근
Original Assignee
주식회사 메디웨일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디웨일 filed Critical 주식회사 메디웨일
Priority to KR1020170106893A priority Critical patent/KR102032611B1/en
Priority to PCT/KR2018/009742 priority patent/WO2019039887A1/en
Publication of KR20190021749A publication Critical patent/KR20190021749A/en
Application granted granted Critical
Publication of KR102032611B1 publication Critical patent/KR102032611B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0883Clinical applications for diagnosis of the heart

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Cardiology (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

컴퓨터가 의료영상을 분석하는 방법에 있어서, 대상체의 심장을 촬영한 CT 영상을 획득하는 단계 및 상기 획득된 CT 영상을 학습된 제1 모델에 입력하여 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계를 포함하는, 방법이 개시된다.A method of analyzing a medical image by a computer, the method comprising: acquiring a CT image of a heart of an object and inputting the acquired CT image to a trained first model to obtain information about the inside of a coronary artery of the object A method is disclosed, comprising a step.

Description

CT 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션 {METHOD AND APPLICATION FOR DETERMINING CARDIOVASCULAR DISEASE USING CT IMAGE}Methods and applications for determining cardiovascular lesions using CT images {METHOD AND APPLICATION FOR DETERMINING CARDIOVASCULAR DISEASE USING CT IMAGE}

본 발명은 CT 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션에 관한 것이다. The present invention relates to methods and applications for determining cardiovascular lesions using CT images.

심혈관 병변을 판단하기 위한 방법으로서, 심전도 검사, 운동부하검사, CT 촬영, 혈관 조영술, 혈관 내 초음파 촬영 및 근적외선 분광법 등 다양한 방법이 사용된다. As a method for determining cardiovascular lesions, various methods such as electrocardiogram, exercise load test, CT scan, angiography, intravascular ultrasonography, and near infrared spectroscopy are used.

CT 촬영은 CT 스캐너를 이용한 컴퓨터단층촬영법으로, 엑스선이나 초음파를 여러 각도에서 인체에 투영하고 이를 컴퓨터로 재구성하여 인체 내부 단면의 모습을 화상으로 처리하는데, 종양 등의 진단법으로 널리 이용되고 있다.CT imaging is a computed tomography (CT) scan using a CT scanner. X-rays or ultrasounds are projected onto the human body from various angles and then reconstructed by a computer to process images of the internal cross-section of the human body as images.

반면 혈관 조영술, 혈관 내 초음파 촬영 등은 침습적인 검사방법으로서 환자가 이용하기 어려운 면이 있다. Angiography and intravascular ultrasonography, on the other hand, are invasive test methods that are difficult for patients to use.

최근에는 딥 러닝을 이용하여 다양한 의료영상을 처리하여 필요한 정보를 획득하는 방법에 대한 개발이 활발하게 진행되고 있다. Recently, development of a method of acquiring necessary information by processing various medical images using deep learning has been actively conducted.

딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. Deep learning is defined as a set of machine learning algorithms that attempts to achieve high levels of abstraction (summarizing key content or functions in large amounts of data or complex data) through a combination of several nonlinear transformations. Deep learning can be seen as a field of machine learning that teaches computers how people think in a large framework.

본 발명이 해결하고자 하는 과제는 CT 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션을 제공하는 것이다.An object of the present invention is to provide a method and application for determining a cardiovascular lesion using a CT image.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 컴퓨터가 의료영상을 분석하는 방법은, 대상체의 심장을 촬영한 CT 영상을 획득하는 단계 및 상기 획득된 CT 영상을 학습된 제1 모델에 입력하여 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계를 포함한다. According to an aspect of the present invention, a method for analyzing a medical image by a computer includes: obtaining a CT image of a heart of an object and inputting the acquired CT image to a trained first model Acquiring information about the inside of the coronary artery of the subject.

또한, 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 대상체의 관상동맥 내부의 침착물(plaque)에 대한 정보를 획득하는 단계를 포함할 수 있다.In addition, acquiring information about the inside of the coronary artery of the subject may include acquiring information about a plaque inside the coronary artery of the subject.

또한, 상기 학습된 제1 모델은, 대상체의 심장을 촬영한 CT 영상, 대상체의 관상동맥 혈관 내 초음파 영상(IntraVascular UltraSound, IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(Near InfraRed Spectrocopy, NIRS) 결과를 이용하여 학습된 모델인 것을 특징으로 할 수 있다.In addition, the learned first model, CT images of the heart of the subject, IntraVascular UltraSound (IVUS) of the subject and Near InfraRed Spectrocopy (NIRS) results in the coronary vessels of the subject It may be characterized as a model trained using.

또한, 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 대상체의 관상동맥 내부 형태에 대한 정보를 획득하는 단계를 포함할 수 있다.In addition, acquiring information about the coronary artery of the subject may include acquiring information about the internal coronary artery of the subject.

또한, 상기 학습된 제1 모델은, 대상체의 심장을 촬영한 CT 영상 및 대상체의 관상동맥 혈관 내 초음파 영상(IVUS)을 이용하여 학습된 모델인 것을 특징으로 할 수 있다.In addition, the trained first model may be a model trained using a CT image of the heart of the subject and a coronary vascular ultrasound image (IVUS) of the subject.

또한, 상기 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 획득된 관상동맥 내부 형태에 대한 정보를 학습된 제2 모델에 입력하여 상기 관상동맥 내부의 침착물에 대한 정보를 획득하는 단계를 더 포함할 수 있다.In addition, acquiring information about the inside of the coronary arteries may further include obtaining information on the deposits inside the coronary artery by inputting the acquired information on the coronary internal form into a trained second model. It may include.

또한, 상기 학습된 제2 모델은, 대상체의 관상동맥 혈관 내 초음파 영상(IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(NIRS) 결과를 이용하여 학습된 모델인 것을 특징으로 할 수 있다.In addition, the trained second model may be a model trained using a coronary vascular ultrasound image of the subject (IVUS) and a near infrared spectroscopy (NIRS) result of the coronary vessel of the subject.

또한, 상기 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 대상체의 관상동맥에서 협심증을 일으키는 구간을 판단하는 단계를 더 포함할 수 있다.The acquiring of information on the inside of the coronary artery may further include determining a section causing angina in the coronary artery of the subject.

또한, 상기 학습된 제1 모델은, 대상체의 심장을 촬영한 CT 영상 및 대상체의 관상동맥 혈관 내의 심근분획혈류예비력(Fractional Flow Reserve, FFR) 검사결과를 이용하여 학습된 모델인 것을 특징으로 할 수 있다.In addition, the trained first model may be a model trained using a CT image of a heart of a subject and a myocardial fraction reserve (FFR) test result in a coronary vessel of the subject. have.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 방법을 수행할 수 있도록 컴퓨터에서 읽을 수 있는 기록매체에 저장된 애플리케이션이 제공된다.An application stored in a computer-readable recording medium is provided to perform the method according to an aspect of the present invention for solving the above problems.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

개시된 실시 예에 따르면, 비침습적 검사방법인 CT 촬영을 통하여 침습적 검사방식을 대체할 수 있는 효과가 있다. According to the disclosed embodiment, there is an effect of replacing the invasive inspection method through CT imaging, which is a non-invasive inspection method.

또한, 심혈관의 형태적 의의뿐 아니라 증상적 의의를 갖는 정보 또한 개시된 실시 예에 따라 획득할 수 있어, 환자의 병변을 보다 정확히 판단하고, 치료방법을 구체적으로 판단할 수 있는 효과가 있다. In addition, as well as the morphological significance of the cardiovascular information as well as symptomatic significance can be obtained according to the disclosed embodiment, there is an effect that can more accurately determine the lesions of the patient, and specifically determine the treatment method.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 시스템을 도시한 개념도이다.
도 2는 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 간략하게 도시한 흐름도이다.
도 3은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 도시한 흐름도이다.
도 4는 대상체의 심장 CT 영상, 관상동맥 IVUS 영상 및 관상동맥 TVC 영상의 예시를 도시한 도면이다.
도 5는 일 실시 예에 따른 대상체의 심장병변 판단방법을 도시한 흐름도이다.
도 6은 심장 CT 영상으로부터 관상동맥 TVC 영상을 획득하는 일 예를 도시한 도면이다.
도 7은 관상동맥의 IVUS 영상으로부터 TVC 영상을 획득할 수 있는 모델을 학습시키기 위한 방법의 일 예를 도시한 도면이다.
도 8은 혈관 내 초음파 영상을 분할하는 방법의 일 예를 도시한 도면이다.
도 9는 일 실시 예에 따라 심장 CT 영상으로부터 협심증을 일으키는 관상동맥 구간을 획득하는 방법을 도시한 흐름도이다.
도 10은 일 실시 예에 따른 대상체의 심장질환 판단방법을 도시한 흐름도이다.
1 is a conceptual diagram illustrating a system for determining a cardiovascular state of a subject using a CT image, according to an exemplary embodiment.
2 is a flowchart schematically illustrating a method of determining a cardiovascular state of a subject using a CT image, according to an exemplary embodiment.
3 is a flowchart illustrating a method of determining a cardiovascular state of a subject using a CT image according to an exemplary embodiment.
4 is a diagram illustrating examples of cardiac CT images, coronary IVUS images, and coronary TVC images of a subject.
5 is a flowchart illustrating a method of determining a heart lesion of a subject, according to an exemplary embodiment.
6 is a diagram illustrating an example of obtaining a coronary TVC image from a heart CT image.
7 is a diagram illustrating an example of a method for training a model capable of acquiring TVC images from IVUS images of coronary arteries.
8 is a diagram illustrating an example of a method of segmenting an intravascular ultrasound image.
9 is a flowchart illustrating a method of acquiring a coronary artery section causing angina from a heart CT image according to an embodiment.
10 is a flowchart illustrating a method of determining a heart disease of a subject according to an exemplary embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term "part" or "module" refers to a hardware component such as software, FPGA, or ASIC, and the "part" or "module" plays certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, a "part" or "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and "parts" or "modules" may be combined into smaller numbers of components and "parts" or "modules" or into additional components and "parts" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms " below ", " beneath ", " lower ", " above ", " upper " It can be used to easily describe a component's correlation with other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, when flipping a component shown in the drawing, a component described as "below" or "beneath" of another component may be placed "above" the other component. Can be. Thus, the exemplary term "below" can encompass both an orientation of above and below. Components may be oriented in other directions as well, so spatially relative terms may be interpreted according to orientation.

본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다. As used herein, "image" may mean multi-dimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image). For example, the image may include a medical image of the object obtained by the CT imaging apparatus.

본 명세서에서 "CT(Computed Tomography) 영상"이란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다. In the present specification, a “CT (Computed Tomography) image” may mean a composite image of a plurality of X-ray images obtained by photographing an object while rotating about at least one axis of the object.

본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. 또한, "대상체"는 팬텀(phantom)일수도 있다. 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미하는 것으로, 신체와 유사한 성질을 갖는 구형(sphere)의 팬텀을 포함할 수 있다.As used herein, an "object" may be a person or an animal, or part or all of a person or an animal. For example, the subject may include at least one of organs such as the liver, heart, uterus, brain, breast, abdomen, and blood vessels. In addition, the "object" may be a phantom. Phantom means a material having a volume very close to the density and effective atomic number of an organism, and may include a sphere phantom having properties similar to the body.

본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.As used herein, a "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging professional, or the like, and may be a technician who repairs a medical device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 시스템을 도시한 개념도이다.1 is a conceptual diagram illustrating a system for determining a cardiovascular state of a subject using a CT image, according to an exemplary embodiment.

도 1에 도시된 시스템은 CT 시스템(100) 및 컴퓨터(200)를 포함한다.The system shown in FIG. 1 includes a CT system 100 and a computer 200.

CT 시스템(100)은 대상체(10)에 대하여 단면 영상을 제공할 수 있으므로, 일반적인 X-ray 촬영 기기에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)가 겹치지 않게 표현할 수 있다는 장점이 있다. Since the CT system 100 may provide a cross-sectional image of the object 10, an internal structure of the object (for example, an organ such as a kidney or a lung, etc.) does not overlap with a general X-ray imaging device. There is this.

CT 시스템(100)은, 예를 들어, 2mm 두께 이하의 영상데이터를 초당 수십, 수백 회 획득하여 가공함으로써 대상체에 대하여 비교적 정확한 단면 영상을 제공할 수 있다. 종래에는 대상체의 가로 단면만으로 표현된다는 문제점이 있었지만, 다음과 같은 여러 가지 영상 재구성 기법의 등장에 의하여 극복되었다. 3차원 재구성 영상기법들로는 다음과 같은 기법들이 있다.The CT system 100 may provide, for example, a relatively accurate cross-sectional image of an object by acquiring and processing image data having a thickness of 2 mm or less tens or hundreds per second. Conventionally, there has been a problem that only the horizontal cross section of the object is expressed, but it is overcome by the appearance of various image reconstruction techniques as follows. Three-dimensional reconstruction imaging techniques include the following techniques.

- SSD(Shade surface display): 초기 3차원 영상기법으로 일정 HU값을 가지는 복셀들만 나타내도록 하는 기법. SSD (Shade surface display): A technique for displaying only voxels having a certain HU value as an initial three-dimensional imaging technique.

- MIP(maximum intensity projection)/MinIP(minimum intensity projection): 영상을 구성하는 복셀 중에서 가장 높은 또는 낮은 HU값을 가지는 것들만 나타내는 3D 기법.Maximum intensity projection (MIP) / minimum intensity projection (MinIP): A 3D technique showing only those having the highest or lowest HU value among the voxels constituting the image.

- VR(volume rendering): 영상을 구성하는 복셀들을 관심영역별로 색 및 투과도를 조절할 수 있는 기법.VR (volume rendering): A technique that can adjust the color and transmittance of the voxels constituting the image for each region of interest.

- 가상내시경(Virtual endoscopy): VR 또는 SSD 기법으로 재구성한 3차원 영상에서 내시경적 관찰이 가능한 기법.Virtual endoscopy: A technique that allows endoscopic observation in three-dimensional images reconstructed by the VR or SSD technique.

- MPR(multi planar reformation): 다른 단면 영상으로 재구성하는 영상 기법. 사용자가 원하는 방향으로의 자유자제의 재구성이 가능하다.MPR (multi planar reformation): An image technique for reconstructing different cross-sectional images. It is possible to reconstruct freedom in the direction desired by the user.

- Editing: VR에서 관심부위를 보다 쉽게 관찰하도록 주변 복셀들을 정리하는 여러 가지 기법.Editing: Various techniques for arranging surrounding voxels to make it easier to observe the point of interest in VR.

- VOI(voxel of interest): 선택 영역만을 VR로 표현하는 기법.VOI (voxel of interest): A technique for representing only a selected area in VR.

본 발명의 실시예에 따른 CT 시스템(100)은 다양한 형태의 장치들을 포함할 수 있으며, 도 1에 도시된 CT 시스템(100)의 구조는 일례로서 설명된다.The CT system 100 according to an embodiment of the present invention may include various types of devices, and the structure of the CT system 100 shown in FIG. 1 is described as an example.

도 1을 참조하면, CT 시스템(100)은 갠트리(102), 테이블(105), X-ray 생성부(106) 및 X-ray 검출부(108)를 포함할 수 있다.Referring to FIG. 1, the CT system 100 may include a gantry 102, a table 105, an X-ray generator 106, and an X-ray detector 108.

갠트리(102)는 X-ray 생성부(106) 및 X-ray 검출부(108)를 포함할 수 있다.The gantry 102 may include an X-ray generator 106 and an X-ray detector 108.

대상체(10)는 테이블(105) 상에 위치될 수 있다. The object 10 may be located on the table 105.

테이블(105)은 CT 촬영 과정에서 소정의 방향(예컨대, 상, 하, 좌, 우 중 적어도 한 방향)으로 이동할 수 있다. 또한, 테이블(105)은 소정의 방향으로 소정의 각도만큼 기울어질 수 있거나(tilting) 또는 회전(rotating)될 수 있다.The table 105 may move in a predetermined direction (eg, at least one of up, down, left, and right) during the CT imaging process. In addition, the table 105 may be tilted or rotated by a predetermined angle in a predetermined direction.

또한, 갠트리(102)도 소정의 방향으로 소정의 각도만큼 기울어질 수 있다.In addition, the gantry 102 may also be inclined by a predetermined angle in a predetermined direction.

일 실시 예에서, CT 시스템(100)은 촬영된 CT 영상을 획득 및 분석할 수 있는 워크스테이션(110)을 포함한다. In one embodiment, the CT system 100 includes a workstation 110 capable of acquiring and analyzing a photographed CT image.

워크스테이션(110)은 획득된 CT 영상을 컴퓨터(200)에 전달하고, 컴퓨터(200)는 개시된 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단한다. The workstation 110 transmits the acquired CT image to the computer 200, and the computer 200 determines a cardiovascular state of the object using the CT image according to the disclosed embodiment.

도 2는 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 간략하게 도시한 흐름도이다. 2 is a flowchart schematically illustrating a method of determining a cardiovascular state of a subject using a CT image, according to an exemplary embodiment.

도 2에 도시된 방법은 도 1에 도시된 컴퓨터(200)에서 시계열적으로 처리되는 단계들을 포함하여 구성된다.The method shown in FIG. 2 comprises steps that are processed in time series in the computer 200 shown in FIG.

단계 S210에서, 제1 모델이 학습된다. 제1 모델의 학습은 컴퓨터(200)에 의하여 수행될 수도 있고, 적어도 하나의 다른 컴퓨터에 의하여 수행될 수도 있다.In step S210, the first model is learned. Training of the first model may be performed by the computer 200 or may be performed by at least one other computer.

학습된 제1 모델은 컴퓨터(200)에 저장될 수도 있고, 서버에 저장되어 컴퓨터(200)에 의하여 이용될 수도 있다.The trained first model may be stored in the computer 200 or may be stored in a server and used by the computer 200.

일 실시 예에서, 제1 모델은 기계학습(machine learning)에 의거하여 학습된다. 일 실시 예에서, 제1 모델은 딥 러닝(deep learning)에 의거하여 학습된다. In one embodiment, the first model is trained based on machine learning. In one embodiment, the first model is trained based on deep learning.

딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. Deep learning is defined as a set of machine learning algorithms that attempts to achieve high levels of abstraction (summarizing key content or functions in large amounts of data or complex data) through a combination of several nonlinear transformations. Deep learning can be seen as a field of machine learning that teaches computers how people think in a large framework.

어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. When there is any data, it is represented in a form that can be understood by a computer (for example, in the case of an image, the pixel information is represented by a column vector), and a lot of research (how to do it better) is applied to learning. How to make representational techniques and how to build models for learning them. As a result of these efforts, various deep learning techniques have been developed. Deep learning techniques include Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Reccurent Neural Networks (RNN), and Deep Belief Networks (DBN). have.

심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.Deep Neural Networks (DNNs) are artificial neural networks (ANNs) made up of a plurality of hidden layers between an input layer and an output layer.

상술한 알고리즘 또는 학습방법은 예시로서 서술된 것이며, 개시된 실시 예에 따른 제1 모델은 어떠한 학습방법에 의하여서도 학습될 수 있다. 예를 들어, 개시된 실시 예에 따른 제1 모델은 입력 데이터와 출력 데이터가 학습 데이터로서 제공되는 지도 학습(supervised learning), 별도의 라벨링된 데이터가 제공되지 않는 비지도 학습(unsupervised learning), 학습 결과에 대한 피드백이 제공되는 강화학습(reinforcement learning) 등에 의하여 학습될 수 있으나, 이에 제한되지 않는다.The above-described algorithm or learning method is described as an example, and the first model according to the disclosed embodiment may be learned by any learning method. For example, the first model according to the disclosed embodiment includes supervised learning in which input data and output data are provided as learning data, unsupervised learning in which no separate labeled data is provided, and learning results. Feedback may be learned by reinforcement learning, but is not limited thereto.

일 실시 예에서, 제1 모델은 대상체의 심장을 촬영한 CT 영상, 대상체의 관상동맥 혈관 내 초음파 영상(IntraVascular UltraSound, IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(Near InfraRed Spectrocopy, NIRS) 결과 중 적어도 하나를 이용하여 학습된다.In one embodiment, the first model is a CT image of the heart of the subject, IntraVascular UltraSound (IVUS) of the subject and Near InfraRed Spectrocopy (NIRS) results in the coronary vessels of the subject It is learned using at least one.

제1 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 IVUS 영상 및 NIRS 결과 중 적어도 하나를 출력 데이터로 하여 학습된다.The first model is trained using at least a portion of the CT image of the heart of the object as input data and at least one of an IVUS image and a NIRS result of the object as output data.

일 실시 예에서, 제1 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 TVC 영상을 출력 데이터로 하여 학습된다. In an embodiment, the first model is trained using at least a portion of a CT image of the heart of the object as input data and a TVC image of the object as output data.

개시된 실시 예에서, TVC 영상은 인프라레딕스(Infraredx)의 TVC 영상 시스템에 의하여 획득되는 것으로, 혈관 내부에 대한 초음파 영상과 근적외선 분광학을 통해 병변의 크기 및 화학적 성분의 정보를 제공한다.In the disclosed embodiment, the TVC image is acquired by Infraredx's TVC imaging system, and provides information about the size and chemical composition of the lesion through ultrasound imaging and near infrared spectroscopy of blood vessels.

개시된 실시 예에서, TVC 영상은 혈관 내부에 대한 초음파 영상과 근적외선 분광학을 통하여 획득되는 영상을 지칭하는 용어로서 활용되며, 반드시 인프라레딕스의 TVC 영상 시스템에 의하여 획득된 영상으로만 제한되는 것은 아니다.In the disclosed embodiment, the TVC image is used as a term for an image obtained through ultrasound imaging and near infrared spectroscopy of a blood vessel, and is not necessarily limited to an image acquired by an Infraredix TVC imaging system.

단계 S220에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 획득한다.In operation S220, the computer 200 acquires a heart CT image of the object.

일 실시 예에서, 컴퓨터(200)는 대상체의 심장 CT 영상 중 적어도 일부를 획득한다.In one embodiment, the computer 200 acquires at least some of the heart CT images of the subject.

일 실시 예에서, 컴퓨터(200)는 대상체의 심장 CT 영상 중 관상동맥을 촬영한 일부를 획득한다.In one embodiment, the computer 200 acquires a part of the coronary artery from the heart CT image of the subject.

단계 S230에서, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상을 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부에 대한 정보를 획득한다.In operation S230, the computer 200 obtains information about the inside of the coronary artery of the object by inputting the CT image acquired in operation S220 to the first model learned in operation S210.

일 실시 예에서, 대상체의 관상동맥 내부에 대한 정보는, 대상체의 관상동맥 내부의 침착물(plaque)에 대한 정보를 포함한다. In one embodiment, the information about the interior of the coronary artery of the subject includes information about the plaque inside the coronary artery of the subject.

일 실시 예에서, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상을 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부의 침착물에 대한 정보를 획득한다.In one embodiment, the computer 200 obtains information about deposits inside the coronary artery of the subject by inputting the CT image acquired in step S220 to the first model learned in step S210.

예를 들어, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상의 적어도 일부(예를 들어, 관상동맥을 촬영한 부분)를 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부에 대한 NIRS 결과를 획득한다. For example, the computer 200 inputs at least a portion of the CT image acquired in step S220 (eg, a portion of the coronary artery) to the first model trained in step S210 to provide an image of the inside of the coronary artery of the subject. Obtain NIRS results.

예를 들어, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상의 적어도 일부(예를 들어, 관상동맥을 촬영한 부분)를 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부에 대한 TVC 영상을 획득한다. For example, the computer 200 inputs at least a portion of the CT image acquired in step S220 (eg, a portion of the coronary artery) to the first model trained in step S210 to provide an image of the inside of the coronary artery of the subject. Acquire TVC images.

일 실시 예에서, 대상체의 관상동맥 내부에 대한 정보는, 대상체의 관상동맥 내부의 형태에 대한 정보를 포함한다. In one embodiment, the information about the internal coronary artery of the subject includes information about the shape of the internal coronary artery of the subject.

일 실시 예에서, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상을 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부의 형태에 대한 정보를 획득한다.In one embodiment, the computer 200 obtains information about the shape of the inside of the coronary artery of the subject by inputting the CT image acquired in step S220 to the first model learned in step S210.

예를 들어, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상의 적어도 일부(예를 들어, 관상동맥을 촬영한 부분)를 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부 초음파 영상(IVUS 영상)을 획득한다. For example, the computer 200 inputs at least a portion (eg, a portion of the coronary artery) of the CT image acquired in step S220 into the first model learned in step S210 to coronary internal ultrasound image of the object. Acquire (IVUS image).

도 3은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 도시한 흐름도이다. 3 is a flowchart illustrating a method of determining a cardiovascular state of a subject using a CT image according to an exemplary embodiment.

도 3에 도시된 방법은 도 1에 도시된 컴퓨터(200)에서 시계열적으로 처리되는 단계들을 포함하여 구성된다.The method shown in FIG. 3 comprises steps that are processed in time series in the computer 200 shown in FIG.

또한, 도 3에 도시된 방법은 도 2에 도시된 방법의 일 실시 예로서, 도 3과 관련하여 생략된 내용이라 할지라도 도 2와 관련하여 설명된 내용은 도 3에도 적용된다. In addition, the method illustrated in FIG. 3 is an embodiment of the method illustrated in FIG. 2, and although the description omitted with reference to FIG. 3 applies to the description described with reference to FIG. 2.

단계 S210에서, 제1 모델 및 제2 모델이 학습된다. In step S210, the first model and the second model are learned.

제1 모델은 도 2와 관련하여 설명된 제1 모델에 대응한다. The first model corresponds to the first model described with respect to FIG. 2.

일 실시 예에서, 제1 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 IVUS 영상을 출력 데이터로 하여 학습된다.In one embodiment, the first model is trained using at least a portion of a CT image of the heart of the object as input data and an IVUS image of the object as output data.

예를 들어, 제1 모델은 대상체의 심장을 촬영한 CT 영상에서 관상동맥을 촬영한 부분을 입력 데이터로 하고, 촬영된 관상동맥의 IVUS 영상을 출력 데이터로 하여 학습된다.For example, the first model is trained using a portion of the CT image of the heart of the subject as the input data and an IVUS image of the coronary artery as the output data.

일 실시 예에서, 제2 모델은 대상체의 관상동맥 혈관 내 초음파 영상 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(NIRS) 결과를 이용하여 학습된다. In one embodiment, the second model is trained using ultrasound images in the coronary vessels of the subject and near infrared spectroscopy (NIRS) results in the coronary vessels of the subject.

예를 들어, 제2 모델은 대상체의 관상동맥 혈관 내 초음파 영상을 입력 데이터로 하고, 대상체의 관상동맥 혈관 내의 근적외선 분광법 결과를 출력 데이터로 하여 학습된다. For example, the second model is trained using the ultrasound image in the coronary vessel of the subject as input data and the NIR result in the coronary vessel of the subject as the output data.

예를 들어, 제2 모델은 대상체의 관상동맥 혈관 내 초음파 영상을 입력 데이터로 하고, 및 대상체의 관상동맥 혈관 내의 TVC 영상을 출력 데이터로 이용하여 학습된다. For example, the second model is trained by using an ultrasound image in the coronary vessel of the subject as input data and a TVC image in the coronary vessel of the subject as output data.

단계 S320에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 획득한다.In operation S320, the computer 200 acquires a heart CT image of the object.

단계 S330에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 단계 S310에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부 형태에 대한 정보를 획득한다.In operation S330, the computer 200 obtains information about the internal coronary artery shape of the object by inputting the heart CT image of the object to the first model learned in operation S310.

일 실시 예에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 단계 S310에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 혈관 내 초음파 영상을 획득한다.In one embodiment, the computer 200 obtains a coronary blood vessel ultrasound image of the subject by inputting the heart CT image of the subject to the first model learned in operation S310.

단계 S340에서, 컴퓨터(200)는 단계 S330에서 획득된 대상체의 관상동맥 혈관 내 초음파 영상을 단계 S310에서 학습된 제2 모델에 입력하여 대상체의 관상동맥 혈관 내부의 침착물에 대한 정보를 획득한다.In operation S340, the computer 200 obtains information about deposits in the coronary vessels of the subject by inputting the coronary vessel intravascular ultrasound image of the subject acquired in operation S330 to the second model learned in operation S310.

일 실시 예에서, 컴퓨터(200)는 단계 S330에서 획득된 대상체의 관상동맥 혈관 내 초음파 영상을 단계 S310에서 학습된 제2 모델에 입력하여 대상체의 관상동맥 혈관 내부의 NIRS 결과에 대한 정보를 획득한다.In one embodiment, the computer 200 obtains information about the NIRS result inside the coronary vessel of the subject by inputting the coronary vessel intravascular ultrasound image of the subject acquired in operation S330 to the second model learned in operation S310. .

일 실시 예에서, 컴퓨터(200)는 단계 S330에서 획득된 대상체의 관상동맥 혈관 내 초음파 영상을 단계 S310에서 학습된 제2 모델에 입력하여 대상체의 관상동맥 혈관 내부의 TVC 영상을 획득한다.In one embodiment, the computer 200 obtains a TVC image inside the coronary vessel of the subject by inputting the coronary vessel intravascular ultrasound image of the subject acquired in operation S330 to the second model learned in operation S310.

도 4를 참조하면, 대상체의 심장 CT 영상(400), 관상동맥 IVUS 영상(410) 및 관상동맥 TVC 영상(420)의 예시가 도시되어 있다. Referring to FIG. 4, an example of a heart CT image 400, a coronary IVUS image 410, and a coronary TVC image 420 of a subject is shown.

컴퓨터(200)는 도 2 및 도 3과 관련하여 설명된 방법을 이용하여, 대상체의 심장 CT 영상(400)에 포함된 일부(예를 들어, 관상동맥이 촬영된 부분(402))를 학습된 모델에 입력하여, 대상체의 관상동맥 IVUS 영상(410) 또는 대상체의 관상동맥 TVC 영상(420)을 획득한다. The computer 200 learns a portion of the subject's heart CT image 400 (eg, a portion of the coronary artery 402) by using the method described with reference to FIGS. 2 and 3. Input to the model to obtain a coronary IVUS image 410 of the subject or a coronary TVC image 420 of the subject.

컴퓨터(200)는 획득된 대상체의 관상동맥 IVUS 영상(410)을 학습된 모델에 입력하여, 대상체의 관상동맥 TVC 영상(420)을 획득한다.The computer 200 inputs the acquired coronary IVUS image 410 of the object into the trained model to obtain a coronary TVC image 420 of the object.

도 5는 일 실시 예에 따른 대상체의 심장병변 판단방법을 도시한 흐름도이다. 5 is a flowchart illustrating a method of determining a heart lesion of a subject, according to an exemplary embodiment.

일반적으로, 초기단계에서 대상체의 심장병변을 판단하는 방법은 단계 S510에 도시된 심전도 검사(electrocardiography, ECG)이다. 심전도 검사의 종류는 다양하며, 24시간 심전도 검사, 운동부하 심전도 검사 등이 포함된다.In general, the method of determining the heart lesion of the subject in the initial stage is an electrocardiography (ECG) shown in step S510. There are many different types of ECG tests, including 24-hour ECG and exercise-loaded ECG tests.

단계 S520에서, 심장의 외부 형태를 관찰하기 위하여 심장 CT 촬영이 수행된다. 심장 CT 촬영을 통해 병변의 판단이 어려운 경우, 단계 S530에 도시된 혈관조영술을 통하여 심장병변을 관찰하게 된다. In step S520, a heart CT scan is performed to observe the external shape of the heart. If it is difficult to determine the lesion through the heart CT scan, the heart lesion is observed through angiography shown in step S530.

나아가, 단계 S540에서는 혈관 내 초음파(IVUS)영상을 촬영하여 혈관 내부의 형태를 획득한다. 다만 IVUS 영상만으로는 혈관 내부의 형태를 구성하는 각 구성요소의 형질을 판단하기 어려우므로, 단계 S550에서는 근적외선 분광법을 함께 활용하여 TVC 영상을 획득한다.Further, in step S540, the intravascular ultrasound (IVUS) image is taken to acquire the internal shape of the blood vessel. However, since it is difficult to determine the trait of each component constituting the internal form of the blood vessel only with the IVUS image, in step S550, a TVC image is obtained by utilizing near infrared spectroscopy.

도 5에 도시된 각 진단방법이 순차적으로 또는 각 단계별로 모두 수행되어야 하는 것은 아니며, 전문의의 소견에 따라 선택적으로 활용될 수 있다.Each diagnostic method illustrated in FIG. 5 does not have to be performed sequentially or in each step, and may be selectively used according to the opinion of a specialist.

다만 단계 S530 내지 단계 S550은 침습적 검사에 해당하고, 상대적으로 고가의 검사방법이므로 쉽게 이용하기 어렵다. However, steps S530 to S550 correspond to invasive inspections, and are difficult to use because they are relatively expensive inspection methods.

도 2 내지 도 4와 관련하여 설명된 방법에 따르면, 단계 S520에서 획득된 대상체의 심장 CT 영상을 이용하여 관상동맥의 IVUS 영상 또는 TVC 영상을 획득할 수 있다. According to the method described with reference to FIGS. 2 to 4, an IVUS image or a TVC image of the coronary artery may be acquired using the heart CT image of the object acquired in step S520.

단계 S522에 따르면, 컴퓨터(200)는 학습된 모델을 이용하여 대상체의 심장 CT 영상으로부터 대상체의 관상동맥 TVC 영상을 획득할 수 있다. According to step S522, the computer 200 may obtain a coronary TVC image of the subject from the heart CT image of the subject using the trained model.

단계 S524에 따르면, 컴퓨터(200)는 학습된 모델을 이용하여 대상체의 심장 CT 영상으로부터 대상체의 관상동맥 IVUS 영상을 획득하고, 획득된 IVUS 영상을 학습된 모델에 입력하여 대상체의 관상동맥 TVC 영상을 획득할 수 있다.According to step S524, the computer 200 acquires a coronary IVUS image of the subject from the heart CT image of the subject using the trained model, and inputs the acquired IVUS image to the learned model to obtain a coronary TVC image of the subject. Can be obtained.

일 실시 예에서, 단계 S522에 대응하는 학습된 모델은 단계 S524 및 단계 S542에 대응하는 학습된 모델이 병합된 형태일 수 있다.In an embodiment, the learned model corresponding to step S522 may be a form in which the learned models corresponding to step S524 and step S542 are merged.

일 실시 예에서, 단계 S522에 대응하는 학습된 모델은 심장 CT 영상과 관상동맥 TVC 영상을 이용하여 학습된 모델일 수 있다.In an embodiment, the trained model corresponding to step S522 may be a trained model using a heart CT image and a coronary TVC image.

도 6은 심장 CT 영상으로부터 관상동맥 TVC 영상을 획득하는 일 예를 도시한 도면이다.6 is a diagram illustrating an example of obtaining a coronary TVC image from a heart CT image.

도 6을 참조하면, 대상체의 심장 CT 영상(600)이 도시되어 있다.Referring to FIG. 6, a heart CT image 600 of an object is illustrated.

TVC 영상은 관상동맥 내부 초음파 영상과 근적외선 분광법을 이용하여 획득되며, TVC를 이용하면 도 6에 도시된 바와 같이 관상동맥의 서로 다른 측면에서의 단면도(650 및 660)를 획득할 수 있다.The TVC image is obtained using coronary internal ultrasound images and near infrared spectroscopy, and using TVC, cross-sectional views 650 and 660 from different sides of the coronary arteries can be obtained as shown in FIG. 6.

도 6에 도시된 단면도(650)를 참조하면, 관상동맥의 혈관벽(652)과 혈관벽(652) 내의 침착물(654)의 위치가 도시된다. 특히, 침착물(654)은 혈관벽(652)내에서 협심증을 일으킬 수 있는 위험한 형질의 침착물을 나타낸다.Referring to the cross-sectional view 650 shown in FIG. 6, the location of the vessel wall 652 of the coronary artery and the deposit 654 in the vessel wall 652 is shown. In particular, deposits 654 represent deposits of dangerous traits that can cause angina in the vessel wall 652.

또한, TVC를 이용함으로써 또 다른 형태의 단면도(660)를 획득할 수 있다. 단면도(660)를 참조하면, 관상동맥 내의 일 단면에 해당하는 IVUS 영상과 더불어, 위험한 형질의 침착물이 형성된 측면에 대한 정보가 IVUS 영상의 가장자리에 표시된다. In addition, another type of cross-sectional view 660 can be obtained by using TVC. Referring to cross-sectional view 660, along with an IVUS image corresponding to one cross section in the coronary artery, information about the side on which the deposit of the dangerous trait is formed is displayed at the edge of the IVUS image.

일 실시 예에서, 컴퓨터(200)는 심장 CT 영상(600)의 관상동맥 부분(602)을 이용하여 TVC 영상(650 또는 660)을 획득할 수 있다.In one embodiment, the computer 200 may acquire a TVC image 650 or 660 using the coronary artery portion 602 of the heart CT image 600.

심장 CT 영상(600)으로부터 관상동맥의 TVC 영상(650 또는 660)을 획득하기 위한 하나의 단계로서, 관상동맥의 IVUS 영상으로부터 관상동맥의 TVC 영상을 획득할 수 있도록 학습된 모델이 활용될 수 있다.As one step for obtaining a TVC image 650 or 660 of the coronary artery from the cardiac CT image 600, a model trained to obtain a TVC image of the coronary artery from an IVUS image of the coronary artery may be utilized. .

도 7을 참조하면, 관상동맥의 IVUS 영상으로부터 TVC 영상을 획득할 수 있는 모델을 학습시키기 위한 방법의 일 예가 도시되어 있다.Referring to FIG. 7, an example of a method for training a model capable of acquiring TVC images from IVUS images of coronary arteries is shown.

도 7에는 대상체의 관상동맥의 TVC 영상(700)이 도시되어 있다. TVC 영상(700)은 IVUS를 이용하여 획득할 수 있는 혈관 내부 형태를 나타내는 부분(704)과 NIRS를 이용하여 획득할 수 있는 혈관 내부 침착물의 형질을 나타내는 부분(702)으로 구분될 수 있다. 7 shows a TVC image 700 of a coronary artery of a subject. The TVC image 700 may be divided into a portion 704 representing an internal vascular form that can be obtained using IVUS and a portion 702 representing a trait of an intravascular deposit that can be obtained using NIRS.

일 실시 예에서, 컴퓨터(200)는 TVC 영상(700)을 소정의 각도로 자를 수 있다. 예를 들어, 컴퓨터(200)는 도 7에 도시된 바와 같이, TVC 영상(700)을 10도씩 기울어진 직사각형들(710 및 720)로 자를 수 있다. In an embodiment, the computer 200 may cut the TVC image 700 at a predetermined angle. For example, the computer 200 may cut the TVC image 700 into rectangles 710 and 720 inclined by 10 degrees, as shown in FIG. 7.

컴퓨터(200)는 각각의 잘라진 직사각형들에 포함되어 있는, 혈관 내부 침착물의 형질을 나타내는 부분(702)을 이용하여 각각의 잘라진 직사각형들에 포함되어 있는, 혈관 내부 형태가 정상인지 또는 비정상인지 여부를 판단할 수 있다. The computer 200 uses a portion 702 representing the trait of intravascular deposits, contained in each cut rectangle, to determine whether the vascular internal shape is normal or abnormal, included in each cut rectangle. You can judge.

예를 들어, 도 7에 도시된 바와 같이 잘라진 각 직사각형들(710 및 720)은 각각 정상 및 비정상으로 라벨링된 학습 데이터(730 및 740)로 가공될 수 있다. For example, each of the rectangles 710 and 720 cut as shown in FIG. 7 may be processed into training data 730 and 740 labeled normal and abnormal, respectively.

컴퓨터(200)는 라벨링된 학습 데이터(730 및 740)를 이용하여 모델의 학습을 수행한다.The computer 200 uses the labeled training data 730 and 740 to train the model.

새로운 IVUS 영상이 획득되는 경우, 컴퓨터(200)는 획득된 IVUS 영상을 소정의 각도로 잘라낸 후, 잘라낸 각각의 영상을 학습된 모델에 입력하여 정상 또는 이상 여부를 판단한다. When a new IVUS image is acquired, the computer 200 cuts the acquired IVUS image at a predetermined angle and inputs each cut image to the learned model to determine whether it is normal or abnormal.

컴퓨터(200)는 잘라낸 각각의 영상에 대한 판단결과에 기초하여 IVUS 영상으로부터 TVC 영상을 복원할 수 있다. The computer 200 may restore the TVC image from the IVUS image based on the determination result of each cropped image.

도 8은 혈관 내 초음파 영상을 분할하는 방법의 일 예를 도시한 도면이다.8 is a diagram illustrating an example of a method of segmenting an intravascular ultrasound image.

도 8을 참조하면, 혈관 내 초음파 영상(800)이 도시되어 있다. Referring to FIG. 8, an intravascular ultrasound image 800 is shown.

혈관 내 초음파 영상(800)을 입력 데이터 또는 출력 데이터로 이용하여 모델을 학습시키는 데 있어서, 영상(800)의 각 부분을 분할하거나 라벨링할 수 있다. In training the model using the intravascular ultrasound image 800 as input data or output data, each part of the image 800 may be divided or labeled.

도 8에 도시된 바와 같이, 영상(800)에는 혈관조직(810), 침착물(820) 및 혈관 내부(830) 영상이 포함된다. As shown in FIG. 8, the image 800 includes an image of a blood vessel tissue 810, a deposit 820, and an internal blood vessel 830.

영상(800)은 자동 또는 수동으로 혈관조직(810), 침착물(820) 및 혈관 내부(830)가 구분되거나 라벨링된다. The image 800 is automatically or manually labeled or labeled with the vascular tissue 810, the deposit 820, and the blood vessel interior 830.

특히, 침착물(820) 또는 혈관 내부(830)는 관심영역(region of interest)으로 표시되어, 모델이 혈관 내 초음파 영상으로부터 침착물 또는 혈관 내부를 구분할 수 있도록 모델을 학습시키는 데 활용될 수 있다. In particular, the deposit 820 or the vessel interior 830 may be marked with a region of interest, and may be utilized to train the model so that the model can distinguish the deposit or vessel interior from an intravascular ultrasound image. .

도 9는 일 실시 예에 따라 심장 CT 영상으로부터 협심증을 일으키는 관상동맥 구간을 획득하는 방법을 도시한 흐름도이다.9 is a flowchart illustrating a method of acquiring a coronary artery section causing angina from a heart CT image according to an embodiment.

도 9에 도시된 방법은 도 1에 도시된 컴퓨터(200)에서 시계열적으로 처리되는 단계들을 포함하여 구성된다.The method shown in FIG. 9 comprises steps that are processed in time series in the computer 200 shown in FIG.

심근분획혈류예비력(Fractional Flow Reserve, FFR) 검사는 관상동맥 내의 압력을 측정하여, 관상동맥 내에서 실제로 허혈을 일으키는 구간, 즉 협심증을 일으키는 구간을 판단하기 위한 검사이다. The Myocardial Fractional Flow Reserve (FFR) test measures pressure in the coronary arteries to determine which sections in the coronary arteries actually cause ischemia, i.e., angina.

혈관이 좁아지거나 막혀있는 것처럼 보여도 실제로 허혈을 일으키지는 않을 수도 있고, 별도의 증상이 없거나 운동부하검사도 음성임에도 허혈이 발생하는 경우도 있다. Blood vessels that appear to be narrowed or blocked may not actually cause ischemia, and may also develop ischemia even if there are no symptoms or if the exercise test is negative.

혈관이 좁다고 하여 반드시 스텐트 시술을 해야 하는 것은 아니며, 그 부작용을 고려하여 실제로 혀혈이 발생하는 부위에 대해서만 시술을 진행하는 것이 바람직할 수 있다. 따라서, 도 1 내지 도 8과 관련하여 설명한 바와 같은 형태적 관찰에서 나아가, 도 9 및 도 10에서는 증상적 의의를 관찰할 수 있는 방법에 대하여 설명한다.The narrow blood vessel does not necessarily need to perform a stent procedure, and in consideration of the side effects, it may be desirable to perform the procedure only on the site where the tongue blood is actually generated. Therefore, in addition to the morphological observation described with reference to FIGS. 1 to 8, a method for observing symptomatic significance will be described in FIGS. 9 and 10.

단계 S910에서, 제3 모델이 학습된다. 일 실시 예에서, 제3 모델은 대상체의 심장을 촬영한 CT 영상과 대상체의 FFR 검사 결과를 이용하여 학습된다.In step S910, the third model is trained. In one embodiment, the third model is trained using a CT image of the heart of the subject and an FFR test result of the subject.

일 실시 예에서, 제3 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 FFR 검사 결과를 출력 데이터로 하여 학습될 수 있다. In an embodiment, the third model may be trained using at least a portion of a CT image of the heart of the object as input data and an FFR test result of the object as output data.

단계 S920에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 획득한다.In operation S920, the computer 200 acquires a heart CT image of the object.

단계 S930에서, 컴퓨터(200)는 단계 S920에서 획득된 대상체의 심장 CT 영상을 단계 S910에서 학습된 제3 모델에 입력하여, 대상체의 관상동맥에서 협심증을 일으키는 구간을 판단한다. In operation S930, the computer 200 may input a cardiac CT image of the object acquired in operation S920, to the third model learned in operation S910, to determine an interval causing angina in the coronary artery of the object.

일 실시 예에서, 컴퓨터(200)는 단계 S920에서 획득된 대상체의 심장 CT 영상을 단계 S910에서 학습된 제3 모델에 입력하여, 대상체의 관상동맥에 대한 FFR 데이터를 획득한다. In one embodiment, the computer 200 inputs the heart CT image of the object acquired in step S920 to the third model learned in step S910 to obtain FFR data about the coronary artery of the object.

도 10에 도시된 바와 같이, 단계 S1010에서 대상체의 심장에 대한 CT 영상이 촬영되고, 필요한 경우 도 1 내지 도 8에서 설명한 바와 같이 관상동맥 내부의 형태적 정보를 획득한다. As shown in FIG. 10, a CT image of the heart of the subject is taken in step S1010, and if necessary, morphological information inside the coronary artery is acquired as described with reference to FIGS. 1 to 8.

단계 S1020에서, 대상체의 관상동맥에서 허혈이 발생하는 부분을 판단하기 위하여 FFR 검사가 진행된다.In step S1020, the FFR test is performed to determine the portion of the subject's coronary artery ischemia.

일 실시 예에서, 컴퓨터(200)는 단계 S1010에서 획득된 대상체의 심장 CT 영상과 학습된 모델을 이용하여, 대상체의 관상동맥에서 허혈이 발생하는 부분에 대한 정보를 획득할 수 있다(단계 S1015).In an embodiment, the computer 200 may acquire information about a part in which ischemia occurs in the coronary artery of the subject using the heart CT image of the subject acquired in operation S1010 and the learned model (operation S1015). .

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. Software modules may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

10: 대상체
100: CT 시스템
102: 갠트리
105: 테이블
106: X-ray 생성부
108: X-ray 검출부
110: 워크스테이션
200: 컴퓨터
10: object
100: CT system
102: gantry
105: table
106: X-ray generator
108: X-ray detector
110: workstation
200: computer

Claims (10)

컴퓨터에서 수행되는 심혈관 병변 판단 방법에 있어서,
대상체의 심장 혈관이 촬영된 제1 영상을 획득하는 영상 획득 단계; 및
상기 제1 영상으로부터 혈관 내부 침착물의 형질을 파악할 수 있도록 상기 제1 영상을 제1 모델에 입력하여 제2 영상을 출력하는 단계를 포함하고,
상기 제2 영상은 혈관의 정상 여부를 나타내는 진단 보조 영역을 포함하고,
상기 제2 영상은 복수의 제1 직사각형의 합으로써 상기 제1 영상이 제공하는 해부학적 영역에 대응되고,
상기 복수의 제1 직사각형 영역은 상기 제1 영상의 중심과 대응되는 위치에서 소정의 각도로 회전된 형태로 배치되어 생성되되, 상기 제1 영상의 적어도 일부의 영역을 기초로 생성되고,
상기 제1 직사각형 영역의 적어도 일부의 영역에 상기 진단 보조 영역 중 상기 제1 직사각형 영역에 대응되는 영역이 포함되고,
상기 진단 보조 영역 중 상기 제1 직사각형 영역에 대응되는 영역은 상기 제1 직사각형 영역에 포함된 혈관의 정상 여부를 나타내는,
심혈관 병변 판단 방법.
In the cardiovascular lesion determination method performed on a computer,
An image acquiring step of acquiring a first image of the cardiovascular body of the object; And
And outputting a second image by inputting the first image to a first model so as to identify traits of blood vessel deposits from the first image.
The second image includes a diagnostic auxiliary region indicating whether blood vessels are normal,
The second image corresponds to an anatomical area provided by the first image as a sum of a plurality of first rectangles.
The plurality of first rectangular regions are generated and disposed in a form rotated at a predetermined angle at a position corresponding to the center of the first image, and are generated based on at least a portion of the region of the first image.
An area corresponding to the first rectangular area of the diagnostic auxiliary area is included in at least a part of the first rectangular area;
An area corresponding to the first rectangular area among the diagnostic auxiliary areas indicates whether a blood vessel included in the first rectangular area is normal.
How to determine cardiovascular lesions.
제1 항에 있어서,
상기 제1 모델은 상기 제2 영상과 동일한 촬영 방법으로 얻어진 영상들로 구성된 학습 세트를 통해 학습되되,
상기 학습 세트의 영상에서 상기 제1 영상에 대응되는 영역을 상기 제1 모델에 입력하고, 상기 학습 세트의 영상에 상기 진단 보조 영역이 포함되는 영상을 출력하는,
심혈관 병변 판단 방법.
According to claim 1,
The first model is trained through a learning set consisting of images obtained by the same photographing method as the second image,
Inputting an area corresponding to the first image in the image of the learning set to the first model, and outputting an image including the diagnostic auxiliary area in the image of the learning set,
How to determine cardiovascular lesions.
제1 항에 있어서,
상기 심혈관 병변 판단 방법은 상기 제1 영상을 복수의 제2 직사각형 영역으로 분할하는 전처리 단계를 더 포함하되,
상기 복수의 제2 직사각형 영역은 상기 제1 영상을 기초로 상기 제1 영상의 중심과 대응되는 위치에서 소정의 각도마다 분할된 영역인,
심혈관 병변 판단 방법.
According to claim 1,
The cardiovascular lesion determination method further includes a preprocessing step of dividing the first image into a plurality of second rectangular regions,
The plurality of second rectangular areas are areas divided at predetermined angles at positions corresponding to the center of the first image based on the first image.
How to determine cardiovascular lesions.
제1 항에 있어서,
상기 제1 영상은 상기 대상체의 심장 혈관에 대한 초음파 영상을 포함하고,
상기 제2 영상은 상기 제1 영상과 함께 상기 대상체의 심장 혈관에 대한 근적외선 분광 스펙트럼 결과를 포함하는,
심혈관 병변 판단 방법.
According to claim 1,
The first image includes an ultrasound image of cardiovascular of the subject,
The second image includes a near infrared spectral spectrum result of the cardiovascular of the subject together with the first image.
How to determine cardiovascular lesions.
제1 항에 있어서,
상기 진단 보조 영역은 상기 제1 직사각형 영역에 포함된 혈관의 정상 여부를 근적외선 분광 스펙트럼으로 나타내는,
심혈관 병변 판단 방법.
According to claim 1,
The diagnostic auxiliary region indicates a normal state of blood vessels included in the first rectangular region as a near infrared spectral spectrum.
How to determine cardiovascular lesions.
제5 항에 있어서,
상기 진단 보조 영역에 포함된 제1 색으로 나타난 영역이 상기 진단 보조 영역 중 소정의 비율 이상인 경우에 상기 혈관이 비정상이라고 판단되는,
심혈관 병변 판단 방법.
The method of claim 5,
When it is determined that the blood vessel is abnormal when the region represented by the first color included in the diagnostic assistance region is equal to or greater than a predetermined ratio among the diagnostic assistance regions,
How to determine cardiovascular lesions.
제1 항에 있어서,
상기 제1 영상은 대상체의 심장 CT 촬영 영상인 제3 영상이 제2 모델에 입력됨에 따라 출력되는 영상이되,
상기 제2 모델은 상기 제3 영상과 동일한 촬영 방법으로 얻어진 영상들로 구성된 학습 세트를 통해 학습되는,
심혈관 병변 판단 방법.
According to claim 1,
The first image is an image that is output when a third image, which is a heart CT image of the object, is input to the second model.
The second model is trained through a learning set composed of images obtained by the same photographing method as the third image.
How to determine cardiovascular lesions.
제7 항에 있어서,
상기 제3 영상으로부터 상기 제1 모델 및 상기 제2 모델을 통해 상기 제2 영상이 출력되되,
상기 제3 영상에 포함된 상기 대상체의 심장에서 상기 제2 영상으로부터 협심증을 일으키는 구간을 판단하는 단계를 더 포함하는,
심혈관 병변 판단 방법.
The method of claim 7, wherein
The second image is output through the first model and the second model from the third image,
The method may further include determining an interval causing angina from the second image in the heart of the object included in the third image.
How to determine cardiovascular lesions.
제8 항에 있어서,
상기 협심증을 일으키는 구간은 상기 진단 보조 영역을 기초로 판단되는,
심혈관 병변 판단 방법.
The method of claim 8,
The section causing the angina is determined based on the diagnostic assistance region,
How to determine cardiovascular lesions.
제1 항 내지 제9 항 중 어느 한 항의 방법을 수행할 수 있도록 컴퓨터에서 읽을 수 있는 기록매체에 저장된 애플리케이션.An application stored on a computer-readable recording medium for performing the method of any one of claims 1 to 9.
KR1020170106893A 2017-08-23 2017-08-23 Method and application for determining cardiovascular disease using ct image Active KR102032611B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170106893A KR102032611B1 (en) 2017-08-23 2017-08-23 Method and application for determining cardiovascular disease using ct image
PCT/KR2018/009742 WO2019039887A1 (en) 2017-08-23 2018-08-23 Method and application for determining cardiovascular lesion by using ct image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170106893A KR102032611B1 (en) 2017-08-23 2017-08-23 Method and application for determining cardiovascular disease using ct image

Publications (2)

Publication Number Publication Date
KR20190021749A KR20190021749A (en) 2019-03-06
KR102032611B1 true KR102032611B1 (en) 2019-10-15

Family

ID=65439140

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170106893A Active KR102032611B1 (en) 2017-08-23 2017-08-23 Method and application for determining cardiovascular disease using ct image

Country Status (2)

Country Link
KR (1) KR102032611B1 (en)
WO (1) WO2019039887A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11857292B2 (en) 2020-03-18 2024-01-02 E8Ight Co., Ltd. Method for diagnosing vascular disease and apparatus therefor
KR20240064065A (en) 2022-11-04 2024-05-13 경북대학교 산학협력단 Apparatus and method of classifying cement dust-exposed subject based on machine learning for computed tomography images

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102272413B1 (en) * 2019-08-05 2021-07-06 재단법인 아산사회복지재단 Device, method and recording medium for providing information on ischemic lesions through coronary angiography-based machine learning
KR20210102101A (en) * 2020-02-10 2021-08-19 주식회사 바디프랜드 Method for predicting disease
KR102217392B1 (en) * 2020-07-21 2021-02-22 (주)제이엘케이 Apparatus and method for learning coronary artery diagnosis image, diagnosis apparatus and method for stenosed lesion of coronary artery having significant diffrences using the learning model costructed by the same
KR102304339B1 (en) * 2020-11-27 2021-09-23 두에이아이(주) Method and computing device for providing analysis information on intravascular ultrasound images of blood vessels using artificial neural networks
KR102656944B1 (en) * 2021-12-21 2024-04-16 주식회사 레이와트 Mtehod for predicting fractional flow reserve based on machine learning
KR102693862B1 (en) * 2022-02-04 2024-08-08 연세대학교 산학협력단 Method for predicting right subclavian artery abnormality and apparatus for performing the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005534415A (en) 2002-08-05 2005-11-17 インフレアデックス, インク. Unnecessary signal filter and method for discriminating anxious plaques by spectroscopic analysis
JP2016041247A (en) * 2014-08-18 2016-03-31 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft Computer-aided analysis method for medical images
JP2016529037A (en) 2013-08-27 2016-09-23 ハートフロー, インコーポレイテッド System and method for predicting site, onset and / or change of coronary lesions

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8315812B2 (en) * 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
WO2015088277A1 (en) * 2013-12-12 2015-06-18 삼성메디슨 주식회사 Method and apparatus for displaying ultrasonic image
KR102361733B1 (en) * 2014-11-28 2022-02-11 삼성전자주식회사 Method and apparatus for modeling structure of coronary artery from 3d coronary ct angiography(cta) image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005534415A (en) 2002-08-05 2005-11-17 インフレアデックス, インク. Unnecessary signal filter and method for discriminating anxious plaques by spectroscopic analysis
JP2016529037A (en) 2013-08-27 2016-09-23 ハートフロー, インコーポレイテッド System and method for predicting site, onset and / or change of coronary lesions
JP2016041247A (en) * 2014-08-18 2016-03-31 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft Computer-aided analysis method for medical images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11857292B2 (en) 2020-03-18 2024-01-02 E8Ight Co., Ltd. Method for diagnosing vascular disease and apparatus therefor
KR20240064065A (en) 2022-11-04 2024-05-13 경북대학교 산학협력단 Apparatus and method of classifying cement dust-exposed subject based on machine learning for computed tomography images
KR102678040B1 (en) 2022-11-04 2024-06-25 경북대학교 산학협력단 Apparatus and method of classifying cement dust-exposed subject based on machine learning for computed tomography images

Also Published As

Publication number Publication date
WO2019039887A1 (en) 2019-02-28
KR20190021749A (en) 2019-03-06

Similar Documents

Publication Publication Date Title
KR102032611B1 (en) Method and application for determining cardiovascular disease using ct image
US12229955B2 (en) IVUS image analysis method
JP6557767B2 (en) System and method for image-based object modeling using multiple image acquisition or reconstruction
US11361432B2 (en) Inflammation estimation from x-ray image data
JP4653542B2 (en) Image processing device
JP4662766B2 (en) Method and imaging system for generating optimized view map, computer workstation and computer readable medium
JP6325221B2 (en) X-ray diagnostic apparatus and medical image processing apparatus
JP2022517581A (en) Methods and systems for providing a dynamic roadmap of coronary arteries
JP5039294B2 (en) Apparatus and method for analyzing tissue type along a cylindrical structure
JP7032111B2 (en) Medical image processing equipment, X-ray CT equipment and medical image processing program
US10098602B2 (en) Apparatus and method for processing a medical image of a body lumen
CN101529475A (en) Presentation of 3D images in combination with 2D projection images
JP2013244211A (en) Medical image processor, medical image processing method and control program
JP2017202310A (en) Medical imaging apparatus and method
KR20190125592A (en) 3D Blood Vessel Construction Method using medical images
US8542894B2 (en) Method and device for post-processing measured values registered by way of an imaging system
US9123163B2 (en) Medical image display apparatus, method and program
JP4686279B2 (en) Medical diagnostic apparatus and diagnostic support apparatus
CN115089294A (en) Interventional operation navigation method
KR20190125793A (en) 3D Blood Vessel Construction Method using medical images
JP3588055B2 (en) Three-dimensional image forming method and three-dimensional image forming apparatus
CN119251181A (en) Monitoring method, device, equipment and storage medium for blood vessels and stents therein
Li Data acquisition modeling and hybrid coronary tree 3D reconstruction in C-arm CBCT imaging
JP2007175194A (en) Method and apparatus for differential image reconstruction of CT projection data
CN119251383A (en) Vascular reconstruction method and device, and computer equipment

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R15-X000 Change to inventor requested

St.27 status event code: A-3-3-R10-R15-oth-X000

R16-X000 Change to inventor recorded

St.27 status event code: A-3-3-R10-R16-oth-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R15-X000 Change to inventor requested

St.27 status event code: A-3-3-R10-R15-oth-X000

R16-X000 Change to inventor recorded

St.27 status event code: A-3-3-R10-R16-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R17-X000 Change to representative recorded

St.27 status event code: A-5-5-R10-R17-oth-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

P16-X000 Ip right document amended

St.27 status event code: A-5-5-P10-P16-nap-X000

Q16-X000 A copy of ip right certificate issued

St.27 status event code: A-4-4-Q10-Q16-nap-X000

P14-X000 Amendment of ip right document requested

St.27 status event code: A-5-5-P10-P14-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

P16-X000 Ip right document amended

St.27 status event code: A-5-5-P10-P16-nap-X000

Q16-X000 A copy of ip right certificate issued

St.27 status event code: A-4-4-Q10-Q16-nap-X000

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

U11 Full renewal or maintenance fee paid

Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE)

Year of fee payment: 7