[go: up one dir, main page]

KR102728479B1 - Image Processing Method, Apparatus, Computing Device and Storage Medium - Google Patents

Image Processing Method, Apparatus, Computing Device and Storage Medium Download PDF

Info

Publication number
KR102728479B1
KR102728479B1 KR1020230055668A KR20230055668A KR102728479B1 KR 102728479 B1 KR102728479 B1 KR 102728479B1 KR 1020230055668 A KR1020230055668 A KR 1020230055668A KR 20230055668 A KR20230055668 A KR 20230055668A KR 102728479 B1 KR102728479 B1 KR 102728479B1
Authority
KR
South Korea
Prior art keywords
image
image sequence
sequence
images
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020230055668A
Other languages
Korean (ko)
Other versions
KR20230066526A (en
Inventor
웨팅 샤오
광 양
차오 정
인헝 주
Original Assignee
슈쿤 (베이징) 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 슈쿤 (베이징) 테크놀로지 컴퍼니 리미티드 filed Critical 슈쿤 (베이징) 테크놀로지 컴퍼니 리미티드
Publication of KR20230066526A publication Critical patent/KR20230066526A/en
Application granted granted Critical
Publication of KR102728479B1 publication Critical patent/KR102728479B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 개시는 이미지 처리 방법, 장치, 컴퓨팅 디바이스 및 저장 매체를 제공한다. 본 개시의 방법은, 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하는 단계 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 를 포함할 수 있다.The present disclosure provides an image processing method, an apparatus, a computing device, and a storage medium. The method of the present disclosure may include: acquiring a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region, wherein images in the first image sequence have different collection positions, collection depths, or collection angles from each other, images in the second image sequence have basically the same collection angles, and images in the second image sequence are sequentially collected at different points in time; and generating a third image sequence based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one updated image, and the at least one updated image corresponds to at least one image in the second image sequence and has a different viewing angle from the at least one image.

Figure 112023047712549-pat00002
Figure 112023047712549-pat00002

Description

이미지 처리 방법, 장치, 컴퓨팅 디바이스 및 저장 매체{Image Processing Method, Apparatus, Computing Device and Storage Medium}Image Processing Method, Apparatus, Computing Device and Storage Medium

본 개시는 이미지 처리 분야에 관한 것으로, 특히 이미지 처리 방법, 장치, 컴퓨팅 디바이스 및 저장 매체에 관한 것이다.The present disclosure relates to the field of image processing, and more particularly, to an image processing method, apparatus, computing device, and storage medium.

현재 의사들은 의료 진단을 위해 의료 스캐닝 기기(예를 들어, 핵자기공명영상(NMRI) 스캐너, 자기공명영상(MRI) 스캐너, 컴퓨터 단층 촬영(CT) 스캐너 등)로 스캔하여 획득되는 의료 이미지 시퀀스 또는 이미지 집합을 자주 사용한다. 의료 스캐닝 기기로 하나 또는 복수의 원본 이미지를 획득한 후, 하나 또는 복수의 원본 이미지를 처리하여 의사의 확인을 용이하게 함으로써, 의사가 처리 결과를 참조하여 보다 용이한 진단을 내릴 수 있도록 한다.Nowadays, doctors often use medical image sequences or image sets acquired by scanning with medical scanning devices (e.g., nuclear magnetic resonance imaging (NMRI) scanners, magnetic resonance imaging (MRI) scanners, computed tomography (CT) scanners, etc.) for medical diagnosis. After acquiring one or more original images with a medical scanning device, one or more of the original images are processed to facilitate the doctor's confirmation, thereby allowing the doctor to make an easier diagnosis by referring to the processing results.

본 개시의 일 양태에 따르면, 이미지 처리 방법을 제공하며, 상기 방법은, 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하는 단계 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 를 포함한다. According to one aspect of the present disclosure, an image processing method is provided, the method comprising: acquiring a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region, wherein images in the first image sequence differ from each other in at least one of a collection position, a collection depth, or a collection angle, images in the second image sequence have basically the same collection angle, and images in the second image sequence are sequentially collected at different points in time; and generating a third image sequence based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one update image, wherein the at least one update image corresponds to at least one image in the second image sequence and has a different observation angle from the at least one image.

본 개시의 다른 양태에 따르면, 이미지 처리 장치를 제공하며, 상기 장치는, 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하기 위한 이미지 시퀀스 획득 유닛 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하기 위한 이미지 시퀀스 생성 유닛 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 을 포함한다. According to another aspect of the present disclosure, an image processing device is provided, comprising: an image sequence obtaining unit for obtaining a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region, wherein images in the first image sequence have different collection positions, collection depths, or collection angles from each other, images in the second image sequence have basically the same collection angle, and images in the second image sequence are sequentially collected at different points in time; and an image sequence generating unit for generating a third image sequence based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one update image, wherein the at least one update image corresponds to at least one image in the second image sequence and has a different observation angle from the at least one image.

본 개시의 다른 양태에 따르면, 메모리, 프로세서 및 상기 메모리에 저장된 컴퓨터 프로그램을 포함하는 컴퓨팅 디바이스를 제공하고, 상기 프로세서는 상기 컴퓨터 프로그램을 실행하여 하나 또는 다수의 실시예의 이미지 처리 방법을 구현하기 위해 상기 컴퓨터 프로그램을 실행하도록 구성된다.According to another aspect of the present disclosure, a computing device is provided including a memory, a processor and a computer program stored in the memory, wherein the processor is configured to execute the computer program to implement an image processing method of one or more embodiments.

본 개시의 다른 양태에 따르면, 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 하나 또는 다수의 실시예에 따른 이미지 처리 방법을 구현한다. According to another aspect of the present disclosure, a non-transitory computer-readable storage medium storing a computer program is provided, wherein the computer program, when executed by a processor, implements an image processing method according to one or more embodiments.

본 개시의 다른 양태에 따르면, 명령을 포함하고, 상기 명령이 적어도 하나의 프로세서에 의해 실행될 때 하나 또는 다수의 실시예에 따른 이미지 처리 방법을 구현하는 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램을 제공한다.According to another aspect of the present disclosure, a computer program stored on a computer-readable storage medium including instructions, which when executed by at least one processor, implements an image processing method according to one or more embodiments.

아래에 설명된 실시예에 따르면, 본 개시의 이들 측면 및 다른 측면은 명확해질 것이며, 아래에 설명되는 실시예들을 참조하여 설명될 것이다.These and other aspects of the present disclosure will become apparent and will be elucidated with reference to the embodiments described below.

본 개시의 추가 세부 사항, 특징 및 이점은 도면과 함께 다음의 예시적인 실시예에 대한 설명에서 개시된다.
도 1은 예시적인 실시예에 따른 본 명세서에 설명된 다양한 방법을 실시할 수 있는 예시적 시스템을 나타내는 예시도이다.
도 2는 예시적인 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
도 3a 내지 3d는 본 개시의 예시적인 실시예에 따른 일부 예시적인 이미지를 나타낸다.
도 4는 예시적인 실시예에 따른 이미지 처리 장치를 나타내는 예시적 블록도이다.
도 5는 예시적인 실시예에 적용될 수 있는 예시적인 컴퓨터 기기를 나타내는 블록도이다.
Additional details, features and advantages of the present disclosure are disclosed in the following description of exemplary embodiments, taken in conjunction with the drawings.
FIG. 1 is an exemplary diagram illustrating an exemplary system that can implement various methods described herein according to exemplary embodiments.
Figure 2 is a flowchart illustrating an image processing method according to an exemplary embodiment.
Figures 3a to 3d illustrate some exemplary images according to exemplary embodiments of the present disclosure.
FIG. 4 is an exemplary block diagram illustrating an image processing device according to an exemplary embodiment.
FIG. 5 is a block diagram illustrating an exemplary computer device that may be applied to an exemplary embodiment.

본 개시에서 달리 명시되지 않는 한, “제1”, “제2” 등의 용어를 사용하여 다양한 요소를 설명함에 있어서 이들 요소의 위치 관계, 시계열 관계 또는 중요도 관계를 한정하려는 의도가 없으며, 이러한 용어는 한 구성요소를 다른 구성요소와 구별하는 데에만 사용된다. 일부 예에서, 제1 요소와 제2 요소는 요소의 동일한 예시를 가리킬 수 있지만 어떤 경우에는 문맥상 설명에 따라 다른 예시를 가리킬 수도 있다.Unless otherwise specified in this disclosure, the terms “first,” “second,” etc., used to describe various elements are not intended to limit the positional relationship, time series relationship, or importance relationship of these elements, and such terms are only used to distinguish one element from another. In some instances, the first element and the second element may refer to the same instance of an element, but in some cases, they may refer to different instances depending on the contextual description.

본 개시에서 다양한 예시적인 설명에 사용되는 용어는 특정 예시를 설명하기 위한 목적일 뿐 한정하려는 의도는 아니다. 문맥상 명백히 달리 나타내지 않는 한, 요소의 개수를 특별히 한정하지 않으면 하나 또는 복수의 해당 요소가 존재할 수 있다. 본 명세서에서 사용된 바와 같이, 용어 “복수”는 둘 이상을 의미하며, 용어 “…에 기반한다”는 “적어도 부분적으로 …에 기반한다”로 해석되어야 한다. 또한, “및/또는” 및 “... 중 적어도 하나”라는 용어는 나열된 항목 중 어느 하나 및 가능한 모든 조합 방식을 포함한다.The terminology used in the various exemplary descriptions herein is for the purpose of describing particular examples only and is not intended to be limiting. Unless the context clearly indicates otherwise, there may be one or more of the elements, provided there is no particular limitation on the number of elements. As used herein, the term “plurality” means two or more, and the term “based on …” should be interpreted as “based at least in part on …” Additionally, the terms “and/or” and “at least one of …” include any one of the listed items and all possible combinations thereof.

이하, 첨부된 도면을 참조하여 본 발명의 예시적인 실시예들을 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 예시적인 실시예에 따른 본 명세서에 설명된 다양한 방법을 실시할 수 있는 예시적 시스템(100)을 나타내는 예시도이다.FIG. 1 is an exemplary diagram illustrating an exemplary system (100) that may implement various methods described herein according to exemplary embodiments.

도 1을 참조하면, 상기 시스템(100)은 클라이언트 기기(110), 서버(120) 및 클라이언트 기기(110)와 서버(120)를 통신적으로 커플링하는 네트워크(130)를 포함한다.Referring to FIG. 1, the system (100) includes a client device (110), a server (120), and a network (130) that communicatively couples the client device (110) and the server (120).

클라이언트 기기(110)는 디스플레이(114) 및 디스플레이(114)를 통해 표시될 수 있는 클라이언트 애플리케이션(APP)(112)을 포함한다. 클라이언트 애플리케이션(112)은 실행 전에 다운로드 및 설치가 필요한 애플리케이션 프로그램이나 경량 애플리케이션인 애플릿(liteapp)일 수 있다. 클라이언트 애플리케이션(112) 이 실행전에 다운로드 및 설치가 필요한 애플리케이션인 경우, 클라이언트 애플리케이션(112)은 클라이언트 기기(110)에 미리 설치되어 활성화될 수 있다. 클라이언트 애플리케이션(112)이 애플릿인 경우, 사용자(102)는 클라이언트 애플리케이션(112)을 설치하지 않고도, 호스트 애플리케이션에서 클라이언트 애플리케이션(112)(예를 들어, 클라이언트 애플리케이션(112)의 명칭 등)을 검색하거나 클라이언트 애플리케이션(112)의 그래픽 코드(예를 들어, 바코드, QR 코드 등)를 스캔하는 등 방식을 통해 클라이언트 기기(110) 상에서 직접 클라이언트 애플리케이션(112)을 실행할 수 있다. 일부 실시예에서, 클라이언트 기기(110)는 모바일 컴퓨터, 휴대폰, 웨어러블 컴퓨터 기기(예를 들어, 스마트 워치, 스마트 안경을 망라한 헤드 마운트 기기 등) 또는 다른 유형의 모바일 기기를 포함하는 임의의 유형의 모바일 컴퓨터 기기일 수 있다. 일부 실시예에서, 클라이언트 기기(110)는 대안적으로 고정 컴퓨터 기기일 수 있으며, 예를 들어, 데스크톱, 서버 컴퓨터 또는 다른 유형의 고정 컴퓨터 기기이다. 일부 선택적인 실시예에서, 클라이언트 기기(110)는 의료 이미지 인쇄 기기이거나 이를 포함할 수 있다.The client device (110) includes a display (114) and a client application (APP) (112) that can be displayed through the display (114). The client application (112) may be an application program that requires download and installation before execution, or an applet (liteapp), which is a lightweight application. If the client application (112) is an application that requires download and installation before execution, the client application (112) may be pre-installed on the client device (110) and activated. If the client application (112) is an applet, the user (102) may directly execute the client application (112) on the client device (110) without installing the client application (112), by searching for the client application (112) (e.g., the name of the client application (112)) in the host application, or by scanning a graphic code (e.g., a barcode, a QR code, etc.) of the client application (112). In some embodiments, the client device (110) may be any type of mobile computing device, including a mobile computer, a cell phone, a wearable computing device (e.g., a head-mounted device, including a smartwatch, smartglasses, etc.), or another type of mobile device. In some embodiments, the client device (110) may alternatively be a stationary computing device, such as a desktop, a server computer, or another type of stationary computing device. In some optional embodiments, the client device (110) may be or include a medical imaging printer.

서버(120)는 전형적으로 인터넷 서비스 제공자(Internet Service Provider, ISP) 또는 인터넷 콘텐츠 제공자(Internet Content Provider, ICP)에 의해 구축되는 서버이다. 서버(120)는 단일 서버, 다중 서버 클러스터, 분산 시스템(distributed system) 또는 기본 클라우드 서비스(예를 들어 클라우드 데이터베이스, 클라우드 컴퓨팅, 클라우드 스토리지, 클라우드 통신)를 제공하는 클라우드 서버를 나타낼 수 있다. 도 1에서는 서버(120)가 단 하나의 클라이언트 기기(110)와 통신하는 것으로 나타내고 있지만, 서버(120)는 동시에 복수의 클라이언트 기기에 백그라운드 서비스를 제공할 수 있음을 이해할 것이다.The server (120) is typically a server built by an Internet Service Provider (ISP) or an Internet Content Provider (ICP). The server (120) may represent a single server, a multi-server cluster, a distributed system, or a cloud server providing basic cloud services (e.g., cloud database, cloud computing, cloud storage, cloud communications). Although FIG. 1 shows the server (120) as communicating with only one client device (110), it will be appreciated that the server (120) may provide background services to multiple client devices simultaneously.

네트워크(130)의 예시는 LAN, WAN, 개인 통신망(Personal Area Network, PAN), 및/또는 인터넷과 같은 통신 네트워크의 조합을 포함한다. 네트워크(130)는 유선 또는 무선 네트워크일 수 있다. 일부 실시예에서, 네트워크(130)를 통해 교환되는 데이터는 하이퍼텍스트 마크업 언어(Hyper Text Markup Language, HTML), 확장 가능 마크업 언어(eXtensible Markup Language, XML) 등을 포함하는 기술 및/또는 포맷을 사용하여 처리된다. 또한, 보안 소켓 계층(Secure Sockets Layer, SSL), 전송 계층 보안(Transport Layer Security, TLS), 가상 사설망(Virtual Private Network, VPN), IP 보안(Internet Protocol SECurity, IPsec) 등과 같은 암호화 기술을 사용하여 전체 또는 일부 링크를 암호화할 수도 있다. 일부 실시예에서, 위에서 언급한 데이터 통신 기술을 대체하거나 보완하기 위해 맞춤형 및/또는 전용 데이터 통신 기술을 사용할 수도 있다.Examples of networks (130) include combinations of communication networks, such as a LAN, a WAN, a Personal Area Network (PAN), and/or the Internet. The network (130) may be a wired or wireless network. In some embodiments, data exchanged over the network (130) is processed using technologies and/or formats including Hyper Text Markup Language (HTML), eXtensible Markup Language (XML), and the like. Additionally, all or part of the link may be encrypted using encryption technologies such as Secure Sockets Layer (SSL), Transport Layer Security (TLS), Virtual Private Network (VPN), Internet Protocol Security (IPsec), and the like. In some embodiments, custom and/or proprietary data communication technologies may be used to replace or supplement the data communication technologies mentioned above.

시스템(100)은 또한 이미지 수집 기기(140)를 포함할 수 있다. 일부 실시예에서, 도 1에 나타낸 이미지 수집 기기(140)는 양전자방출단층촬영 시스템(Positron Emission Tomography, PET), 양전자컴퓨터단층촬영 시스템(Positron Emission Tomography with Computerized Tomography, PET/CT), 단일광자방출 컴퓨터단층촬영 시스템(Single Photon emission Computed Tomography with Computerized Tomography, SPECT/CT), 컴퓨터단층촬영 시스템(Computerized Tomography, CT), 의료용 초음파진단 시스템(Medical Ultrasonograph), 핵자기공명영상 시스템(Nuclear Magnetic Resonance Imaging, NMRI), 자기공명영상(Magnetic Resonance Imaging, MRI), 심혈관조영 시스템(Cardiac Angiograph, CA), 디지털방사선촬영 시스템(Digital Radiograph, DR) 등에 사용되는 스캐닝 또는 이미징 기기를 포함하지만 이에 한정되지 않는 의료용 스캔 기기일 수 있다. 예를 들어, 이미지 수집 기기(140)는 디지털 감산 혈관 조영 스캐너, 자기 공명 혈관 조영 스캐너, 단층 혈관 스캐너, 양전자방출단층 스캐너, 양전자컴퓨터단층 스캐너, 단일광자방출 컴퓨터단층 스캐너, 컴퓨터단층 스캐너, 의료용 초음파진단 기기, 핵자기공명영상 스캐너, 자기공명영상 스캐너, 디지털방사선촬영 스캐너 등을 포함할 수 있다. 이미지 수집 기기(140)는 스캔 데이터 변환(예를 들어, 의료 이미지 시퀀스로 변환), 압축, 픽셀 보정, 3차원 재구성 등을 포함하지만 이에 한정되지 않는 이미지 데이터 처리를 구현하기 위해, 서버(예를 들어, 도 1에서의 서버(120) 또는 미도시된 이미징 시스템의 별도의 서버)에 연결될 수 있다. The system (100) may also include an image collection device (140). In some embodiments, the image collection device (140) illustrated in FIG. 1 may be a medical scanning device, including but not limited to a scanning or imaging device used in a Positron Emission Tomography (PET) system, a Positron Emission Tomography with Computerized Tomography (PET/CT) system, a Single Photon Emission Computed Tomography with Computerized Tomography (SPECT/CT) system, a Computerized Tomography (CT) system, a Medical Ultrasonograph, a Nuclear Magnetic Resonance Imaging (NMRI) system, a Magnetic Resonance Imaging (MRI) system, a Cardiac Angiograph (CA) system, a Digital Radiograph (DR) system, and the like. For example, the image collection device (140) may include a digital subtraction angiography scanner, a magnetic resonance angiography scanner, a single-photon emission computed tomography scanner, a positron emission tomography scanner, a positron computed tomography scanner, a single-photon emission computed tomography scanner, a computed tomography scanner, a medical ultrasound diagnostic device, a nuclear magnetic resonance imaging scanner, a magnetic resonance imaging scanner, a digital radiography scanner, and the like. The image collection device (140) may be connected to a server (e.g., server (120) in FIG. 1 or a separate server of an imaging system, not shown) to implement image data processing, including but not limited to scan data conversion (e.g., conversion into a medical image sequence), compression, pixel correction, 3D reconstruction, and the like.

이미지 수집 기기(140)는, 예를 들어 네트워크(130)를 통해 클라이언트 기기(110)에 연결되거나 다른 방식으로 클라이언트 기기에 직접 연결되어 클라이언트 기기와 통신할 수 있다.The image collection device (140) may be connected to the client device (110), for example, via a network (130), or may be connected directly to the client device in another manner to communicate with the client device.

선택적으로, 시스템은 또한 스마트 컴퓨팅 디바이스 또는 컴퓨팅 카드(150)를 포함할 수 있다. 이미지 수집 기기(140)는 이러한 컴퓨팅 카드(150) 등을 포함하거나 이에 연결(예를 들어, 분리 가능하게 연결)될 수 있다. 하나의 예시로서, 컴퓨팅 카드(150)는 변환, 압축, 픽셀 보정, 재구성 등을 포함하지만 이에 한정되지 않는 이미지 데이터의 처리를 구현할 수 있다. 다른 하나의 예시로서, 컴퓨팅 카드(150)는 본 개시의 실시예에 따른 이미지 처리 방법을 구현할 수 있다. Optionally, the system may also include a smart computing device or computing card (150). The image capture device (140) may include or be connected (e.g., detachably connected) to such a computing card (150). As one example, the computing card (150) may implement processing of image data, including but not limited to conversion, compression, pixel correction, reconstruction, etc. As another example, the computing card (150) may implement an image processing method according to an embodiment of the present disclosure.

시스템은 데이터 저장부와 같은 미도시된 다른 부분을 포함할 수도 있다. 데이터 저장부는 데이터베이스, 데이터 저장소 또는 데이터를 저장하기 위한 다른 형태의 하나 또는 복수의 장치일 수 있고, 통상적인 데이터베이스일 수 있으며, 클라우드 데이터베이스, 분산 데이터베이스 등일 수도 있다. 예를 들어, 이미지 수집 기기(140)에 의해 형성된 직접 이미지 데이터 또는 이미지 처리를 통해 획득된 의료 이미지 시퀀스 또는 3차원 영상 데이터 등은 후속 서버(120) 및 클라이언트 기기(110)가 데이터 저장부로부터 검색할 수 있도록 데이터 저장부에 저장될 수 있다. 또한, 상기 이미지 수집 기기(140)는 이미지 데이터 또는 이미지 처리를 통해 획득된 의료 이미지 시퀀스 또는 3차원 영상 데이터 등을 서버(120) 또는 클라이언트 기기(110) 등에 직접 제공할 수도 있다.The system may include other parts not shown, such as a data storage unit. The data storage unit may be one or more devices of a database, a data repository, or other form for storing data, and may be a conventional database, a cloud database, a distributed database, or the like. For example, direct image data formed by the image collection device (140) or medical image sequences or three-dimensional image data acquired through image processing may be stored in the data storage unit so that subsequent servers (120) and client devices (110) can retrieve them from the data storage unit. In addition, the image collection device (140) may directly provide the image data or the medical image sequences or three-dimensional image data acquired through image processing to the server (120) or the client device (110).

사용자는 클라이언트 기기(110)를 사용하여 수집된 이미지 또는 영상(예비 이미지 데이터(preliminary image data) 또는 분석 처리를 거친 이미지 등을 포함)을 확인하고, 분석 결과를 확인하며, 수집된 이미지 또는 분석 결과와 인터랙션(interact)하고, 수집된 명령 및 구성 데이터를 입력하는 등을 진행할 수 있다. 클라이언트 기기(110)는 구성 데이터, 명령 또는 기타 정보를 이미지 수집 기기(140)에 전송하여 이미지 수집 기기의 수집 및 데이터 처리 등을 제어할 수 있다. A user can use a client device (110) to check collected images or videos (including preliminary image data or images that have undergone analysis processing), check analysis results, interact with collected images or analysis results, input collected commands and configuration data, etc. The client device (110) can control the collection and data processing of the image collection device by transmitting configuration data, commands, or other information to the image collection device (140).

본 개시의 실시예의 목적을 구현하기 위해, 도 1의 예시에서, 클라이언트 애플리케이션(112)은 예를 들어, 수집된 이미지 시퀀스에 대해 저장 관리, 색인, 정렬, 분류 등을 진행하는 것과 같은 다양한 기능을 제공할 수 있는 이미지 시퀀스 관리 애플리케이션 프로그램일 수 있다. 이에 대응되게, 서버(120)는 이미지 시퀀스 관리 애플리케이션 프로그램과 함께 사용하는 서버일 수 있다. 상기 서버(120)는 사용자의 요청 또는 본 개시의 실시예에 따라 생성된 명령에 기반하여, 클라이언트 기기(110)에서 실행되는 클라이언트 애플리케이션(112)에 이미지 시퀀스 관리 서비스를 제공할 수 있으며, 예를 들어, 클라우드에서 이미지 시퀀스 저장을 관리하고, 지정된 색인(시퀀스 유형, 환자 식별자, 인체 부위, 수집 대상, 수집 단계, 수집 기계, 병소 검출 여부, 심각성 등)을 저장하고, 지정된 색인에 따라 검색하여 클라이언트 기기에 이미지 시퀀스를 제공하는 등을 제공할 수 있다. 대안적으로, 서버(120)는 이러한 서비스 능력 또는 저장 공간을 클라이언트 기기(110)에 제공 또는 할당할 수도 있고, 클라이언트 기기(110)에서 실행되는 클라이언트 애플리케이션(112)에 의해, 사용자 요청 또는 본 개시의 실시예에 따라 생성된 명령 등에 기반하여, 대응되는 이미지 시퀀스 관리 서비스를 제공하는 등이다. 이상 단 하나의 예시를 제공하였으며, 본 개시는 이에 한정되지 않음을 이해할 수 있다. In order to implement the purpose of the embodiment of the present disclosure, in the example of FIG. 1, the client application (112) may be an image sequence management application program that may provide various functions, such as, for example, performing storage management, indexing, sorting, and classification for collected image sequences. Correspondingly, the server (120) may be a server used together with the image sequence management application program. The server (120) may provide an image sequence management service to the client application (112) running on the client device (110) based on a user's request or a command generated according to the embodiment of the present disclosure, and may, for example, manage image sequence storage in the cloud, store a designated index (sequence type, patient identifier, human body part, collection target, collection step, collection machine, whether lesion is detected, severity, etc.), and provide an image sequence to the client device by searching according to the designated index. Alternatively, the server (120) may provide or allocate such service capabilities or storage space to the client device (110), and provide corresponding image sequence management services, etc., based on a user request or a command generated according to an embodiment of the present disclosure, by a client application (112) running on the client device (110). It should be understood that the above is only one example and that the present disclosure is not limited thereto.

도 2는 예시적인 실시예에 따른 이미지 처리 방법(200)을 나타내는 흐름도이다. 방법(200)은 클라이언트 기기(예를 들어, 도 1에 도시된 클라이언트 기기(110))에서 실행될 수 있는 바, 즉, 방법(200)의 각 단계의 실행 주체는 도 1에 표시된 클라이언트 기기(110)일 수 있다. 일부 실시예에서, 방법(200)은 서버(예를 들어, 도 1에 도시된 서버(120))에서 실행될 수 있다. 일부 실시예에서, 방법(200)은 클라이언트 기기(예를 들어, 클라이언트 기기(110))와 서버(예를 들어, 서버(120))의 상호 조합에 의해 실행될 수 있다. FIG. 2 is a flowchart illustrating an image processing method (200) according to an exemplary embodiment. The method (200) may be executed in a client device (e.g., the client device (110) illustrated in FIG. 1), that is, the execution entity of each step of the method (200) may be the client device (110) illustrated in FIG. 1. In some embodiments, the method (200) may be executed in a server (e.g., the server (120) illustrated in FIG. 1). In some embodiments, the method (200) may be executed by a combination of a client device (e.g., the client device (110)) and a server (e.g., the server (120)).

이하에서는 실행 주체가 클라이언트 기기(110)임을 예로 들어 방법(200)의 각 단계를 상세하게 설명한다. Below, each step of the method (200) is described in detail, taking as an example the client device (110) as the executor.

도 2를 참조하면, 단계 210에서, 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하며, 여기서, 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집된다. Referring to FIG. 2, in step 210, a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region are acquired, wherein the images in the first image sequence have different collection positions, collection depths, or collection angles from each other, the images in the second image sequence have basically the same collection angles, and the images in the second image sequence are sequentially collected at different points in time.

단계 220에서, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하며, 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가진다. In step 220, a third image sequence is generated based on the first image sequence and the second image sequence, the third image sequence including at least one update image, the at least one update image corresponding to at least one image of the second image sequence and having a different viewing angle from the at least one image.

이러한 실시예에 따르면, 3차원 이미지 시퀀스를 기반으로 시계열 상의 2차원 이미지 시퀀스에 대한 3차원 재구성 수행이 가능하다. According to these embodiments, it is possible to perform 3D reconstruction of a 2D image sequence in a time series based on a 3D image sequence.

의료 이미지 수집 분야에서, 예를 들어, CT 이미지, MR 이미지에 대해 3차원 향상을 수행하는 등과 같은 3차원 이미지 표현을 생성하기 위한 몇 가지 방안들이 이미 존재한다. 그러나, 비록 2차원 이미지를 기반으로 3차원 이미지를 생성하는 다양한 기술방안들이 이미 존재하지만, 인체 영역에 대해 수집한2차원 이미지가 인체 호흡, 혈관 박동 등에 따라, 시계열 상에서 변화하기 때문에, 이러한 방안은 시계열적으로 수집된2차원 이미지 시퀀스에 직접 이식하기 어렵다. 이에 반해, 본 개시의 실시예에 따르면, 참조로서 동일한 인체 영역에 대해 수집된 3차원 이미지 시퀀스를 이용함으로써, 시계열 2차원 이미지의 적어도 하나의 상이한 각도의 재구성을 생성할 수 있다. In the field of medical image collection, there already exist several methods for generating three-dimensional image representations, such as performing three-dimensional enhancement on CT images and MR images, for example. However, although various technical methods for generating three-dimensional images based on two-dimensional images already exist, it is difficult to directly transplant these methods to a two-dimensional image sequence collected in a time series manner, since a two-dimensional image collected for a human body region changes in time series according to human breathing, vascular pulsation, etc. In contrast, according to an embodiment of the present disclosure, by using a three-dimensional image sequence collected for the same human body region as a reference, it is possible to generate a reconstruction of at least one different angle of a time-series two-dimensional image.

상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 이는 이미지 시퀀스가 상이한 위치(예를 들어, 상이한 프로브 위치)에서 수집된 이미지, 동일한 위치이지만 상이한 이미징 깊이에서 수집된 이미지 및/또는 상이한 각도로 수집된 이미지, 및/또는 이들의 조합에 포함됨을 의미할 수 있음을 이해할 수 있다. 비한정적인 일례로서, 제1 이미지 시퀀스는 동일한 각도이지만 상이한 위치 또는 깊이에서 수집된 하나의 이미지 세트를 포함하고, 기본상 유사한 위치 및 상이한 각도에서 수집된 다른 하나의 이미지 세트를 포함할 수 있으며, 본 개시는 이에 한정되지 않는다. 이는 제1 이미지 시퀀스가 제1 인체 영역에 대해 3차원 표현을 수행할 수 있음을 의미할 수 있음을 이해할 수 있다. 비한정적인 일례로서, 제1 이미지 시퀀스는 관상동맥 CT 혈관조영술(CTA), CT 정맥조영술(CTV), 자기공명혈관조영술(MRA), 또는 당업자가 이해할 수 있는 3차원 표현 능력을 구비 가능한 다른 이미지 시퀀스일 수 있다. 상기 제1 이미지 시퀀스는 제1 인체 영역에 대한 3차원 표현이며, 제1 이미지 시퀀스 중의 이미지가 3차원 이미지이거나 특정 3차원 표현 능력을 가질 필요는 없음을 이해할 수 있다. 이에 반해, 제1 이미지 시퀀스는 제1 인체 영역에 대해 수집된, 일정한 깊이 또는 3차원 공간 정보를 포함할 수 있는 복수의 2차원 이미지를 포함할 수 있다. 예를 들어, 제1 이미지 시퀀스는 후처리, 렌더링, 향상 등을 통해 3차원 형태로 구현될 수 있으나, 본 개시는 이에 한정되지 않는다. It will be appreciated that the images in the first image sequence differ from each other in at least one of a collection location, a collection depth, or a collection angle, which may mean that the image sequence includes images collected at different locations (e.g., different probe locations), images collected at the same location but at different imaging depths, and/or images collected at different angles, and/or combinations thereof. As a non-limiting example, the first image sequence may include one set of images collected at the same angle but at a different location or depth, and another set of images collected at essentially similar locations but at different angles, but the present disclosure is not limited thereto. It will be appreciated that this may mean that the first image sequence is capable of performing a three-dimensional representation of the first human body region. As a non-limiting example, the first image sequence may be a coronary CT angiogram (CTA), a CT venogram (CTV), a magnetic resonance angiogram (MRA), or any other image sequence capable of three-dimensional representation as understood by those skilled in the art. It can be appreciated that the first image sequence is a three-dimensional representation of the first human body region, and that the images in the first image sequence need not be three-dimensional images or have specific three-dimensional representation capabilities. In contrast, the first image sequence may include a plurality of two-dimensional images collected for the first human body region, which may include a predetermined depth or three-dimensional spatial information. For example, the first image sequence may be implemented in a three-dimensional form through post-processing, rendering, enhancement, etc., but the present disclosure is not limited thereto.

이 밖에, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 이러한 설명은 제2 이미지 시퀀스 중의 이미지의 수집 각도가 미리 정해진 임계값(예를 들어, 프로브의 흔들림 오차 임계값)을 만족한다는 것을 의미할 수 있음을 이해할 수 있다. 다시 말해서, 제2 이미지 시퀀스는 제1 인체 영역에 대한 시계열 2차원 이미지 시퀀스일 수 있으며, 예시적으로 사용자에게 해당 인체 영역 중의 일부 특징이 시간의 경과에 따른 변화를 도시하기 위해 사용될 수 있으며, 일반적으로 본 개시의 실시예에 따른 방법을 적용하기 전에는, 3차원 표현 능력을 구비하지 않는다. 예시적으로, 제2 이미지 시퀀스 중의 이미지는 또한 기본상 동일한 수집 위치 및/또는 수집 깊이(예를 들어, 동일한 수집 단면)를 가질 수 있다. 비한정적인 일례로서, 제2 이미지 시퀀스는 디지털 차감 혈관 조영술(DSA) 이미지일 수 있으나, 본 개시는 이에 한정되지 않는다. In addition, it can be understood that the images in the second image sequence have essentially the same acquisition angle, and this description may mean that the acquisition angle of the images in the second image sequence satisfies a predetermined threshold value (e.g., a shake error threshold value of the probe). In other words, the second image sequence may be a time-series two-dimensional image sequence of the first human body region, which may be used, for example, to illustrate to the user the change over time of some features in the human body region, and which generally does not have a three-dimensional expression capability before applying the method according to the embodiment of the present disclosure. In example, the images in the second image sequence may also have essentially the same acquisition position and/or acquisition depth (e.g., the same acquisition cross-section). As a non-limiting example, the second image sequence may be a digital subtraction angiography (DSA) image, although the present disclosure is not limited thereto.

본문 전체에서, “제1 이미지 시퀀스는 제1 인체 영역에 대한...” 및 “제2 이미지 시퀀스는 제1 인체 영역에 대한...”이라는 설명은 제1 이미지 시퀀스 및 제2 이미지 시퀀스가 정확히 동일한 이미징 또는 수집 범위를 갖는다는 것을 의미하지 않음을 이해할 수 있다. “제1 이미지 시퀀스는 제1 인체 영역에 대한...” 및 “제2 이미지 시퀀스는 제1 인체 영역에 대한...”이라는 설명은 심지어 제1 이미지 시퀀스 및 제2 이미지 시퀀스가 기본상 동일한 이미징 또는 수집 범위를 가질 것을 요구하지 않으며, 다만 제1 이미지 시퀀스가 해당 인체 영역 중의 토폴리지, 인체 조직, 인체 기관, 병소 등에 대한 충분한 정보를 포함하여, 제2 이미지 시퀀스 중의 특정 토폴리지, 인체 조직, 인체 기관, 병소, 조영제 등 데이터에 대한 3차원 데이터를 참조로서 생성하기만 하면 된다. 또 다른 예를 들어, 제1 이미지 시퀀스는 제1 인체 영역의 어느 한 공간 범위에 대해 수집될 수 있는 반면, 제2 이미지 시퀀스 중의 이미지는 상기 제1 인체 영역 중의 하나의 단면에만 위치할 수 있다. It will be appreciated that throughout the text, the statements “the first image sequence is for a first human body region…” and “the second image sequence is for a first human body region…” do not imply that the first image sequence and the second image sequence have exactly the same imaging or acquisition range. The statements “the first image sequence is for a first human body region…” and “the second image sequence is for a first human body region…” do not even require that the first image sequence and the second image sequence have essentially the same imaging or acquisition range, but only that the first image sequence includes sufficient information about the topology, human tissue, human organ, lesion, etc. of the human body region to generate three-dimensional data about the specific topology, human tissue, human organ, lesion, contrast agent, etc. data in the second image sequence by reference. As another example, the first image sequence may be acquired over a certain spatial range of the first human body region, while the images in the second image sequence may be located at only one cross-section of the first human body region.

이 밖에, 이해할 수 있는 것은, “관찰 각도”는 이미지의 시각(angle of view)을 의미할 수 있으며, 이미지가 위치한 2차원 평면의 방향, 법선 벡터의 방향 등으로 표기할 수 있다. 이미지가 직접 수집하여 획득된 이미지이거나 평면 처리만을 거친 이미지인 경우, 관찰 각도는 수집 각도와 같을 수 있다. 다른 경우에, 관찰 각도는 공간에서의 어느 한 특정 수집 각도에 대응할 수 있고, 관찰 각도는 이미지가 해당 각도에서 수집되지 않았을 수 있지만, 해당 각도로 수집 대상(예를 들어, 제1 인체 부위 또는 그 일부분)을 확인하는 것에 대응한다. In addition, it can be understood that the “view angle” can mean the angle of view of the image, and can be expressed as the direction of the two-dimensional plane on which the image is located, the direction of the normal vector, etc. If the image is an image acquired by direct collection or an image that has only undergone plane processing, the view angle can be the same as the collection angle. In other cases, the view angle can correspond to a certain specific collection angle in space, and the view angle corresponds to identifying the collection target (e.g., the first human body part or a part thereof) at the angle, even though the image may not have been collected at that angle.

일부 예에서, 제3 이미지 시퀀스는 복수의 업데이트 이미지를 포함할 수 있다. 비한정적인 일례로서, 제3 이미지 시퀀스는 하나의 세트의 업데이트 이미지를 포함할 수 있으며, 해당 업데이트 이미지 세트의 이미지 개수는 제2 이미지 시퀀스의 이미지 개수와 동일하다. 다시 말해서, 이러한 예에서, 제3 이미지 시퀀스는 제2 이미지 시퀀스의 모든 이미지를 업데이트한 시계열 이미지 시퀀스를 포함할 수 있다. 다른 예에서, 하나의 세트의 업데이트 이미지의 개수는 제2 이미지 시퀀스 중의 미리 정해진 조건을 만족하는 이미지 개수와 동일하고, 미리 정해진 조건은 미리 정해진 시간 간격의 이미지, 품질 요구사항을 만족하는 이미지, 몇 개의 이미지마다 선택된 하나의 이미지 프레임... 등의 예가 있으나 이에 한정되지 않는다. 다른 비한정적인 예로서, 제3 이미지 시퀀스는 복수의 세트의 업데이트 이미지를 포함할 수 있으며, 여기서, 각각의 업데이트 이미지 세트는 하나의 관찰 각도에 대응하며, 이로써, 상이한 각도에서 관찰한 복수의 시계열 시퀀스를 획득할 수 있다. 일부 예에서, 제3 이미지 시퀀스는 업데이트된 하나 또는 복수의 이미지, 하나 또는 복수의 이미지 세트 외에도, 제2 이미지 시퀀스 자체 또는 처리된 제2 이미지 시퀀스를 더 포함할 수 있다. 상술한 내용은 예시일 뿐, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. In some examples, the third image sequence may include multiple updated images. As a non-limiting example, the third image sequence may include a set of updated images, the number of images in the set of updated images being equal to the number of images in the second image sequence. In other words, in this example, the third image sequence may include a time-series image sequence that updates all images in the second image sequence. In another example, the number of updated images in the set is equal to the number of images in the second image sequence that satisfy a predetermined condition, and the predetermined condition may include, but is not limited to, images at a predetermined time interval, images satisfying a quality requirement, one image frame selected every several images, etc. As another non-limiting example, the third image sequence may include multiple sets of updated images, wherein each set of updated images corresponds to one observation angle, thereby obtaining multiple time-series sequences observed from different angles. In some examples, the third image sequence may further include, in addition to the updated one or more images, one or more sets of images, the second image sequence itself, or the processed second image sequence. It should be understood that the above is merely exemplary and the present disclosure is not limited thereto.

일부 실시예에 따르면, 제2 이미지 시퀀스 중의 이미지는 조영제 보조 이미징 이미지이다. In some embodiments, the images in the second image sequence are contrast-assisted imaging images.

본 개시에 따른 방법은 조영제 보조 이미징 이미지 시퀀스에 특히 유리하다. 한편으로, 조영제 이미징 이미지 시퀀스는 인체 내 조영제의 이동 상황을 관찰하기 위해 흔히 시간 순서에 따라 수집된 복수의 이미지를 필요로 하므로, 조영제의 증가 및 상이한 시점에서의 혈관 박동을 포함하여 시계열 상에서의 이미지의 변화가 특히 뚜렷하다. 다른 한편으로, 기존의 조영제 이미징 기기의 한계로 인해, 기존의 방법에 따라 2차원 이미지에서 3차원 이미지로의 재구성을 수행할 만큼의 충분히 많은 상이한 각도와 위치에서 충분히 많은 2차원 이미지를 수집하는데 어려운 경우가 많다. 적어도 위와 같은 이유로, 현재까지는 조영제 이미징 이미지 시퀀스에 대해 3차원화하는 방법 또는 제품이 없다. 이에 반해, 본 개시의 실시예에 따르면, 조영제 이미징 이미지의 3차원 보조 이미지를 생성할 수 있다. The method according to the present disclosure is particularly advantageous for contrast agent-assisted imaging image sequences. On the one hand, contrast agent imaging image sequences often require multiple images collected in time sequence to observe the movement of contrast agents in the human body, so that changes in the images over time, including the increase of contrast agents and vascular pulsation at different time points, are particularly evident. On the other hand, due to limitations of existing contrast agent imaging devices, it is often difficult to collect a sufficient number of two-dimensional images from sufficiently many different angles and positions to perform reconstruction from two-dimensional images to three-dimensional images using existing methods. For at least the above reasons, there has been no method or product for three-dimensionalizing contrast agent imaging image sequences to date. In contrast, according to embodiments of the present disclosure, a three-dimensional auxiliary image of a contrast agent imaging image can be generated.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계는, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직과, 상기 제2 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직 사이의 대응관계를 결정하는 단계; 및 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계를 포함한다. In some embodiments, the step of generating a third image sequence based on the first image sequence and the second image sequence comprises: determining, based on the first image sequence and the second image sequence, a correspondence between at least one human organ, part or tissue in the first human body region appearing in at least one image of the first image sequence and at least one human organ, part or tissue in the first human body region appearing in at least one image of the second image sequence; and generating the third image sequence based on the correspondence, the first image sequence and the second image sequence.

이러한 실시예에 따르면, 대응관계에 기반하여 3차원인 제1 이미지 시퀀스를 기초로, 제2 이미지 시퀀스에 기반한, 상이한 관찰 각도의 이미지를 쉽게 생성함으로써, 3차원 시각 보조 또는 3차원 재구성을 구현할 수 있다. According to these embodiments, it is possible to implement three-dimensional visual assistance or three-dimensional reconstruction by easily generating images of different observation angles based on a second image sequence based on a three-dimensional first image sequence based on a correspondence relationship.

이해할 수 있는 것은, 본문 전체에서, “기관”, “조직”, “인체 부위” 등 용어의 사용은 엄밀한 의학적 의미로 한정되지 않으며, 예를 들어, 하나 또는 복수의 기관의 집합, 하나 또는 복수의 조직의 집합, 기관의 일부분, 조직의 일부분을 의미하며, 인체 부위 또는 인체 부분으로 이해될 수 있는 가장 광범위한 의미를 포함하도록 의도된다. 예를 들어, 내장 기관 또는 그 일부분, 병변 조직 또는 그 일부분, 작은 세그먼트 혈관, 여러 개의 혈관으로 구성된 토폴리지 등은 모두 인체 부위로 지칭될 수 있으며, 본 개시는 이에 한정되지 않는다. It should be understood that the use of the terms “organ,” “tissue,” “body part,” etc., throughout the text, is not limited to a strict medical meaning, but means, for example, a collection of one or more organs, a collection of one or more tissues, a portion of an organ, a portion of a tissue, and is intended to include the broadest meaning that can be understood as a human body part or human body part. For example, an internal organ or a portion thereof, a lesion tissue or a portion thereof, a small segment blood vessel, a topology composed of multiple blood vessels, etc., can all be referred to as a human body part, and the present disclosure is not limited thereto.

하나의 예로서, 제2 이미지 시퀀스 중의 혈관 세그먼트 영역, 형태, 조영제 수치 및 다른 파라미터를 제1 이미지 시퀀스의 3차원 토폴리지 구조에서 대응되는 혈관 세그먼트 영역에 매핑시킴으로써, 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스 중의 적어도 하나의 이미지를 생성할 수 있다. 예를 들어, 상기 제1 이미지 시퀀스에서 상기 제2 이미지 시퀀스 중의 대응되는 이미지와 상이한 관찰 각도를 갖는 이미지에 기반하거나, 제1 이미지 시퀀스의 3차원 표현을 상기 제2 이미지 시퀀스 중의 대응되는 이미지와 상이한 관찰 각도를 갖는 이미지에 매핑시킴으로써, 해당 2차원 뷰 중의 토폴리지에 기반하여 제3 이미지 시퀀스 중의 대응되는 이미지를 생성할 수 있다. 다른 예로서, 생성된 제3 이미지 시퀀스는 제1 이미지 시퀀스에 비해 더 간단한 토폴리지를 가질 수 있다. 예를 들어, 제2 이미지 시퀀스에는 2차원 평면에서 교차하는 두 개의 혈관이 존재하고, 본 개시의 방법은 상기 제1 이미지 시퀀스를 이용하여, 제2 이미지 시퀀스의 대응되는 이미지의 2차원 평면에서 이 두 혈관을 구분하는 단계를 포함할 수 있으며, 따라서, 3차원화의 목적을 달성한다. 이러한 예에서, 제1 이미지 시퀀스와 완전히 일치하는 혈관 토폴리지를 생성할 필요가 없을 수 있다. 당업자가 이해할 수 있는 다른 이미지 생성 또는 3차원 재구성 방식도 사용될 수 있으며, 본 개시는 이에 한정되지 않는다. 하나의 예로서, 아래에서 추가로 설명되는 바와 같이, 이미지에 존재하는 교차, 중첩, 차단 등을 보상하기 위해, 제2 이미지 시퀀스에서 대응되는 이미지의 토폴리지 구조가 업데이트되도록, 적어도 하나의 업데이트 이미지의 관찰 각도가 선택될 수 있다.As an example, by mapping the vessel segment area, shape, contrast agent level and other parameters in the second image sequence to the corresponding vessel segment area in the three-dimensional topology structure of the first image sequence, at least one image in the third image sequence can be generated based on the correspondence, the first image sequence and the second image sequence. For example, based on an image in the first image sequence having a different viewing angle from the corresponding image in the second image sequence, or by mapping a three-dimensional representation of the first image sequence to an image having a different viewing angle from the corresponding image in the second image sequence, the corresponding image in the third image sequence can be generated based on the topology in the two-dimensional view. As another example, the generated third image sequence can have a simpler topology than the first image sequence. For example, if there are two blood vessels intersecting in a two-dimensional plane in the second image sequence, the method of the present disclosure may include a step of distinguishing the two blood vessels in a two-dimensional plane of a corresponding image of the second image sequence using the first image sequence, thereby achieving the goal of three-dimensionalization. In such an example, it may not be necessary to generate a blood vessel topology that is completely identical to the first image sequence. Other image generation or three-dimensional reconstruction methods understood by those skilled in the art may also be used, and the present disclosure is not limited thereto. As one example, as further described below, the viewing angle of at least one updated image may be selected such that the topology structure of the corresponding image in the second image sequence is updated to compensate for intersection, overlap, occlusion, and the like present in the images.

또 다른 예로서, 대응되는 이미지에 존재하는 병소 또는 비정상 영역의 각도, 위치, CT값 정보 등에 따라 제3 이미지 시퀀스 중의 업데이트 이미지의 각도, 치수(윈도우 폭), 위치(윈도우 위치) 등을 선택할 수 있다. As another example, the angle, dimension (window width), position (window position), etc. of the update image in the third image sequence can be selected based on the angle, position, CT value information, etc. of the lesion or abnormal area present in the corresponding image.

이러한 예에서, 본 개시의 방법은 제1 이미지 시퀀스 및 제2 이미지 시퀀스 중의 적어도 하나를 처리하여, 그 중의 병소 또는 비정상 영역을 식별하는 단계를 포함할 수 있다. 예를 들어, 본 개시의 방법은 제1 이미지 시퀀스를 처리하여 그 중의 병소 또는 비정상 영역을 식별하는 단계를 포함할 수 있고, 또한 예를 들어, 두 이미지에 의해 확립된 대응관계에 기반하여, 식별된 병소 또는 비정상 영역을 제2 이미지 시퀀스의 적어도 하나의 이미지 중의 대응되는 위치에 투영한다. 또 다른 예를 들어, 본 개시의 방법은 제2 이미지 시퀀스를 처리하여 그 중의 병소 또는 비정상 영역을 식별하는 단계를 포함할 수 있다. 본 개시의 방법은 제1 이미지 시퀀스 및 제2 이미지 시퀀스를 조합하여 처리하는 단계를 포함할 수 있고, 또한 예시적으로 양자로부터 각각 추출된 병소 또는 비정상 데이터에 대해 상호 검증, 조합, 보완 등을 수행할 수 있다. 다른 예에서, 획득된 제1 이미지 시퀀스 및 제2 이미지 시퀀스 중의 적어도 하나는 사전 처리되거나 사전 식별된 병소 또는 비정상 정보를 가질 수 있고, 본 개시의 방법은 이러한 정보에 기반하여 업데이트 이미지를 생성하는 단계를 포함할 수 있으며, 추가 처리 단계가 필요하지 않다.In such an example, the method of the present disclosure may include a step of processing at least one of the first image sequence and the second image sequence to identify a lesion or abnormal region therein. For example, the method of the present disclosure may include a step of processing the first image sequence to identify a lesion or abnormal region therein, and further, for example, based on a correspondence established by the two images, projecting the identified lesion or abnormal region onto a corresponding location in at least one image of the second image sequence. For another example, the method of the present disclosure may include a step of processing the second image sequence to identify a lesion or abnormal region therein. The method of the present disclosure may include a step of combining and processing the first image sequence and the second image sequence, and further, for example, performing cross-verification, combination, supplementation, etc. on lesion or abnormality data extracted from each of the two. In another example, at least one of the acquired first image sequence and the acquired second image sequence may have pre-processed or pre-identified lesion or abnormality information, and the method of the present disclosure may include a step of generating an updated image based on such information, without requiring additional processing steps.

하나 또는 복수의 예에 따르면, 본 개시의 방법은 식별되거나 사전 식별된 병소 또는 비정상 영역을 더 잘 표시할 수 있도록 적어도 하나의 업데이트 이미지를 생성하는 단계를 포함할 수 있다. 예를 들어, 병소 또는 비정상 영역 단면을 최대화하는 관찰 각도를 선택하여 업데이트 이미지를 생성할 수 있으며, 업데이트 이미지의 치수, 중심 위치를 조정하여 병소 또는 비정상 영역이 이미지의 중간 또는 관찰자가 확인할 수 있는 다른 위치 등에 표시되도록 할 수 있다. 다른 예로서, 병소 또는 비정상 정보의 형태, 크기, 복잡도, 심각도에 기반하여 생성된 업데이트 이미지의 개수, 해상도 등을 조정할 수 있다. 예를 들어, 식별된 병소가 높은 중요도 레벨(예를 들어, 더 심각한 병변과 관련됨), 복잡한 형태 및/또는 작은 치수를 가지는 경우, 병변 영역에 대해 두 개 이상의 관찰 각도의 이미지를 생성하거나, 더 높은 해상도, 더 정밀한 이미지를 생성할 수 있다.According to one or more examples, the method of the present disclosure may include the step of generating at least one update image to better display the identified or pre-identified lesion or abnormal region. For example, the update image may be generated by selecting a viewing angle that maximizes the cross-section of the lesion or abnormal region, and the dimensions, center location of the update image may be adjusted so that the lesion or abnormal region appears in the middle of the image or at another location that can be identified by the observer. As another example, the number, resolution, etc. of the generated update images may be adjusted based on the shape, size, complexity, and severity of the lesion or abnormality information. For example, when the identified lesion has a high importance level (e.g., associated with a more severe lesion), a complex shape, and/or small dimensions, images of two or more viewing angles for the lesion region may be generated, or a higher resolution, more precise image may be generated.

하나 또는 복수의 실시예에 따라, 식별된 병소 및 다른 정보에 기반하여 제3 이미지의 각도, 개수, 해상도 등을 지능적으로 선택하여, 생성된 제3 이미지가 병소 또는 비정상 영역의 정보를 더 잘 표시하는데 유리하도록 할 수 있다.According to one or more embodiments, the angle, number, resolution, etc. of the third image can be intelligently selected based on the identified lesion and other information, so that the generated third image is advantageous in better displaying information of the lesion or abnormal area.

도 3a 내지 도 3b를 참조하여 본 개시에 따른 보다 구체적인 비한정적인 예를 설명한다. 도 3a에 도시된 바와 같이, 복수의 이미지의 제2 이미지 시퀀스(미도시) 중의 어느 이미지(310)가 도시되고, 혈관(311, 312, 313, 314)이 도시되며, 또한, 혈관(313)과 혈관(314)은 해당 이미지(310)의 2차원 평면에서 교차가 존재한다.A more specific non-limiting example according to the present disclosure will be described with reference to FIGS. 3A and 3B. As illustrated in FIG. 3A, an image (310) of a second image sequence (not illustrated) of a plurality of images is illustrated, a blood vessel (311, 312, 313, 314) is illustrated, and further, the blood vessel (313) and the blood vessel (314) have an intersection in a two-dimensional plane of the image (310).

도 3b는 이미지(310)에 기반하여 생성된 제3 이미지 시퀀스 중의 대응되는 이미지(320)이다. 제3 이미지 시퀀스가 3차원 데이터 포맷을 사용하는 경우, 이미지(320)는 제3 이미지 시퀀스의 대응되는 하나의 2차원 투영일 수도 있으며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. 도 3b에 도시된 바와 같이, 복수의 이미지를 포함할 수 있는 제2 이미지 시퀀스 중의 어느 이미지(320)가 도시되고, 도 3a의 혈관(311, 312, 313, 314)에 각각 대응할 수 있는 혈관(321, 322, 323, 324)이 도시된다. 도 3b의 도면에서, 혈관(323)과 혈관(324)은 해당 이미지(320)의 2차원 평면에서 더 이상 교차하지 않는다.FIG. 3b is a corresponding image (320) of a third image sequence generated based on the image (310). If the third image sequence uses a three-dimensional data format, the image (320) may also be a corresponding one two-dimensional projection of the third image sequence, and it can be understood that the present disclosure is not limited thereto. As illustrated in FIG. 3b, any image (320) of a second image sequence that may include a plurality of images is illustrated, and blood vessels (321, 322, 323, 324) that may correspond to blood vessels (311, 312, 313, 314) of FIG. 3a, respectively, are illustrated. In the drawing of FIG. 3b, blood vessels (323) and blood vessels (324) no longer intersect in the two-dimensional plane of the corresponding image (320).

하나의 예로서, 본 개시의 실시예에 따른 방법은 이미지(310)에서 교차가 존재하는 혈관에 기반하여, 그 중의 대응되는 혈관이 더 이상 교차하지 않는 각도(예를 들어, 이미지(320)의 각도)를 결정하고, 사용자가 확인하도록 이미지(320)를 생성 및 나타낸다. 예시적으로, 결정된 각도에 기반하여, 이미지(320)를 포함하는 시계열 상의 이미지 시퀀스(미도시)를 생성하여, 해당 혈관이 교차가 존재하지 않는 각도에서 조영제가 인체 혈관에서의 변화를 완전하게 나타낸다. 예를 들어, 생성된 이미지 시퀀스는 제2 이미지와 동일한 시간 범위, 개수 등을 가질 수 있다. 이 경우, 제3 이미지 시퀀스는 생성된 새로운 2차원 이미지 시퀀스를 의미할 수 있으며, 2차원 이미지 시퀀스의 형태를 사용할 수 있으나, 제2 이미지 시퀀스의 상이한 시각의 정보를 제공할 수 있다. 일부 경우에, 제3 이미지 시퀀스는 시계열 3차원 정보를 제공할 수 있고, 따라서 제2 이미지 시퀀스의 3차원 표현으로 지칭될 수 있으나, 본 개시는 이에 한정되지 않는다. 다른 하나의 예로서, 제3 이미지 시퀀스는 제2 이미지 시퀀스 및 생성된 새로운 각도의 이미지 시퀀스의 조합을 포함할 수 있으며, 이러한 제3 이미지 시퀀스는 적어도 하나의 수집 시점에서 인체 영역에 대해 적어도 두 개의 각도의 이미지를 가진다. 다른 예에서, 하나 이상의 각도가 결정될 수 있고, 하나 이상의 이미지(또는, 하나 이상의 이미지 시퀀스)가 생성될 수 있으며, 제3 이미지 시퀀스는 생성된 이미지 또는 이미지 시퀀스를 포함할 수 있으며, 본 개시는 이에 한정되지 않는다. As an example, a method according to an embodiment of the present disclosure determines an angle (e.g., an angle of the image (320)) at which a corresponding blood vessel no longer intersects based on a blood vessel in which an intersection exists in the image (310), and generates and displays the image (320) for a user to confirm. By way of example, a time-series image sequence (not shown) including the image (320) is generated based on the determined angle, so that the contrast agent completely represents a change in a human blood vessel at an angle at which the corresponding blood vessel does not intersect. For example, the generated image sequence may have the same time range, number, etc. as the second image. In this case, the third image sequence may mean a new two-dimensional image sequence generated, and may use the form of the two-dimensional image sequence, but may provide information of a different viewpoint of the second image sequence. In some cases, the third image sequence may provide time-series three-dimensional information, and thus may be referred to as a three-dimensional representation of the second image sequence, but the present disclosure is not limited thereto. As another example, the third image sequence can include a combination of the second image sequence and the generated new angle image sequence, wherein the third image sequence has images of at least two angles of the human body region at at least one collection point. In another example, one or more angles can be determined, one or more images (or one or more image sequences) can be generated, and the third image sequence can include the generated images or image sequences, and the present disclosure is not limited thereto.

다른 하나의 예로서, 본 개시의 실시예에 따른 방법은 제1 이미지 시퀀스 및 제2 이미지 시퀀스에 기반하여, 제2 이미지 시퀀스 중의 적어도 하나의 시점에 대해 3차원 영상을 생성(즉, 제2 이미지 시퀀스 중의 복수의 이미지 또는 각각의 이미지에 대해 3차원 영상을 생성)하는 단계를 포함할 수 있다. 따라서, 사용자는 드래그, 회전 등 작업을 통해, 제2 이미지 시퀀스 중의 적어도 하나의 시점, 심지어 모든 시점의 이미지에 대해 상이한 각도에서의 관찰을 수행한다. 이러한 예에서, 이미지(310, 320)는 사용자에 의해 선택된 특정 각도에서 나타낸 뷰일 수 있으며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.As another example, a method according to an embodiment of the present disclosure may include a step of generating a three-dimensional image for at least one viewpoint in the second image sequence (i.e., generating a three-dimensional image for a plurality of images or each image in the second image sequence) based on the first image sequence and the second image sequence. Accordingly, a user performs observations from different angles for images of at least one viewpoint, or even all viewpoints, in the second image sequence, by operations such as dragging, rotating, etc. In this example, it can be understood that the images (310, 320) may be views shown from specific angles selected by the user, and the present disclosure is not limited thereto.

일부 예에서, 사용자에게 조영제 농도 값을 시각적으로 나타낼 수 있다. 도 3c를 참조하면, 수집된 제2 이미지 시퀀스 중의 하나의 이미지의 국부 이미지(330)를 도시하며, 여기서 혈관(331) 및 혈관(332)은 교차가 존재한다. 이미지(330)에서, 상이한 깊이로 영역(3311, 3312, 3321, 3322, 333)의 조영제의 농도를 나타낸다. 이해할 수 있는 것은, 이러한 2차원 이미지에서, 수집된 교차 영역(333)의 조영제 농도는 두 혈관(331) 및 혈관(332) 양자의 조영제 농도 값의 중첩이 된다. 이 밖에, 도면에서 각 영역의 밀도를 음영으로 나타내었으나, 도면은 예시일 뿐이며, 상이한 영역의 농도는 색상, 명암, 깊이, 그라데이션, 수치, 수치 범위, 레벨 등 다양한 형태로 표시할 수 있으며, 상이한 영역 간의 농도는 서로 같을 수 있거나, 동일한 영역에서의 상이한 위치의 농도는 상이할 수 있으며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.In some examples, the contrast agent concentration values can be visually presented to the user. Referring to FIG. 3c, a local image (330) of one of the collected second image sequences is illustrated, where a blood vessel (331) and a blood vessel (332) intersect. In the image (330), the contrast agent concentrations of regions (3311, 3312, 3321, 3322, 333) at different depths are presented. It can be understood that in this two-dimensional image, the contrast agent concentration of the collected intersecting region (333) is a superposition of the contrast agent concentration values of both the blood vessels (331) and the blood vessel (332). In addition, although the density of each area is indicated by shading in the drawing, the drawing is only an example, and the density of different areas can be expressed in various forms such as color, brightness, depth, gradation, numerical value, numerical range, level, etc., and the density between different areas can be the same, or the density at different locations in the same area can be different, and it can be understood that the present disclosure is not limited thereto.

계속하여 도 3d를 참조하면, 본 개시의 하나 또는 복수의 실시예에 따르면, 제2 이미지 시퀀스에 기반한, 상이한 관찰 각도의 이미지를 생성함으로써, 국부 이미지(340)를 포함하는 이미지 또는 이미지 시퀀스를 생성할 수 있다. 이미지(340)에서의 혈관(341) 및 혈관(342)은 이미지(330)에서의 혈관(331) 및 혈관(332)에 각각 대응할 수 있으며, 이미지(340)의 각도는 혈관(341) 및 혈관(342)으로 하여금 더 이상 교차하지 않도록 한다. 이러한 예에서, 영역(3411, 3412, 3413, 3421, 3422, 3423)의 조영값 농도를 각각 계산하고, 패턴, 음영, 명암, 색상, 수치 등을 포함하지만 이에 한정되지 않는 임의의 원하는 방식으로 표시될 수 있다. 영역(3411, 3412, 3421, 3422)은 제2 이미지 시퀀스 중의 영역(3311, 3312, 3321, 3322)에 각각 대응하며, 이로부터 농도 값을 획득할 수 있으며, 예를 들어, 직접 획득하거나, 또는 각도, 혈관 형태의 변경에 기반하여 조정한다. 영역(3413) 및 영역(3423)의 농도는 영역(333)의 농도를 통해 획득될 수 있으며, 예를 들어, 교차 부분의 농도에서 비교차 부분의 인접한 영역의 농도를 종합적으로 감하여 결정되거나, 시뮬레이션 계산, 신경망 분석 등을 포함하되 이에 한정되지 않는 다른 방법을 통해 획득된다. 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.Referring still to FIG. 3D , according to one or more embodiments of the present disclosure, an image or image sequence including a local image (340) may be generated by generating images of different viewing angles based on a second image sequence. The blood vessels (341) and the blood vessels (342) in the image (340) may respectively correspond to the blood vessels (331) and the blood vessels (332) in the image (330), and the angles of the image (340) cause the blood vessels (341) and the blood vessels (342) to no longer intersect. In this example, the contrast value intensities of the regions (3411, 3412, 3413, 3421, 3422, 3423) may be respectively calculated and displayed in any desired manner including but not limited to a pattern, a shade, a contrast, a color, a number, and the like. Regions (3411, 3412, 3421, 3422) correspond to regions (3311, 3312, 3321, 3322) in the second image sequence, respectively, and the density values can be obtained therefrom, for example, obtained directly, or adjusted based on changes in angle and blood vessel shape. The density of regions (3413) and (3423) can be obtained through the density of region (333), for example, determined by comprehensively subtracting the density of adjacent regions of non-intersecting portions from the density of intersecting portions, or obtained through other methods including but not limited to simulation calculations, neural network analysis, etc. It will be understood that the present disclosure is not limited thereto.

도 3a 내지 도 3d는 교차 혈관의 존재 여부를 중심으로 본 개시의 실시예의 일부 구체적인 예를 설명하였으나, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. 본 개시는 3차원 이미지 시퀀스에 기반하여 2차원 이미지 시계열 시퀀스에 대해 적어도 하나의 다른 각도의 이미지를 참조로서 생성하여, 시각적 보조 또는 3차원 재구성의 효과를 달성할 수 있으며, 이러한 기술적인 목적은 제2 이미지 시퀀스 중의 이미지에 반드시 혈관 교차가 존재할 것을 요구하지 않으며, 생성된 업데이트 이미지에 반드시 혈관 교차가 존재하지 않을 것도 요구하지 않으며, 사용자(예를 들어, 의사, 진단자)가 인체 영역의 혈관 형태, 조영제 농도 등을 보다 편리하게 확인할 수 있도록 상이한 관찰 각도의 이미지를 생성하기만 하면 된다. Although FIGS. 3A to 3D have described some specific examples of embodiments of the present disclosure focusing on the presence or absence of crossing blood vessels, it can be understood that the present disclosure is not limited thereto. The present disclosure can achieve the effect of visual assistance or three-dimensional reconstruction by generating at least one different angle image for a two-dimensional image time series sequence based on a three-dimensional image sequence, and this technical purpose does not necessarily require that a blood vessel crossing exists in an image among the second image sequence, and does not necessarily require that a blood vessel crossing does not exist in the generated updated image, and only needs to generate images of different observation angles so that a user (e.g., a doctor, a diagnostician) can more conveniently check the blood vessel shape, contrast agent concentration, etc. of a human body area.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 하나 또는 복수의 식별된 혈관 세그먼트 영역을 포함하며, 상기 식별된 혈관 세그먼트 영역은 상응하는 명명을 가지며; 상기 대응관계는 상기 제1 이미지 시퀀스의 상기 적어도 하나의 이미지에서 상기 식별된 혈관 세그먼트 영역으로부터 상기 제2 이미지 시퀀스의 상기 적어도 하나의 이미지에서 적어도 하나의 혈관 세그먼트 영역까지의 명명 매핑이다.In some embodiments, at least one image of the first image sequence includes one or more identified vascular segment regions, wherein the identified vascular segment regions have corresponding names; and the correspondence is a naming mapping from the identified vascular segment regions in the at least one image of the first image sequence to at least one vascular segment region in the at least one image of the second image sequence.

이러한 실시예에 따르면, 제1 이미지 시퀀스에서 식별된 정보를 효과적으로 이용할 수 있으므로, 제2 이미지 시퀀스의 변환된 시각의 표현 형태를 편리하게 획득할 수 있다. 예를 들어, 관련 분야에서, 각 혈관의 명명을 제공할 수 있는 CTA 이미지의 프레젠테이션 방안이 이미 존재한다. 따라서, 해당 명명에 대응하는 혈관의 3차원 공간 범위를 추가로 획득할 수 있으며, 명명을 이용하여 제1 이미지 시퀀스를 시계열적으로 수집된(예를 들어, 조영제 이미징된 것이지만 이에 한정되지 않음) 제2 이미지 시퀀스에 매핑한다. 일부 비한정적인 예로서, CTA 또는 MRA를 통해 수집된 이미지는 식별된 혈관 명칭 RCA, LM, LCX, LAD 등을 포함할 수 있으며, 이러한 명명을 통해, 대응되는 제2 이미지 시퀀스(예를 들어, DSA 영상이지만 이에 한정되지 않음) 중 대응되는 하나 또는 복수의 혈관을 식별할 수 있으며, 이로써, 상이한 형태의 이미지 시퀀스 간의 매핑을 완료한다.According to these embodiments, since the information identified in the first image sequence can be effectively utilized, the transformed visual representation form of the second image sequence can be conveniently acquired. For example, in the related art, there already exists a presentation scheme of a CTA image which can provide a name of each blood vessel. Accordingly, a three-dimensional spatial range of a blood vessel corresponding to the name can be additionally acquired, and the name is used to map the first image sequence to a second image sequence collected in time series (for example, but not limited to, contrast agent imaging). As some non-limiting examples, the image collected via CTA or MRA can include the identified blood vessel name RCA, LM, LCX, LAD, etc., and through such a name, a corresponding one or more blood vessels in the corresponding second image sequence (for example, but not limited to, DSA images) can be identified, thereby completing the mapping between image sequences of different forms.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 식별된 병소 영역을 포함하고, 여기서, 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계는, 상기 대응관계에 기반하여, 상기 제3 이미지 시퀀스의 적어도 하나의 이미지에서, 상기 식별된 병소 영역에 대응하는 이미지 부분을 생성하는 단계를 포함한다.In some embodiments, at least one image of the first image sequence includes an identified lesion region, and wherein the step of generating the third image sequence based on the correspondence, the first image sequence and the second image sequence comprises the step of generating, based on the correspondence, an image portion in at least one image of the third image sequence, corresponding to the identified lesion region.

이러한 실시예에서, 생성된 제3 이미지 시퀀스는 사용자가 제1 이미지 시퀀스의 식별된 병소와 제2 이미지 시퀀스의 시계열 상황을 함께 관찰하는 것을 용이하게 한다. 특히, 사용자는 시계열적으로, 3차원적으로(예를 들어, 적어도 두 개의 각도에서) 시간에 따라 변화하는 제2 이미지 시퀀스를 확인할 수 있으므로, 사용자가 수집 결과를 확인하는 것을 용이하게 하며, 예를 들어, 상이한 이미지 시퀀스를 반복적으로 건너뛰어 확인 및 비교할 필요가 없다. 예를 들어, 이러한 표현 방식은 보다 정확한 진단을 내리는 데 도움이 된다. 하나의 예로서, 식별된 병소는 식별된 CTA 플라크일 수 있으나, 본 개시는 이에 한정되지 않는다. 예를 들어, 제2 이미지 시퀀스가 조영제 보조 이미징 시퀀스인 경우, 생성된 제3 이미지 시퀀스는 사용자가 병소와 조영제 상황을 함께 관찰하는 것을 용이하게 할 수 있으며, 특히, 사용자는 시계열적으로 또한 적어도 두 개의 각도에서 조영제의 시간에 따른 변화를 확인할 수 있으며, 병소 형태와 결합하여 조영제의 시간에 따른 변화를 확인할 수 있으나, 본 개시는 이에 한정되지 않는다.In this embodiment, the generated third image sequence facilitates the user to view the identified lesion of the first image sequence and the time-series context of the second image sequence together. In particular, the user can view the second image sequence that changes over time in a time-series manner and in three dimensions (e.g., from at least two angles), thereby facilitating the user to view the collection results, and for example, without the need to repeatedly skip through different image sequences to view and compare them. For example, this representation helps to make a more accurate diagnosis. As an example, the identified lesion may be an identified CTA plaque, but the present disclosure is not limited thereto. For example, when the second image sequence is a contrast-assisted imaging sequence, the generated third image sequence facilitates the user to view the lesion and the contrast context together, and in particular, the user can view the time-series variation of the contrast agent from at least two angles, and can view the time-series variation of the contrast agent in combination with the lesion shape, but the present disclosure is not limited thereto.

일부 실시예에 따르면, 상기 대응관계를 결정하는 단계는, 상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계; 상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계; 및 상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계를 포함한다. In some embodiments, the step of determining the correspondence comprises: determining a reference image among the second image sequence; obtaining a reference two-dimensional view of the first image sequence based on the reference image; and determining the correspondence based on the reference two-dimensional view and the reference image.

이러한 실시예에 따르면, 시계열 이미지 시퀀스로부터 하나의 이미지를 참조로서 결정하고, 제1 이미지 시퀀스에 기반하여 하나의 2차원 이미지를 기준 뷰로서 결정하며, 참조 이미지와 기준 뷰를 비교함으로써, 두 개의 이미지 시퀀스에서 혈관에 대응하는 대응관계(예를 들어, 명명 대응관계 등)를 획득할 수 있다. 따라서, 상이한 데이터 포맷의 두 이미지 시퀀스 간의 매핑 관계를 간단하고 정확하게 확립할 수 있다. 예를 들어, 참조 이미지 및 기준 뷰 간의 매핑 관계를 확립한 이후, 기준 이미지 및 제2 이미지 시퀀스 중의 다른 이미지 간의 매핑 관계 또는 대응관계를 확립할 수 있다.According to this embodiment, one image is determined as a reference from a time-series image sequence, one two-dimensional image is determined as a reference view based on a first image sequence, and by comparing the reference image and the reference view, a correspondence relationship (e.g., a naming correspondence relationship, etc.) corresponding to blood vessels in the two image sequences can be obtained. Therefore, a mapping relationship between two image sequences of different data formats can be simply and accurately established. For example, after the mapping relationship between the reference image and the reference view is established, a mapping relationship or correspondence relationship between the reference image and other images in the second image sequence can be established.

예시적으로, 상기 참조 이미지에 기반하여 획득된 상기 제1 이미지 시퀀스의 기준 2차원 뷰는 상기 기준 2차원 뷰가 상기 키 이미지 프레임과 기본상 동일한 각도(예를 들어, 정확히 동일하거나 임계값 범위 내에서의 편차 각도)를 갖도록 할 수 있다. 기준 2차원 뷰는 제1 이미지 시퀀스에 포함된 이미지 중 어느 이미지일 수 있다. 또는, 제1 이미지 시퀀스에 기반하여 생성된 3차원 공간 데이터를 어느 2차원 평면에 투영하여, 해당 기준 2차원 뷰를 획득할 수 있다. For example, a reference two-dimensional view of the first image sequence acquired based on the reference image may be such that the reference two-dimensional view has essentially the same angle (e.g., exactly the same or a deviation angle within a threshold range) as the key image frame. The reference two-dimensional view may be any image included in the first image sequence. Alternatively, the reference two-dimensional view may be acquired by projecting three-dimensional spatial data generated based on the first image sequence onto any two-dimensional plane.

상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 결정된 상기 대응관계는 기준 2차원 뷰와 참조 이미지 중 혈관의 형태에 기반하여 획득될 수 있다. 하나의 예로서, 참조 이미지는 키 이미지 프레임이라고도 지칭될 수 있다. 하나 또는 복수의 판단 표준에 기반하여 참조 이미지를 결정할 수 있으며, 일부 예는 아래에서 설명된다.The above correspondence relationship determined based on the above reference two-dimensional view and the above reference image can be obtained based on the shape of the blood vessel among the reference two-dimensional view and the reference image. As an example, the reference image can also be referred to as a key image frame. The reference image can be determined based on one or more judgment criteria, and some examples are described below.

일부 실시예에 따르면, 상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계는, 상기 제2 이미지 시퀀스의 수집 각도에 기반하여 상기 기준 2차원 뷰를 획득하는 단계를 포함한다.In some embodiments, the step of obtaining a reference two-dimensional view of the first image sequence based on the reference image comprises the step of obtaining the reference two-dimensional view based on a collection angle of the second image sequence.

이러한 실시예에 따르면, 제2 이미지 시퀀스의 수집 각도를 직접 획득하거나 간접적으로 계산함으로써 제1 이미지 시퀀스의 기준 2차원 뷰를 획득할 수 있다. 예를 들어, 일부 수집 장치의 경우, 또는 일부 수집 파라미터 설정 하에서, 제1 이미지 시퀀스의 3차원 공간에서의 각도에 대응하는 현실 세계에서의 각도가 알려져 있고, 및/또는, 제2 이미지 시퀀스의 수집 각도가 알려져 있다. 또는, 이미지 데이터에 기반하여 이러한 수집 각도를 결정할 수 있으며, 예를 들어, 이미지에서의 특정 인체 기관, 조직의 위치 및 방향을 통해, 광원의 위치 등을 기반으로, 이미지 데이터로부터 수집 각도를 계산한다.According to these embodiments, it is possible to obtain a reference two-dimensional view of the first image sequence by directly obtaining or indirectly calculating a capture angle of the second image sequence. For example, for some capture devices, or under some capture parameter settings, an angle in the real world corresponding to an angle of the first image sequence in three-dimensional space is known, and/or the capture angle of the second image sequence is known. Alternatively, such capture angle can be determined based on the image data, for example, by calculating the capture angle from the image data based on the location and orientation of a specific human body organ, tissue in the image, the location of a light source, etc.

이해할 수 있는 것은, 상기 기준 2차원 뷰를 획득하는 단계는, 제1 이미지 시퀀스로부터 제2 이미지 시퀀스의 수집 각도와 대응되거나, 근접하거나 일정한 각도 범위 내에 있는 이미지를 선택하는 단계를 포함할 수 있으나, “상기 기준 2차원 뷰를 획득한다”라는 설명은 기준 2차원 뷰가 최초 수집된 제1 이미지 시퀀스 중의 하나의 이미지여야 함을 요구하지 않는다. 앞에서 이미 언급한 바와 같이, 일부 예에서, 제1 이미지 시퀀스에 기반하여 풀 각도의 3차원 공간 데이터를 생성할 수 있으며, 이로써 획득된 기준 2차원 뷰는 이러한 3차원 공간 데이터가 어느 한 각도에서의 2차원 투영도일 수 있다.It should be understood that the step of acquiring the reference two-dimensional view may include the step of selecting an image from the first image sequence that corresponds to, is close to, or is within a certain angular range of the capture angle of the second image sequence, but the description of “acquiring the reference two-dimensional view” does not require that the reference two-dimensional view be one image from the initially collected first image sequence. As previously mentioned, in some examples, full-angle three-dimensional spatial data can be generated based on the first image sequence, and the reference two-dimensional view acquired thereby can be a two-dimensional projection of such three-dimensional spatial data at one angle.

일부 실시예에 따르면, 상기 제1 이미지 시퀀스에 기반하여 복수의 상이한 관찰 각도를 갖는 복수의 관찰뷰를 획득하는 단계; 및 상기 참조 이미지와 비교하여, 상기 복수의 관찰뷰로부터 상기 기준 2차원 뷰를 결정하는 단계를 포함한다. According to some embodiments, the method comprises: obtaining a plurality of observation views having a plurality of different observation angles based on the first image sequence; and determining the reference two-dimensional view from the plurality of observation views by comparing them with the reference image.

이러한 실시예에 따르면, 제1 이미지 시퀀스의 복수의 관찰뷰와 제2 이미지 시퀀스(구체적으로, 제2 이미지 시퀀스의 참조 뷰)를 비교하여, 제1 이미지 시퀀스 또는 제2 이미지 시퀀스의 수집 각도의 획득이 불필요하거나 불가능한 경우, 요구되는 기준 2차원 뷰는 여전히 결정될 수 있다. 예를 들어, 복수의 관찰뷰 중 각 관찰뷰에서의 혈관 형태 또는 다른 인체 조직 기관의 형태를 참조 이미지에서의 혈관 형태와 비교함으로써, 가장 가까운 형태를 가진 이미지를 기준 2차원 뷰로 결정할 수 있다.According to these embodiments, by comparing a plurality of observation views of the first image sequence with a second image sequence (specifically, a reference view of the second image sequence), if acquisition of a capture angle of the first image sequence or the second image sequence is unnecessary or impossible, a required reference two-dimensional view can still be determined. For example, by comparing the morphology of a blood vessel or a morphology of another human tissue organ in each observation view among the plurality of observation views with the morphology of a blood vessel in the reference image, an image having the closest morphology can be determined as the reference two-dimensional view.

앞에서 이미 언급한 바와 같이, 상기 제1 이미지 시퀀스에 기반하여 복수의 상이한 관찰 각도를 갖는 복수의 관찰뷰를 획득하는 단계는, 제1 이미지 시퀀스로부터 상이한 복수의 수집 각도를 가진 이미지를 획득하는 단계를 포함할 수 있고, 상기 제1 이미지 시퀀스의 3차원 표현에 대해 복수의 투영 각도에 따라 투영을 수행하여 복수의 투영 결과를 생성하는 단계를 포함할 수도 있으며, 본 개시는 이에 한정되지 않는다. As previously mentioned, the step of obtaining a plurality of observation views having a plurality of different observation angles based on the first image sequence may include the step of obtaining images having a plurality of different collection angles from the first image sequence, and may also include the step of performing projection on a three-dimensional representation of the first image sequence according to the plurality of projection angles to generate a plurality of projection results, but the present disclosure is not limited thereto.

일부 실시예에 따르면, 상기 제2 이미지 시퀀스 중 제1 표준을 만족하는 제1 혈관 세그먼트 영역을 결정하는 단계 - 상기 제1 표준은 혈관 세그먼트 길이, 조영제의 현상 정도, 수집 선명도 중 적어도 하나를 포함함 -; 및 상기 제1 혈관 세그먼트 영역이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계를 포함한다.In some embodiments, the method comprises: determining a first vessel segment region among the second image sequences that satisfies a first criterion, wherein the first criterion comprises at least one of a vessel segment length, a degree of contrast agent development, and an acquisition sharpness; and determining an image frame in which the first vessel segment region is located as the reference image.

이러한 실시예에서, 제2 이미지 시퀀스로부터 혈관이 가장 길거나, 현상이 가장 우수하거나 및/또는 가장 뚜렷한 이미지를 참조 이미지로 선택함으로써, 보다 정확한 대응관계를 획득할 수 있다.In these embodiments, a more accurate correspondence can be obtained by selecting the image with the longest blood vessel, the best phenomenon, and/or the most distinct blood vessel from the second image sequence as the reference image.

일부 예에서, 이미지에서 특정 혈관, 예를 들어 현재 수집 목표와 관련된 특정 혈관, 대동맥, 이미지에서 가장 두꺼운 혈관, 현상제가 처음 도착한 혈관, 현상제 농도가 가장 높거나 일정한 임계값보다 높은 혈관 등을 먼저 식별할 수 있으며, 해당 특정 혈관을 “제1 혈관 세그먼트 영역”으로 사용하여, 표준에 부합되는 이미지를 참조 이미지로 선택한다. 다른 일부 예에서, 모든 이미지 및 모든 혈관 중에서 선택할 수 있으며, 제1 표준의 요구사항에 가장 적합한 혈관 세그먼트 영역(예를 들어, 모든 이미지에서 가장 긴 하나의 혈관, 선명도가 가장 좋은 하나의 혈관)을 제1 혈관 세그먼트 영역으로 확정하고, 해당 제1 혈관 세그먼트 영역에 기반하여 참조 이미지를 선택한다. 상기 내용은 예시이며, 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다. In some examples, a specific vessel in the image may be first identified, for example, a specific vessel related to the current acquisition target, the aorta, the thickest vessel in the image, the vessel where the developer first arrived, the vessel with the highest developer concentration or higher than a certain threshold, etc., and the specific vessel may be used as the “first vessel segment region”, and an image that complies with the standard may be selected as a reference image. In some other examples, among all images and all vessels, a vessel segment region that best meets the requirements of the first standard (e.g., one vessel that is the longest in all images, one vessel with the best clarity) is determined as the first vessel segment region, and a reference image is selected based on the first vessel segment region. It will be appreciated that the above is exemplary and the present disclosure is not limited thereto.

다른 일부 예에서, 제1 표준은 추가적으로 또는 대안적으로 혈관의 개수가 가장 많음 및/또는 혈관 분기점이 가장 뚜렷함 등을 포함할 수 있다. 또 다른 일부 예에 따르면, 제1 표준은 현상제의 총 농도가 특정 임계값을 초과하거나, 현상제를 섭취한 후 특정 시간이 경과한 경우를 포함할 수 있으며, 이러한 이미지에서 현상제의 혈관 경로가 길거나 가장 긴 이미지를 참조로 선택하며, 본 개시는 이에 한정되지 않는다. In some other examples, the first criterion may additionally or alternatively include having the largest number of blood vessels and/or having the most distinct vascular branch points, etc. In some other examples, the first criterion may include having a total concentration of the developer exceeding a certain threshold, or having a certain time elapsed since ingestion of the developer, and selecting an image in which the vascular path of the developer is the longest or the longest, as reference, but the present disclosure is not limited thereto.

일부 실시예에 따르면, 상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계는, 상기 제2 이미지 시퀀스 중의 제1 형태점을 획득하는 단계 - 상기 제1 형태점은 혈관의 분기점, 연결점 및 전환점 중 적어도 하나에 대응함 -; 및 상기 제1 형태점이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계를 포함한다. In some embodiments, the step of determining a reference image among the second image sequence comprises the steps of: obtaining a first shape point among the second image sequence, wherein the first shape point corresponds to at least one of a branching point, a connecting point and a turning point of a blood vessel; and determining an image frame in which the first shape point is located as the reference image.

이러한 실시예에 따르면, 선택된 참조 이미지는 분기 및 전환점과 같은 일부 원하는 상징적 특징을 가질 수 있다. 3차원 재구성 과정에서, 이러한 상징점은 매우 중요한데, 이는 적어도 직선 구간에 비해, 분기, 연결, 전환 등 혈관 간의 관계를 포함하는 형태점이 일정한 각도 및 특수 형태를 가지는 경우가 많기 때문이며, 따라서, 이러한 참조점을 기반으로, 제1 이미지 시퀀스에서 대응되는 각도를 보다 쉽게 식별하여, 대응되는 기준 2차원 뷰를 결정하며, 이로써 제1 이미지 시퀀스와 제2 이미지 시퀀스의 대응관계를 정확하게 확립할 수 있다. According to these embodiments, the selected reference image may have some desired symbolic features, such as branching and turning points. In the process of 3D reconstruction, these symbolic points are very important, because, at least compared to straight sections, shape points including relationships between blood vessels, such as branching, connection, and turning, often have certain angles and special shapes, and therefore, based on these reference points, the corresponding angles in the first image sequence can be more easily identified, and the corresponding reference 2D view can be determined, thereby accurately establishing the correspondence between the first image sequence and the second image sequence.

일부 예에서, 이러한 형태점은 식별된 이미지에서 토폴리지를 분석함으로써 식별될 수 있다. 일부 예에서, 형태점의 식별은 수집 목적, 수집된 인체 영역 등 파라미터에 기반하여(예를 들어, 현재 수집 대상이 관상 동맥인 것에 기반하여), 관상 동맥에 대응하는 특정 분기점을 식별하는데 치중할 수 있다. 다른 일부 예에서, 사전 훈련된 네트워크 모델을 통해 형태점을 식별할 수 있다. 또 다른 실시예에서, 기존 알고리즘에 의해 형태점을 식별하는데 정확도 요구사항을 만족하지 못하는 경우, 사용자(예를 들어, 의사)가 가장 중요한 형태점을 보조 결정하도록, 형태점을 수동으로 표기하는 프롬프트를 입력할 수도 있다. 본 개시는 이에 한정되지 않는다는 것을 이해할 수 있다.In some examples, such feature points can be identified by analyzing the topology in the identified image. In some examples, the identification of feature points can be focused on identifying specific branch points corresponding to coronary arteries, based on parameters such as the purpose of collection, the area of the body collected (e.g., based on the current collection target being a coronary artery). In some other examples, feature points can be identified via a pre-trained network model. In another embodiment, if the accuracy requirement is not met for identifying feature points by existing algorithms, a user (e.g., a physician) can be prompted to manually mark feature points to assist in determining the most important feature points. It will be appreciated that the present disclosure is not limited thereto.

일부 실시예에 따르면, 본 개시의 방법은 상기 기준 2차원 뷰 중의, 상기 제1 형태점에 대응하는 제2 형태점을 획득하는 단계를 더 포함할 수 있으며, 여기서, 상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계는, 상기 기준 2차원 뷰 중 상기 제2 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 및 상기 참조 이미지 중 상기 제1 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 사이의 대응관계를 결정하는 단계를 포함한다.According to some embodiments, the method of the present disclosure may further include a step of acquiring a second shape point corresponding to the first shape point among the reference two-dimensional view, wherein the step of determining the correspondence based on the reference two-dimensional view and the reference image includes a step of determining a correspondence between one or more blood vessel segment regions associated with the second shape point among the reference two-dimensional view and one or more blood vessel segment regions associated with the first shape point among the reference image.

이러한 실시예에 따르면, 기준 2차원 뷰에서 유사하게 일정한 각도 또는 방향을 가진 형태점을 식별함으로써, 제1 이미지 시퀀스와 제2 이미지 시퀀스 간의 대응관계를 보다 간단하고 정확하게 확립할 수 있다.According to these embodiments, by identifying shape points having similar constant angles or directions in the reference two-dimensional view, the correspondence between the first image sequence and the second image sequence can be established more simply and accurately.

일부 실시예에 따르면, 제2 이미지가 조영값 정보를 포함하는 경우, 방법(200)은 향상된 제1 이미지 시퀀스를 생성하는 단계를 더 포함할 수 있고, 상기 향상된 제1 이미지 시퀀스는 상기 제2 이미지 시퀀스에 기반한 조영값을 포함한다. 이러한 실시예에서, 3차원 이미지 시퀀스(예를 들어, CTA, MRA 등)에 기반하여 시계열 이미지 시퀀스에 대해 상이한 각도의 재구성을 수행할 수 있으며, 제2 이미지 시퀀스 중의 조영값에 기반하여 제1 이미지 시퀀스에 대해 향상 및 렌더링을 수행할 수 있으며, 이로써 사용자(예컨대, 진단 의사)가 상이한 시퀀스를 반복적으로 비교할 필요성을 감소시킴으로써, 사용자가 현재 확인하고자 하는 이미지 시퀀스에서 보다 전면적인 정보를 쉽게 획득할 수 있게 하여, 사용자의 진단 등에 더욱 도움이 된다. In some embodiments, when the second image includes contrast value information, the method (200) may further include the step of generating an enhanced first image sequence, wherein the enhanced first image sequence includes contrast values based on the second image sequence. In such embodiments, different angular reconstructions can be performed on the time-series image sequence based on the three-dimensional image sequence (e.g., CTA, MRA, etc.), and enhancement and rendering can be performed on the first image sequence based on the contrast values in the second image sequence, thereby reducing the need for a user (e.g., a diagnostician) to repeatedly compare different sequences, thereby allowing the user to easily obtain more comprehensive information from the image sequence that the user currently wishes to confirm, thereby further assisting the user in diagnosis, etc.

이해할 수 있는 것은, 각각의 동작은 도면에 특정 순서로 도시되어 있지만, 이는 이러한 동작이 도시된 특정 순서 또는 순차적인 순서로 수행되어야 하는 것으로 이해되어서는 안 되며, 원하는 결과를 얻기 위해 도시된 모든 동작을 수행해야 하는 것으로 이해되어서는 안 된다. It should be understood that although each operation is depicted in the drawings in a particular order, this should not be construed as requiring that these operations be performed in any particular order depicted or in any sequential order, nor should all of the operations depicted be performed to achieve a desired result.

본 개시 전반에 걸쳐, 이미지 시퀀스는 직접 수집 및 저장하거나 사용자가 사용하도록 단말 기기에 다른 방식으로 전송할 수 있는 이미지 데이터이다. 이미지 시퀀스는 다양한 이미지 처리를 거친 후의 처리된 이미지 데이터일 수도 있다. 이미지 시퀀스는 또한 다른 분석 과정(예를 들어, 병변 특징의 유무 또는 병소의 분석 과정)을 거칠 수 있으며 분석 결과(예를 들어, 관심 영역에 대한 동그라미 표시, 조직의 분할 결과 등)를 더 포함할 수 있다. 본 개시는 이에 한정되지 않음을 이해할 수 있다. Throughout this disclosure, an image sequence is image data that can be directly collected and stored or otherwise transmitted to a terminal device for use by a user. The image sequence may be processed image data after undergoing various image processing. The image sequence may also undergo other analysis processes (e.g., the presence or absence of a lesion feature or a lesion analysis process) and may further include analysis results (e.g., marking a region of interest as a circle, segmentation results of a tissue, etc.). It will be understood that the present disclosure is not limited thereto.

도 4는 예시적 실시예에 따른 이미지 처리 장치(400)의 개략적인 블록도이다. 이미지 처리 장치(400)는 이미지 시퀀스 획득 유닛(410) 및 이미지 시퀀스 생성 유닛(420)을 포함할 수 있다. 이미지 시퀀스 획득 유닛(410)은 제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하기 위한 것일 수 있으며, 여기서, 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집된다. 이미지 시퀀스 생성 유닛(420)은 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하기 위한 것일 수 있으며, 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가진다. FIG. 4 is a schematic block diagram of an image processing device (400) according to an exemplary embodiment. The image processing device (400) may include an image sequence obtaining unit (410) and an image sequence generating unit (420). The image sequence obtaining unit (410) may be configured to obtain a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region, wherein images in the first image sequence have different collection positions, different collection depths, or different collection angles from each other, images in the second image sequence have basically the same collection angle, and images in the second image sequence are sequentially collected at different points in time. The image sequence generating unit (420) may be configured to generate a third image sequence based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one updated image, and the at least one updated image corresponds to at least one image in the second image sequence and has a different observation angle from the at least one image.

도 4에 도시된 장치(400)의 각 모듈은 도 2에 설명된 방법(200)의 각 단계에 대응됨을 이해해야 한다. 이에 따라, 전술한 방법(200)에 대해 설명한 동작, 특징 및 이점은 장치(400) 및 이가 포함하는 모듈에도 마찬가지로 적용된다. 간결함을 위해 일부 동작, 특징 및 이점은 여기에서 중복하여 설명하지 않는다. It should be understood that each module of the device (400) illustrated in FIG. 4 corresponds to each step of the method (200) described in FIG. 2. Accordingly, the operations, features, and advantages described for the method (200) described above are also applied to the device (400) and the modules included therein. For the sake of brevity, some operations, features, and advantages are not described redundantly herein.

본 개시의 실시예에 따르면, 메모리, 프로세서 및 메모리에 저장된 컴퓨터 프로그램을 포함하는 컴퓨팅 디바이스를 더 포함하며, 여기서, 프로세서는 컴퓨터 프로그램을 실행하여 본 개시의 실시예에 따른 이미지 처리 방법 및 이의 변형예의 단계를 구현하도록 구성된다. According to an embodiment of the present disclosure, a computing device further includes a memory, a processor, and a computer program stored in the memory, wherein the processor is configured to execute the computer program to implement steps of an image processing method according to an embodiment of the present disclosure and variations thereof.

본 개시의 실시예에 따르면, 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 더 개시하였으며, 여기서, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 본 개시의 실시예에 따른 이미지 처리 방법 및 이의 변형예의 단계를 구현한다. According to an embodiment of the present disclosure, a non-transitory computer-readable storage medium having a computer program stored thereon is further disclosed, wherein the computer program, when executed by a processor, implements the steps of an image processing method according to an embodiment of the present disclosure and variations thereof.

본 개시의 실시예에 따르면, 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 더 개시하였고, 여기서 컴퓨터 프로그램이 프로세서에 의해 실행될 때 본 개시의 실시예에 따른 이미지 처리 방법 및 이의 변형예의 단계를 구현한다. According to an embodiment of the present disclosure, a computer program product including a computer program is further disclosed, wherein the computer program, when executed by a processor, implements the steps of an image processing method according to an embodiment of the present disclosure and variations thereof.

위에서 특정 모듈을 참조하여 특정 기능에 대해 논의하였으나, 본 명세서에서 논의된 각 모듈의 기능은 복수의 모듈로 나뉠 수 있고, 및/또는 여러 모듈의 적어도 일부 기능은 단일 모듈로 조합될 수 있다는 점에 유의해야 한다. 본 명세서에서 논의된 특정 모듈의 실행 동작은 상기 특정 모듈 자체적으로 동작을 실행하거나, 대안적으로 상기 특정 모듈이 상기 동작을 실행하는 다른 구성 요소 또는 모듈을 호출하거나, 다른 방식으로 액세스하는 동작(상기 특정 모듈과 함께 상기 동작을 실행함)을 실행하는 다른 구성 요소 또는 모듈을 포함한다. 따라서, 동작을 실행하는 특정 모듈은 동작을 실행하는 상기 특정 모듈 및/또는 상기 특정 모듈에 의해 호출되거나 상기 특정 모듈이 다른 방식으로 액세스하는, 동작을 실행하는 다른 모듈을 포함할 수 있다. 예를 들어, 위에서 설명한 복수의 모듈은 일부 실시예에서 단일 모듈로 조합될 수 있으며, 그 반대도 마찬가지이다. 본 명세서에 사용된 문구 “엔티티 A가 동작 B를 개시한다”라고 함은 엔티티 A가 동작 B를 실행하도록 명령하는 것을 의미할 수 있으나, 엔티티 A가 자체적으로 반드시 해당 동작 B를 실행하는 것은 아니다. While specific functionality has been discussed above with reference to specific modules, it should be noted that the functionality of each module discussed herein may be divided into multiple modules, and/or at least some of the functionality of multiple modules may be combined into a single module. The execution of a specific module discussed herein may include the specific module itself executing the operation, or alternatively, another component or module executing the operation that the specific module calls or otherwise accesses (together with the specific module executing the operation). Thus, a specific module executing the operation may include the specific module executing the operation, and/or another module executing the operation that is called by or otherwise accessed by the specific module. For example, the multiple modules described above may in some embodiments be combined into a single module, and vice versa. The phrase “entity A initiates an operation B” as used herein may mean that entity A instructs entity A to execute operation B, but entity A does not necessarily execute the operation B on its own.

또한 본 명세서에서는 소프트웨어 하드웨어 요소 또는 프로그램 모듈의 일반적인 맥락에서 다양한 기술을 설명할 수 있음을 이해해야 한다. 위에서 도 4에 관련하여 설명된 각 모듈은 하드웨어에서, 또는 소프트웨어 및/또는 펌웨어와 결합된 하드웨어에서 구현될 수 있다. 예를 들어, 이러한 모듈은 하나 또는 복수의 프로세서에서 실행되고 컴퓨터 판독 가능한 저장 매체에 저장되도록 구성된 컴퓨터 프로그램 코드/명령으로 구현될 수 있다. 대안적으로, 이러한 모듈은 하드웨어 논리/회로로 구현될 수 있다. 예를 들어, 일부 실시예에서, 본 명세서에 설명된 모듈 중 하나 또는 복수는 시스템 온칩(System on Chip, SoC)에서 함께 구현될 수 있다. SoC는 집적회로 칩(프로세서(예를 들어, 중앙처리장치(Central Processing Unit, CPU), 마이크로컨트롤러, 마이크로프로세서, 디지털신호프로세서(Digital Signal Processor, DSP) 등), 메모리, 하나 또는 복수의 통신 인터페이스, 및/또는 다른 회로의 하나 또는 복수의 부품을 포함함)을 포함할 수 있으며, 수신된 프로그램 코드를 선택적으로 실행하거나, 및/또는 기능을 수행하기 위한 임베디드 펌웨어를 포함할 수 있다. It should also be understood that the present disclosure may describe various technologies in the general context of software hardware elements or program modules. Each module described above with respect to FIG. 4 may be implemented in hardware, or in hardware combined with software and/or firmware. For example, such modules may be implemented as computer program code/instructions configured to be executed by one or more processors and stored on a computer-readable storage medium. Alternatively, such modules may be implemented as hardware logic/circuitry. For example, in some embodiments, one or more of the modules described herein may be implemented together in a System on Chip (SoC). The SoC may include an integrated circuit chip (including a processor (e.g., a Central Processing Unit (CPU), a microcontroller, a microprocessor, a Digital Signal Processor (DSP), etc.), memory, one or more communication interfaces, and/or one or more components of other circuitry), and may include embedded firmware for selectively executing received program code and/or performing functions.

본 개시의 일 양태에 따르면, 메모리, 프로세서 및 메모리에 저장된 컴퓨터 프로그램을 포함하는 컴퓨팅 디바이스를 제공한다. 상기 프로세서는 전술한 임의의 방법 실시예의 단계를 구현하기 위한 컴퓨터 프로그램을 수행하도록 구성된다.According to one aspect of the present disclosure, a computing device is provided including a memory, a processor, and a computer program stored in the memory. The processor is configured to execute the computer program for implementing steps of any of the method embodiments described above.

본 개시의 일 양태에 따르면, 컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 임의의 방법 실시예의 단계를 구현한다. According to one aspect of the present disclosure, there is provided a non-transitory computer-readable storage medium having stored thereon a computer program, which, when executed by a processor, implements the steps of any of the method embodiments described above.

본 개시의 일 양태에 따르면, 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 더 개시하였고, 여기서 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 임의의 방법 실시예의 단계를 구현한다. According to one aspect of the present disclosure, a computer program product comprising a computer program, wherein the computer program, when executed by a processor, implements the steps of any of the method embodiments described above.

이하에서는 도 5와 함께 이러한 컴퓨터 기기, 비일시적 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 제품의 예시적인 예시를 설명하도록 한다.Hereinafter, exemplary examples of such computer devices, non-transitory computer-readable storage media, and computer program products are described together with FIG. 5.

도 5는 본 명세서에 설명된 방법을 실시하기 위한 컴퓨터 기기(500)의 예시적인 구성을 나타낸다. 예를 들어, 도 1에 도시된 서버(120) 및/또는 클라이언트 기기(110)는 컴퓨터 기기(500)와 유사한 아키텍처를 포함할 수 있다. 상기 이미지 처리 기기/장치는 컴퓨터 기기(500), 또는 유사한 기기 또는 시스템에 의해 전부 또는 적어도 부분적으로 구현될 수도 있다. FIG. 5 illustrates an exemplary configuration of a computer device (500) for implementing the method described herein. For example, the server (120) and/or client device (110) illustrated in FIG. 1 may include a similar architecture to the computer device (500). The image processing device/apparatus may be implemented in whole or at least in part by the computer device (500), or a similar device or system.

컴퓨터 기기(500)는 서비스 제공업체의 서버, 클라이언트(예를 들어, 클라이언트 기기)와 관련된 기기, 시스템 온칩, 및/또는 임의의 다른 적합한 컴퓨터 기기 또는 컴퓨팅 시스템과 같은 다양한 상이한 유형의 기기일 수 있다. 컴퓨터 기기(500)의 예시는 데스크톱 컴퓨터, 서버 컴퓨터, 노트북 컴퓨터 또는 넷북 컴퓨터, 모바일 기기(예를 들어, 태블릿 컴퓨터, 셀룰러 또는 다른 무선 전화(예를 들어, 스마트폰), 메모장 컴퓨터(Notepad computer), 이동국(mobile station)), 웨어러블 장치(예를 들어, 안경, 손목시계), 엔터테인먼트 기기(예를 들어, 엔터테인먼트 기구, 통신적으로 디스플레이 기기에 커플링된 셋톱박스, 게임기), TV 또는 다른 디스플레이 장치, 자동차 컴퓨터 등을 포함하지만 이에 한정되지 않는다. 따라서, 컴퓨터 기기(500)의 범위는 많은 양의 메모리 및 프로세서 자원을 가진 전체 자원 기기(예를 들어, 개인용 컴퓨터, 게임 콘솔)에서 제한된 메모리 및/또는 처리 자원을 가진 저자원 기기(예를 들어, 기존 셋톱박스, 휴대용 게임 콘솔)에 이르기까지 다양할 수 있다.The computer device (500) may be a variety of different types of devices, such as a server of a service provider, a device associated with a client (e.g., a client device), a system on a chip, and/or any other suitable computer device or computing system. Examples of the computer device (500) include, but are not limited to, a desktop computer, a server computer, a notebook or netbook computer, a mobile device (e.g., a tablet computer, a cellular or other wireless telephone (e.g., a smart phone), a notepad computer, a mobile station), a wearable device (e.g., eyeglasses, a wristwatch), an entertainment device (e.g., an entertainment appliance, a set-top box communicatively coupled to a display device, a game console), a TV or other display device, an automobile computer, and the like. Thus, the computer device (500) may range from full-resource devices with large amounts of memory and processor resources (e.g., a personal computer, a game console) to low-resource devices with limited memory and/or processing resources (e.g., a traditional set-top box, a portable game console).

컴퓨터 기기(500)는 시스템 버스(514) 또는 다른 적절한 접속을 통해 서로 통신할 수 있는 적어도 하나의 프로세서(502), 메모리(504), (복수의) 통신 인터페이스(506), 디스플레이 기기(508), 다른 입출력(I/O) 기기(510) 및 하나 또는 복수의 대용량 저장 기기(512)를 포함할 수 있다. A computer device (500) may include at least one processor (502), memory (504), (a plurality of) communication interfaces (506), a display device (508), other input/output (I/O) devices (510), and one or more mass storage devices (512) that may communicate with each other via a system bus (514) or other suitable connection.

프로세서(502)는 단일 처리 유닛 또는 다중 처리 유닛일 수 있으며, 모든 처리 유닛은 단일 또는 다중 컴퓨팅 유닛 또는 다중 코어를 포함할 수 있다. 프로세서(502)는 하나 또는 복수의 마이크로프로세서, 마이크로컴퓨터, 마이크로컨트롤러, 디지털신호 프로세서, 중앙처리 장치, 상태 머신, 논리회로 및/또는 동작 명령에 기반하여 신호를 조작하는 임의의 장치로 실시될 수 있다. 프로세서(502)는 다른 기능 외에, 메모리(504), 대용량 저장 기기(512) 또는 다른 컴퓨터 판독 가능한 매체에 저장된 컴퓨터 판독 가능한 명령(예를 들어 오퍼레이팅 시스템(516)의 프로그램 코드, 애플리케이션 프로그램(518)의 프로그램 코드, 기타 프로그램(520)의 프로그램 코드 등)을 획득하여 실행하도록 구성될 수 있다. The processor (502) may be a single processing unit or multiple processing units, and any processing unit may include a single or multiple computing units or multiple cores. The processor (502) may be implemented as one or more microprocessors, microcomputers, microcontrollers, digital signal processors, central processing units, state machines, logic circuits, and/or any device that manipulates signals based on operational instructions. In addition to other functions, the processor (502) may be configured to obtain and execute computer-readable instructions stored in memory (504), mass storage device (512), or other computer-readable medium (e.g., program code of an operating system (516), program code of an application program (518), program code of another program (520), etc.).

메모리(504) 및 대용량 저장 기기(512)는 전술한 각 기능을 실행하기 위해 프로세서(502)에 의해 실행되는 명령을 저장하기 위한 컴퓨터 판독 가능한 저장 매체의 예시이다. 예를 들어, 메모리(504)는 일반적으로 휘발성 메모리와 비휘발성 메모리(예를 들어, RAM, ROM 등)를 모두 포함할 수 있다. 또한, 대용량 저장 기기(512)는 일반적으로 하드 디스크 드라이브, 솔리드 스테이트 드라이브, 리무버블 미디어, 외장 및 리무버블 드라이브, 메모리 카드, 플래시 메모리, 플로피 디스크, 광 디스크(예를 들어 CD, DVD), 스토리지 어레이, 네트워크 결합 스토리지(Network Attached Storage), 스토리지 영역 네트워크 등을 포함할 수 있다. 메모리(504) 및 대용량 저장 기기(512)는 모두 본 명세서에서 메모리 또는 컴퓨터 판독 가능한 저장 매체로 총칭될 수 있으며, 컴퓨터 판독 가능한 명령 및 프로세서 실행 가능한 프로그램 명령을 컴퓨터 프로그램 코드로 저장할 수 있는 비일시적 매체일 수 있으며, 상기 컴퓨터 프로그램 코드는 본 명세서의 예시에서 설명한 동작 및 기능을 구현하도록 구성된 특정 기계인 프로세서(502)에 의해 실행될 수 있다. Memory (504) and mass storage device (512) are examples of computer-readable storage media for storing instructions executed by the processor (502) to perform each of the functions described above. For example, memory (504) may typically include both volatile memory and non-volatile memory (e.g., RAM, ROM, etc.). In addition, mass storage device (512) may typically include a hard disk drive, a solid state drive, removable media, external and removable drives, memory cards, flash memory, floppy disks, optical disks (e.g., CDs, DVDs), storage arrays, network attached storage, storage area networks, etc. The memory (504) and the mass storage device (512) may both be collectively referred to herein as memory or computer-readable storage media, and may be non-transitory media capable of storing computer-readable instructions and processor-executable program instructions as computer program code, which may be executed by a processor (502), which is a specific machine configured to implement the operations and functions described in the examples herein.

복수의 프로그램 모듈은 대용량 저장 기기(512)에 저장될 수 있다. 이들 프로그램은 오퍼레이팅 시스템(516), 하나 또는 복수의 애플리케이션 프로그램(518), 기타 프로그램(520) 및 프로그램 데이터(522)를 포함하고, 이들은 메모리(504)에 로드되어 실행될 수 있다. 이러한 애플리케이션 프로그램 또는 프로그램 모듈의 예시는 예를 들어 방법(200)(방법(200)의 임의의 적절한 단계를 포함함) 및/또는 본 명세서에 설명된 다른 실시예의 부재/기능을 구현하기 위한 프로그램 논리(예를 들어, 컴퓨터 프로그램 코드 또는 명령)를 포함할 수 있다.A plurality of program modules may be stored in the mass storage device (512). These programs may include an operating system (516), one or more application programs (518), other programs (520), and program data (522), which may be loaded into the memory (504) and executed. Examples of such application programs or program modules may include, for example, program logic (e.g., computer program code or instructions) for implementing the method (200) (including any suitable steps of the method (200)) and/or other embodiments described herein.

도 5에서 컴퓨터 기기(500)의 메모리(504)에 저장된 것으로 도시되었으나, 모듈(516, 518, 520 및 522) 또는 그 일부는 컴퓨터 기기(500)에 의해 액세스 가능한 임의의 형태의 컴퓨터 판독 가능한 매체를 사용하여 실시될 수 있다. 본 명세서에서 사용된 바와 같이, “컴퓨터 판독 가능한 매체”는 적어도 두 가지 유형의 컴퓨터 판독 가능한 매체, 즉, 컴퓨터 저장 매체 및 통신 매체를 포함한다. Although illustrated as being stored in the memory (504) of the computer device (500) in FIG. 5, the modules (516, 518, 520, and 522) or portions thereof may be implemented using any form of computer-readable media accessible by the computer device (500). As used herein, “computer-readable media” includes at least two types of computer-readable media, namely computer storage media and communication media.

컴퓨터 저장 매체는 컴퓨터 판독 가능한 명령, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보를 저장하기 위한 임의의 방법 또는 기술에 의해 구현되는 휘발성 및 비휘발성, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 유니버설 디스크(DVD) 또는 다른 광학 저장 장치, 자기 박스, 자기 테이프, 자기 디스크 저장 장치 또는 다른 자기 저장 장치, 또는 컴퓨터 장치에 대한 액세스를 위해 정보를 저장하는 데 사용될 수 있는 다른 비전송 매체를 포함하지만, 이에 한정되지 않는다. Computer storage media includes volatile and nonvolatile, removable and non-removable media implemented by any method or technology for storing information such as computer readable instructions, data structures, program modules or other data. Computer storage media includes, but is not limited to, RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROMs, digital universal disks (DVDs) or other optical storage devices, magnetic boxes, magnetic tape, magnetic disk storage or other magnetic storage devices, or any other non-transportable medium that can be used to store information for access by a computer device.

대조적으로, 통신 매체는 예를 들어 반송파 또는 다른 전송 메커니즘과 같은 변조된 데이터 신호에서 컴퓨터 판독 가능한 명령, 데이터 구조, 프로그램 모듈 또는 다른 데이터를 구체적으로 구현할 수 있다. 본 명세서에서 정의한 컴퓨터 저장 매체는 통신 매체를 포함하지 않는다. In contrast, a communication medium may specifically embody computer-readable instructions, data structures, program modules or other data in a modulated data signal, such as a carrier wave or other transport mechanism. Computer storage media, as defined herein, does not include communication media.

컴퓨터 기기(500)는 전술한 바와 같이 네트워크, 직접 연결 등을 통해 다른 장치와 데이터를 교환하기 위한 하나 이상의 통신 인터페이스(506)를 더 포함할 수 있다. 이러한 통신 인터페이스는 임의의 유형의 네트워크 인터페이스(예를 들어, NIC), 유선 또는 무선(예를 들어, IEEE 802.11 무선 LAN(WLAN)) 인터페이스, Wi-MAX 인터페이스, 이더넷 인터페이스, 범용 직렬 버스(USB) 인터페이스, 셀룰러 네트워크 인터페이스, BluetoothTM 인터페이스, 근거리 통신(NFC) 인터페이스 등 중 하나 또는 복수 개일 수 있다. 통신 인터페이스(506)는 유선 네트워크(예를 들어, LAN, 케이블 등) 및 무선 네트워크(예를 들어, WLAN, 셀룰러, 위성 등), 인터넷 등을 포함하는 다양한 네트워크 및 프로토콜 유형 내의 통신을 촉진할 수 있다. 통신 인터페이스(506)는 또한 스토리지 어레이, 네트워크 결합 스토리지, 스토리지 영역 네트워크 등과 같은 외부 저장 장치(미도시)와의 통신을 제공할 수 있다. The computer device (500) may further include one or more communication interfaces (506) for exchanging data with other devices, such as over a network, direct connection, etc., as described above. These communication interfaces may be one or more of any type of network interface (e.g., a NIC), a wired or wireless (e.g., an IEEE 802.11 wireless LAN (WLAN)) interface, a Wi-MAX interface, an Ethernet interface, a universal serial bus (USB) interface, a cellular network interface, a Bluetooth TM interface, a near field communication (NFC) interface, etc. The communication interface (506) may facilitate communication within a variety of network and protocol types, including wired networks (e.g., LAN, cable, etc.) and wireless networks (e.g., WLAN, cellular, satellite, etc.), the Internet, etc. The communication interface (506) may also provide communication with external storage devices (not shown), such as a storage array, network attached storage, a storage area network, etc.

일부 예시에서, 사용자에게 정보 및 이미지를 표시하기 위한 모니터와 같은 디스플레이 기기(508)를 포함할 수 있다. 다른 I/O 기기(510)는 사용자로부터 다양한 입력을 수신하여 사용자에게 다양한 출력을 제공하는 기기일 수 있으며 터치 입력 기기, 제스처 입력 기기, 카메라, 키보드, 리모컨, 마우스, 프린터, 오디오 입출력 기기 등을 포함할 수 있다. In some examples, a display device (508), such as a monitor, for displaying information and images to a user may be included. Other I/O devices (510) may be devices that receive various inputs from a user and provide various outputs to the user, and may include touch input devices, gesture input devices, cameras, keyboards, remote controls, mice, printers, audio input/output devices, and the like.

본 개시는 도면 및 전술한 설명에서 상세하게 도시 및 설명되었지만, 이러한 설명은 한정적이지 않고 설명적이고 개략적인 것으로 간주되어야 하며, 본 개시는 개시된 실시예에 한정되지 않는다. 개시된 실시예에 대한 변형은 도면, 개시 내용 및 첨부된 청구범위를 연구함으로써 청구된 주제를 실천함에 있어서, 본 분야의 기술자에 의해 이해되고 구현될 수 있다. 청구범위에서, 단어 “포함”은 나열되지 않은 다른 요소나 단계를 배제하지 않으며 단어 “일” 또는 “하나”는 복수 개를 배제하지 않는다. 상이한 종속항에 어떤 수단이 인용되어 있다는 단순한 사실이 이들 수단의 조합이 유리하게 사용될 수 없음을 시사하지 않는다.While the present disclosure has been particularly illustrated and described in detail in the drawings and foregoing description, it should be understood that such description is to be considered illustrative and schematic rather than restrictive, and that the disclosure is not limited to the disclosed embodiments. Variations on the disclosed embodiments can be understood and implemented by those skilled in the art, who may practice the claimed subject matter by studying the drawings, the disclosure, and the appended claims. In the claims, the word “comprising” does not exclude other elements or steps not listed, and the word “a” or “an” does not exclude a plurality. The mere fact that certain means are recited in different dependent claims does not imply that a combination of these means cannot be used to advantage.

Claims (16)

이미지 처리 방법에 있어서,
제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하는 단계 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 를 포함하고,
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 단계는,
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직과, 상기 제2 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직 사이의 대응관계를 결정하는 단계; 및
상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계; 를 포함하고,
상기 대응관계를 결정하는 단계는,
상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계;
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계; 및
상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계; 를 포함하고,
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계는,
상기 제2 이미지 시퀀스의 수집 각도에 기반하여 상기 기준 2차원 뷰를 획득하는 단계를 포함하는 이미지 처리 방법.
In the image processing method,
A step of acquiring a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region, wherein the images in the first image sequence have different collection positions, collection depths or collection angles from each other, the images in the second image sequence have basically the same collection angles, and the images in the second image sequence are sequentially collected at different points in time; and
A step of generating a third image sequence based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one update image, wherein the at least one update image corresponds to at least one image of the second image sequence and has a different viewing angle from the at least one image;
The step of generating a third image sequence based on the first image sequence and the second image sequence is:
A step of determining a correspondence between at least one human organ, part or tissue in the first human body region appearing in at least one image of the first image sequence and at least one human organ, part or tissue in the first human body region appearing in at least one image of the second image sequence, based on the first image sequence and the second image sequence; and
A step of generating the third image sequence based on the corresponding relationship, the first image sequence and the second image sequence; comprising;
The step of determining the above correspondence is:
A step of determining a reference image among the second image sequence;
A step of obtaining a reference two-dimensional view of the first image sequence based on the reference image; and
A step of determining the correspondence based on the above-mentioned reference two-dimensional view and the above-mentioned reference image; including;
The step of obtaining a reference two-dimensional view of the first image sequence based on the above reference image comprises:
An image processing method comprising the step of obtaining the reference two-dimensional view based on the collection angle of the second image sequence.
제1항에 있어서,
상기 제2 이미지 시퀀스 중의 이미지는 조영제 보조 이미징 이미지인 이미지 처리 방법.
In the first paragraph,
An image processing method wherein the image in the second image sequence is a contrast agent-assisted imaging image.
삭제delete 제1항에 있어서,
상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 하나 또는 복수의 식별된 혈관 세그먼트 영역을 포함하고, 상기 식별된 혈관 세그먼트 영역은 상응하는 명칭을 가지며;
상기 대응관계는 상기 제1 이미지 시퀀스의 상기 적어도 하나의 이미지에서 상기 식별된 혈관 세그먼트 영역으로부터 상기 제2 이미지 시퀀스의 상기 적어도 하나의 이미지에서 적어도 하나의 혈관 세그먼트 영역까지 상기 명칭을 통해 매핑되는 이미지 처리 방법.
In the first paragraph,
At least one image of said first image sequence comprises one or more identified blood vessel segment regions, wherein said identified blood vessel segment regions have corresponding names;
An image processing method wherein the correspondence is mapped via the name from the identified blood vessel segment area in the at least one image of the first image sequence to the at least one blood vessel segment area in the at least one image of the second image sequence.
제1항, 제2항 및 제4항 중 어느 한 항에 있어서,
상기 제1 이미지 시퀀스의 적어도 하나의 이미지는 식별된 병소 영역을 포함하고, 여기서, 상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 단계는, 상기 대응관계에 기반하여, 상기 제3 이미지 시퀀스의 적어도 하나의 이미지에서, 상기 식별된 병소 영역에 대응하는 이미지 부분을 생성하는 단계를 포함하는 이미지 처리 방법.
In any one of paragraphs 1, 2 and 4,
An image processing method, wherein at least one image of the first image sequence includes an identified lesion region, and wherein the step of generating the third image sequence based on the correspondence, the first image sequence and the second image sequence comprises the step of generating, based on the correspondence, an image portion corresponding to the identified lesion region in at least one image of the third image sequence.
삭제delete 삭제delete 제1항에 있어서,
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 단계는,
상기 제1 이미지 시퀀스에 기반하여 복수의 상이한 관찰 각도를 갖는 복수의 관찰뷰를 획득하는 단계; 및
상기 참조 이미지와 비교하여, 상기 복수의 관찰뷰로부터 상기 기준 2차원 뷰를 결정하는 단계; 를 포함하는 이미지 처리 방법.
In the first paragraph,
The step of obtaining a reference two-dimensional view of the first image sequence based on the above reference image comprises:
A step of obtaining a plurality of observation views having a plurality of different observation angles based on the first image sequence; and
An image processing method comprising: a step of determining the reference two-dimensional view from the plurality of observation views by comparing the reference image with the reference image;
제1항, 제2항 및 제4항 중 어느 한 항에 있어서,
상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계는,
상기 제2 이미지 시퀀스 중 제1 표준을 만족하는 제1 혈관 세그먼트 영역을 결정하는 단계 - 상기 제1 표준은 혈관 세그먼트 길이, 조영제의 현상 정도 및 수집 선명도 중 적어도 하나를 포함함 -; 및
상기 제1 혈관 세그먼트 영역이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계; 를 포함하는 이미지 처리 방법.
In any one of paragraphs 1, 2 and 4,
The step of determining a reference image among the above second image sequence is:
determining a first vascular segment region satisfying a first criterion among the second image sequences, wherein the first criterion includes at least one of a vascular segment length, a degree of contrast development, and an acquisition sharpness; and
An image processing method comprising: a step of determining an image frame in which the first blood vessel segment area is located as the reference image;
제1항, 제2항 및 제4항 중 어느 한 항에 있어서,
상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하는 단계는,
상기 제2 이미지 시퀀스 중의 제1 형태점을 획득하는 단계 - 상기 제1 형태점은 혈관의 분기점, 연결점 및 전환점 중 적어도 하나에 대응함 -; 및
상기 제1 형태점이 위치하는 이미지 프레임을 상기 참조 이미지로 결정하는 단계를 포함하는 이미지 처리 방법.
In any one of paragraphs 1, 2 and 4,
The step of determining a reference image among the above second image sequence is:
A step of acquiring a first shape point among the second image sequence, wherein the first shape point corresponds to at least one of a branch point, a connecting point and a turning point of a blood vessel; and
An image processing method comprising the step of determining an image frame in which the first shape point is located as the reference image.
제10항에 있어서,
상기 기준 2차원 뷰 중의, 상기 제1 형태점에 대응하는 제2 형태점을 획득하는 단계를 더 포함하며, 여기서, 상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 단계는, 상기 기준 2차원 뷰 중 상기 제2 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 및 상기 참조 이미지 중 상기 제1 형태점과 관련되는 하나 또는 복수의 혈관 세그먼트 영역 사이의 대응관계를 결정하는 단계를 포함하는 이미지 처리 방법.
In Article 10,
An image processing method further comprising a step of acquiring a second shape point corresponding to the first shape point among the reference two-dimensional views, wherein the step of determining the correspondence based on the reference two-dimensional view and the reference image includes a step of determining a correspondence between one or more blood vessel segment regions associated with the second shape point among the reference two-dimensional view and one or more blood vessel segment regions associated with the first shape point among the reference image.
제2항 또는 제4항에 있어서,
향상된 제1 이미지 시퀀스를 생성하는 단계를 더 포함하고, 상기 향상된 제1 이미지 시퀀스는 상기 제2 이미지 시퀀스에 기초한 조영값을 포함하는 이미지 처리 방법.
In clause 2 or 4,
An image processing method further comprising the step of generating an enhanced first image sequence, wherein the enhanced first image sequence includes contrast values based on the second image sequence.
이미지 처리 장치에 있어서,
제1 인체 영역에 대응하는 제1 이미지 시퀀스 및 상기 제1 인체 영역에 대응하는 제2 이미지 시퀀스를 획득하기 위한 이미지 시퀀스 획득 유닛 - 상기 제1 이미지 시퀀스 중의 이미지는 서로 간에 수집 위치, 수집 깊이 또는 수집 각도 중 적어도 하나가 상이하며, 상기 제2 이미지 시퀀스 중의 이미지는 기본상 동일한 수집 각도를 가지며, 상기 제2 이미지 시퀀스 중의 이미지는 상이한 시점에 순차적으로 수집됨 -; 및
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하기 위한 이미지 시퀀스 생성 유닛 - 상기 제3 이미지 시퀀스는 적어도 하나의 업데이트 이미지를 포함하며, 상기 적어도 하나의 업데이트 이미지는 상기 제2 이미지 시퀀스 중의 적어도 하나의 이미지에 대응하며, 상기 적어도 하나의 이미지와 상이한 관찰 각도를 가짐 -; 을 포함하고,
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 제3 이미지 시퀀스를 생성하는 것은,
상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여, 상기 제1 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직과, 상기 제2 이미지 시퀀스의 적어도 하나의 이미지에 나타나는 상기 제1 인체 영역에서의 적어도 하나의 인체 기관, 부위 또는 조직 사이의 대응관계를 결정하고,
상기 대응관계, 상기 제1 이미지 시퀀스 및 상기 제2 이미지 시퀀스에 기반하여 상기 제3 이미지 시퀀스를 생성하는 것을 포함하고,
상기 대응관계를 결정하는 것은,
상기 제2 이미지 시퀀스 중의 참조 이미지를 결정하고,
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하고,
상기 기준 2차원 뷰 및 상기 참조 이미지에 기반하여 상기 대응관계를 결정하는 것을 포함하고,
상기 참조 이미지에 기반하여 상기 제1 이미지 시퀀스의 기준 2차원 뷰를 획득하는 것은,
상기 제2 이미지 시퀀스의 수집 각도에 기반하여 상기 기준 2차원 뷰를 획득하는 것을 포함하는 이미지 처리 장치.
In an image processing device,
An image sequence acquisition unit for acquiring a first image sequence corresponding to a first human body region and a second image sequence corresponding to the first human body region, wherein the images in the first image sequence have different collection positions, collection depths or collection angles from each other, the images in the second image sequence have basically the same collection angles, and the images in the second image sequence are sequentially collected at different points in time; and
An image sequence generation unit for generating a third image sequence based on the first image sequence and the second image sequence, wherein the third image sequence includes at least one update image, wherein the at least one update image corresponds to at least one image of the second image sequence and has a different observation angle from the at least one image;
Generating a third image sequence based on the first image sequence and the second image sequence,
Based on the first image sequence and the second image sequence, determining a correspondence between at least one human organ, part or tissue in the first human body region appearing in at least one image of the first image sequence and at least one human organ, part or tissue in the first human body region appearing in at least one image of the second image sequence;
generating the third image sequence based on the above correspondence relationship, the first image sequence and the second image sequence;
Determining the above correspondence relationship is:
Determine a reference image among the above second image sequence,
Obtaining a reference two-dimensional view of the first image sequence based on the above reference image,
Including determining the correspondence based on the above reference two-dimensional view and the above reference image,
Obtaining a reference two-dimensional view of the first image sequence based on the above reference image,
An image processing device comprising obtaining the reference two-dimensional view based on the collection angle of the second image sequence.
메모리, 프로세서 및 상기 메모리에 저장된 컴퓨터 프로그램을 포함하고,
상기 프로세서는 상기 컴퓨터 프로그램을 실행하여 제1항, 제2항 및 제4항 중 어느 한 항에 따른 방법을 구현하도록 구성된 컴퓨팅 디바이스.
Comprising a memory, a processor and a computer program stored in the memory,
A computing device wherein the processor is configured to execute the computer program to implement a method according to any one of claims 1, 2 and 4.
컴퓨터 프로그램이 저장된 비일시적 컴퓨터 판독 가능한 저장 매체에 있어서,
상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 제1항, 제2항 및 제4항 중 어느 한 항에 따른 방법의 단계를 구현하는 비일시적 컴퓨터 판독 가능한 저장 매체.
In a non-transitory computer-readable storage medium storing a computer program,
A non-transitory computer-readable storage medium implementing the steps of a method according to any one of claims 1, 2 and 4 when the computer program is executed by a processor.
컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램은 명령을 포함하되, 상기 명령은 적어도 하나의 프로세서에 의해 실행될 때 제1항, 제2항 및 제4항 중 어느 한 항에 따른 방법의 단계를 구현하는 컴퓨터 프로그램.

In a computer program stored in a computer-readable storage medium,
A computer program comprising instructions, wherein the instructions, when executed by at least one processor, implement the steps of a method according to any one of claims 1, 2 and 4.

KR1020230055668A 2022-10-20 2023-04-27 Image Processing Method, Apparatus, Computing Device and Storage Medium Active KR102728479B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202211288426.2A CN115546174B (en) 2022-10-20 2022-10-20 Image processing methods, devices, computing equipment and storage media
CN202211288426.2 2022-10-20

Publications (2)

Publication Number Publication Date
KR20230066526A KR20230066526A (en) 2023-05-16
KR102728479B1 true KR102728479B1 (en) 2024-11-08

Family

ID=84736455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230055668A Active KR102728479B1 (en) 2022-10-20 2023-04-27 Image Processing Method, Apparatus, Computing Device and Storage Medium

Country Status (2)

Country Link
KR (1) KR102728479B1 (en)
CN (1) CN115546174B (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016511649A (en) * 2013-01-15 2016-04-21 キャスワークス・リミテッドCathWorks Ltd. Calculation of blood flow reserve ratio
JP2018164739A (en) 2017-03-28 2018-10-25 キヤノンメディカルシステムズ株式会社 X-ray diagnostic device, image processing device, and image processing program
JP2020127600A (en) * 2019-02-08 2020-08-27 キヤノンメディカルシステムズ株式会社 Medical image processing device, x-ray diagnostic device, and medical information processing system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2873371B1 (en) * 2013-11-13 2022-12-21 Pie Medical Imaging BV Method and system for registering intravascular images
KR20170000027A (en) * 2015-06-22 2017-01-02 원광대학교산학협력단 System and Method of Providing 3D Image of Complex Blood Vessel for Intervention
CN105005998B (en) * 2015-08-05 2018-01-09 大连理工大学 A Segmentation Method of Cerebral Vascular Image Based on Multi-angle Serialized Image Spatial Feature Point Set
DE102016211766A1 (en) * 2016-06-29 2018-01-18 Siemens Healthcare Gmbh Generation of a picture sequence
DE102018212389B3 (en) * 2018-07-25 2020-01-02 Siemens Healthcare Gmbh Method for operating an x-ray device, x-ray device, computer program and electronically readable storage medium
CN110766735B (en) * 2019-10-21 2020-06-26 北京推想科技有限公司 Image matching method, device, equipment and storage medium
CN111368787A (en) * 2020-03-17 2020-07-03 浙江大学 Video processing method and apparatus, device and computer-readable storage medium
CN114764767A (en) * 2020-12-30 2022-07-19 上海联影医疗科技股份有限公司 Blood vessel extraction method and computer device
CN111862305B (en) * 2020-06-30 2024-06-18 阿波罗智能技术(北京)有限公司 Method, apparatus, electronic device, storage medium, and program product for processing image
CN112749611B (en) * 2020-07-27 2024-02-13 腾讯科技(深圳)有限公司 Face point cloud model generation method and device, storage medium and electronic equipment
CN112168346A (en) * 2020-11-02 2021-01-05 沈阳蓝软智能医疗科技有限公司 Method for real-time coincidence of three-dimensional medical image and patient and operation auxiliary system
CN113066064B (en) * 2021-03-29 2023-06-06 郑州铁路职业技术学院 Biological structure recognition and 3D reconstruction system of cone beam CT images based on artificial intelligence
CN113657430B (en) * 2021-06-30 2025-02-21 浙江大华技术股份有限公司 Pedestrian clustering method, device and storage medium
CN113808175B (en) * 2021-08-31 2023-03-10 数坤(北京)网络科技股份有限公司 Image registration method, device and equipment and readable storage medium
CN113808179B (en) * 2021-08-31 2023-03-31 数坤(北京)网络科技股份有限公司 Image registration method and device and readable storage medium
CN113920314B (en) * 2021-09-30 2022-09-02 北京百度网讯科技有限公司 Semantic segmentation and model training method, device, equipment and storage medium
CN113920114B (en) * 2021-12-13 2022-04-22 杭州太美星程医药科技有限公司 Image processing method, image processing apparatus, computer device, storage medium, and program product
CN114331992A (en) * 2021-12-23 2022-04-12 数坤(北京)网络科技股份有限公司 Image sequence processing method and device, computing equipment and storage medium
CN114708583A (en) * 2022-02-24 2022-07-05 广州文远知行科技有限公司 Target object detection method, device, equipment and storage medium
CN114663381B (en) * 2022-03-17 2025-07-08 西安大医集团股份有限公司 Image registration method, device, terminal equipment and computer readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016511649A (en) * 2013-01-15 2016-04-21 キャスワークス・リミテッドCathWorks Ltd. Calculation of blood flow reserve ratio
JP2018164739A (en) 2017-03-28 2018-10-25 キヤノンメディカルシステムズ株式会社 X-ray diagnostic device, image processing device, and image processing program
JP2020127600A (en) * 2019-02-08 2020-08-27 キヤノンメディカルシステムズ株式会社 Medical image processing device, x-ray diagnostic device, and medical information processing system

Also Published As

Publication number Publication date
CN115546174A (en) 2022-12-30
CN115546174B (en) 2023-09-08
KR20230066526A (en) 2023-05-16

Similar Documents

Publication Publication Date Title
JP6422486B2 (en) Advanced medical image processing wizard
CN109712217B (en) Medical image visualization method and system
US11132793B2 (en) Case-adaptive medical image quality assessment
EP2810217B1 (en) Graph cuts-based interactive segmentation of teeth in 3-d ct volumetric data
US10467497B2 (en) System and method for providing assistance in surgery in presence of tissue deformation
WO2025044005A1 (en) Data processing method and apparatus, computing device, and storage medium
US11776688B2 (en) Capturing user constructed map of bodily region of interest for remote telemedicine navigation
US20110242096A1 (en) Anatomy diagram generation method and apparatus, and medium storing program
KR102723565B1 (en) Method, device, computing device and storage medium for determining blood flow rate
US11244754B2 (en) Artificial neural network combining sensory signal classification and image generation
KR102728479B1 (en) Image Processing Method, Apparatus, Computing Device and Storage Medium
WO2025055208A1 (en) Data processing method and apparatus, computing device, and storage medium
CN114048738A (en) Data acquisition method, device, computing equipment and medium based on symptom description
CN116779135A (en) Method, apparatus, computing device and medium for calculating fractional blood reserve
CN117541742A (en) Image processing method, device, computing equipment and storage medium
CN115546154B (en) Image processing method, device, computing equipment and storage medium
CN119360150A (en) Training method of image processing model, image processing method, device and medium
US20240404067A1 (en) Enhanced segmentation
CN120014169A (en) Medical image processing method, medical image processing device, computing equipment and storage medium
CN119132576A (en) Image analysis method, device, computing equipment and storage medium
CN118674692A (en) Method, device, computing equipment and storage medium for analyzing human body image
CN117499544A (en) Method, apparatus, computing device and storage medium for image scanning
CN118747774A (en) Image processing method, device, computing equipment and storage medium
CN116327239A (en) Method, apparatus, computing device, and storage medium for assisting ultrasound scanning
CN118799231A (en) Image processing method, device, computing equipment and storage medium

Legal Events

Date Code Title Description
A302 Request for accelerated examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20230427

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20230427

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240116

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240708

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20241106

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20241106

End annual number: 3

Start annual number: 1

PG1601 Publication of registration