[go: up one dir, main page]

KR101988531B1 - Navigation system for liver disease using augmented reality technology and method for organ image display - Google Patents

Navigation system for liver disease using augmented reality technology and method for organ image display Download PDF

Info

Publication number
KR101988531B1
KR101988531B1 KR1020170085027A KR20170085027A KR101988531B1 KR 101988531 B1 KR101988531 B1 KR 101988531B1 KR 1020170085027 A KR1020170085027 A KR 1020170085027A KR 20170085027 A KR20170085027 A KR 20170085027A KR 101988531 B1 KR101988531 B1 KR 101988531B1
Authority
KR
South Korea
Prior art keywords
organ
image
medical image
interest
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020170085027A
Other languages
Korean (ko)
Other versions
KR20190004591A (en
Inventor
정민형
김경숙
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020170085027A priority Critical patent/KR101988531B1/en
Publication of KR20190004591A publication Critical patent/KR20190004591A/en
Application granted granted Critical
Publication of KR101988531B1 publication Critical patent/KR101988531B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

수술 내비게이션 시스템이 수술 대상 장기에 장기 영상을 디스플레이 하기 위하여, 제1 관심 영역이 표시된 환자의 수술 대상 장기에 대한 2차원 의료 영상으로부터 3차원 의료 영상을 생성한다. 생성한 3차원 의료 영상에 제1 관심 영역에 대응하는 제2 관심 영역을 반영하고, 3차원 의료 영상을 토대로 계산된 임계값을 토대로 3차원 의료 영상을 필터링하여 제2 관심 영역이 반영된 장기 영상을 생성한다. 그리고 제1 관심 영역과 제2 관심 영역을 일치시키고, 수술 대상 장기에 장기 영상을 매칭하여 수술 대상 장기상에 장기 영상이 투영되도록 디스플레이 한다.In order for the surgical navigation system to display an organ image on the organ to be operated on, the 3D medical image is generated from a 2D medical image of the organ of the patient on which the first ROI is displayed. Reflect the second region of interest corresponding to the first region of interest in the generated three-dimensional medical image, filter the three-dimensional medical image based on the threshold calculated based on the three-dimensional medical image, and display the long-term image in which the second region of interest is reflected. Create Then, the first ROI coincides with the second ROI, and the organ image is matched to the organ to be operated to display the organ image on the organ.

Figure R1020170085027
Figure R1020170085027

Description

증강현실 기술을 이용한 간병변 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법{Navigation system for liver disease using augmented reality technology and method for organ image display}Navigation system for liver disease using augmented reality technology and method for organ image display}

본 발명은 증강현실 기술을 이용한 간병변 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법에 관한 것이다.The present invention relates to a liver lesion surgery navigation system and a long-term image display method using augmented reality technology.

일반적으로 의사들이 수술에 들어가기 앞서 환자의 수술 계획을 수립할 때, 수술 부위에 대한 정보를 환자의 CT(Computed Tomographic) 또는 MRI(Magnetic Resonance Imaging) 사진 등의 2차원 의료 영상을 참고하여 수술 계획을 세운다. 이 경우, 대부분 환자의 장기 내부에 존재하는 병변의 위치나 병변의 위치에 따른 혈관과의 관계 등을 2차원 의료 영상에 매칭하기 어려우며, 수술 전에 장기 촬영 정보로 활용할 수단이 없으므로, 수술 시 장기 내부 병변의 위치와 주위 혈관 분포 등을 파악하는데 많은 한계가 있다.In general, when doctors plan a patient's surgery plan before entering the surgery, the surgery plan is referred to two-dimensional medical images such as CT (Computed Tomographic) or MRI (Magnetic Resonance Imaging) information. Stand up. In this case, it is difficult to match the two-dimensional medical image with the location of the lesion or the relationship with blood vessels according to the location of the lesion in most patients' organs. There are many limitations in determining the location of lesions and the distribution of surrounding blood vessels.

이러한 문제점을 해결하기 위해, CT나 MRI 사진들을 3차원 영상으로 구현하여 제공하는 기술이 연구되고 있다. 3차원의 증강 현실 영상으로 구현된 의료 영상을 이용하여 수술 계획을 세운다 하더라도, 수술 내비게이션 시스템을 사용하는 의사는 수술 도구와 환자의 장기간의 깊이 감을 정확하게 인식하지 못할 경우, 원치 않는 부위를 손상시킬 우려가 있다. In order to solve this problem, a technique for providing a 3D image by providing CT or MRI pictures has been studied. Even if the surgical plan is made using medical images made with 3D augmented reality images, doctors using the surgical navigation system may damage unwanted parts if they do not accurately recognize the surgical instruments and the long-term depth of the patient. There is.

따라서, 본 발명은 실제 환자의 장기 내부 병변의 위치와 주위 혈관 분포 등 장기 내부의 영상을 증강 현실 기술을 이용하여 제공하는 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법을 제공한다.Accordingly, the present invention provides a surgical navigation system and a long-term image display method for providing an image of the internal organs, such as the location of the internal organ lesions of the patient and the distribution of surrounding blood vessels using augmented reality technology.

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 하나의 특징인 수술 내비게이션 시스템은,Surgical navigation system which is one feature of the present invention for achieving the technical problem of the present invention,

환자의 수술 대상 장기의 2차원 의료 영상 정보로부터 3차원 의료 영상 정보를 생성하고, 생성한 상기 3차원 의료 영상 정보, 3차원 의료 영상 정보로부터 계산된 임계값, 외부로부터 수집한 관심 영역과 환자 자세 정보를 토대로, 상기 수술 대상 장기에 매칭할 장기 영상을 생성하는 영상 매칭부, 그리고 상기 영상 매칭부에서 생성한 장기 영상을, 환자의 실제 장기상에 투영하여 디스플레이하는 디스플레이부를 포함한다.3D medical image information is generated from the 2D medical image information of a patient's surgery target organ, the generated 3D medical image information, a threshold calculated from the 3D medical image information, an external region of interest and a patient posture Based on the information, the image matching unit for generating an organ image to match the surgery target organ, and the display unit for projecting and displaying the organ image generated by the image matching unit on the actual organ of the patient.

상기 영상 매칭부는, 상기 수술 대상 장기에 대한 2차원 의료 영상 정보를 수신하는 정보 수신부, 상기 정보 수신부가 수신한 2차원 의료 영상 정보로부터 상기 3차원 의료 영상 정보를 생성하고, 생성한 3차원 의료 영상 정보로부터 상기 임계값을 계산하는 3차원 영상 생성부, 상기 수술 대상 장기에 표시된 복수의 제1 관심 영역을 획득하고, 획득한 제1 관심 영역으로부터 상기 3차원 의료 영상 정보에 반영할 제2 관심 영역을 계산하는 관심 영역 설정부, 그리고 상기 3차원 의료 영상을 상기 임계값으로 필터링하여 장기 영상을 생성하고, 생성한 장기 영상에 포함된 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치되도록 매칭하는 장기 영상 생성부를 포함할 수 있다.The image matching unit may include an information receiver configured to receive 2D medical image information about the organ to be operated on, and generate the 3D medical image information from the 2D medical image information received by the information receiver, and generate the 3D medical image. A 3D image generating unit for calculating the threshold value from the information, a plurality of first ROIs displayed on the organ to be operated on, and a second ROI to be reflected in the 3D medical image information from the acquired first ROI A region of interest setting unit for calculating a region, and generating a long-term image by filtering the 3D medical image by the threshold value, and a second region of interest included in the generated organ image and a first region of interest displayed on the target organ It may include a long-term image generating unit for matching to match.

상기 장기 영상은 상기 수술 대상 장기의 혈관과 병변, 상기 혈관과 병변에 대한 깊이 정보와 상기 제2 관심 영역을 포함하며, 상기 임계값은 상기 3차원 의료 영상으로부터 계산된 그레이 스케일 값일 수 있다.The organ image may include blood vessels and lesions of the surgery target organ, depth information of the blood vessels and lesions, and the second region of interest, and the threshold value may be a gray scale value calculated from the 3D medical image.

상기 장기 영상 생성부는, 상기 환자의 자세 정보를 수신하고, 제2 관심 영역이 반영된 상기 3차원 의료 영상을 상기 자세 정보를 토대로 보정할 수 있다.The organ image generator may receive posture information of the patient and correct the 3D medical image reflecting a second ROI based on the posture information.

상기 장기 영상 생성부는, 상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산할 수 있다.The long-term image generator may be configured to rotate and size the second ROI based on the first ROI in order to match the second ROI of the organ image with the first ROI displayed on the organ to be operated. The change value and the position change value can be calculated.

상기 디스플레이부는, 상기 장기 영상 생성부가 생성한 장기 영상을 수신하는 장기 영상 수신부, 그리고 상기 수신한 장기 영상을 상기 수술 대상 장기상에 투영되도록 디스플레이하는 영상 제공부를 포함할 수 있다.The display unit may include an organ image receiving unit for receiving an organ image generated by the organ image generating unit, and an image providing unit configured to display the received organ image to be projected onto the surgical target organ.

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 또 다른 특징인 수술 내비게이션 시스템이 수술 대상 장기에 장기 영상을 디스플레이하는 방법은,In another aspect of the present invention for achieving the technical problem of the present invention, a navigation navigation system for displaying a long-term image on the organ to be operated,

제1 관심 영역이 표시된 환자의 수술 대상 장기에 대한 2차원 의료 영상으로부터 3차원 의료 영상을 생성하는 단계, 상기 생성한 3차원 의료 영상에 상기 제1 관심 영역에 대응하는 제2 관심 영역을 반영하는 단계, 상기 3차원 의료 영상을 토대로 계산된 임계값을 토대로 상기 3차원 의료 영상을 필터링하여 제2 관심 영역이 반영된 장기 영상을 생성하는 단계, 그리고 상기 제1 관심 영역과 제2 관심 영역을 일치시키고, 상기 수술 대상 장기에 상기 장기 영상을 매칭하여 상기 수술 대상 장기상에 상기 장기 영상이 투영되도록 디스플레이하는 단계를 포함한다.Generating a 3D medical image from a 2D medical image of a target organ of a patient displaying a first ROI, and reflecting a second ROI corresponding to the first ROI to the generated 3D medical image Generating a long-term image reflecting a second ROI by filtering the 3D medical image based on a threshold calculated based on the 3D medical image, and matching the first ROI with the second ROI. And matching the organ image to the surgery target organ to display the organ image on the surgery target organ.

상기 제2 관심 영역을 반영하는 단계는, 외부로부터 입력되는 환자의 자세 영상으로부터 추출된 자세 정보를 획득하는 단계, 그리고 획득한 자세 정보를 토대로 상기 제2 관심 영역이 반영된 3차원 의료 영상을 보정하는 단계를 포함할 수 있다.The reflecting of the second ROI may include obtaining posture information extracted from a posture image of a patient input from the outside, and correcting a 3D medical image reflecting the second ROI based on the acquired posture information. It may include a step.

상기 3차원 의료 영상을 생성하는 단계 이전에, 상기 수술 대상 장기에 대한 2차원 의료 영상을 수신하는 단계, 그리고 수신한 2차원 의료 영상으로부터 상기 3차원 의료 영상을 생성하는 단계Before generating the 3D medical image, receiving a 2D medical image of the organ to be operated on, and generating the 3D medical image from the received 2D medical image

를 포함하고, 상기 2차원 의료 영상은 MRI 또는 CT 중 어느 하나로, 상기 수술 대상 장기에 대한 장기 외형, 병변 위치, 병변 크기, 주변 장기 위치, 주변 장기 구조, 혈관 구조 및 혈관 위치 중 복수의 정보를 포함할 수 있다.The 2D medical image may include a plurality of pieces of information of an organ shape, a lesion location, a lesion size, a peripheral organ location, a peripheral organ structure, a vascular structure, and a blood vessel location, using either MRI or CT. It may include.

상기 디스플레이하는 단계는, 상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산하는 단계를 더 포함할 수 있다. The displaying may include a rotation angle and a size of the second ROI based on the first ROI in order to match the second ROI of the organ image with the first ROI displayed on the organ to be operated. The method may further include calculating a change value and a position change value.

본 발명에 따르면, 직접 수술 전 환자의 장기 내부 상태를 증강 현실 영상으로 확인할 수 있어 수술 계획을 세움에 있어 명확한 자료로 사용함으로써, 의료 사고의 발생 감소와 수술 시간 단축 및 환자의 수술에 대한 부담감을 감소시킬 수 있다.According to the present invention, the internal organ state of the patient can be directly confirmed by the augmented reality image, so that it can be used as a clear data in the planning of the surgery, thereby reducing the occurrence of medical accidents, reducing the operation time, and the burden on the patient's surgery. Can be reduced.

또한, 직접 수술 및 시술용이 아닌 의학 전공자 및 기타 전공자들에게 교육용 소프트웨어로 보급할 수 있으므로, 교육 비용을 줄일 수 있다.In addition, it can be distributed as educational software to medical and other majors, not directly for surgery and surgery, thereby reducing the cost of education.

도 1은 본 발명의 실시예에 따른 수술 내비게이션 시스템의 예시도이다.
도 2는 본 발명의 실시예에 따른 수술 내비게이션 시스템의 구조도이다.
도 3은 본 발명의 실시예에 따른 수술 내비게이션 시스템을 이용한 장기 영상 제공 방법에 대한 흐름도이다.
도 4는 본 발명의 실시예에 따라 수술 내비게이션 시스템이 제공하는 장기 영상의 예시도이다.
도 5는 본 발명의 실시예에 따라 각 장기별 설정된 관심 영역의 예시도이다.
1 is an illustration of a surgical navigation system according to an embodiment of the present invention.
2 is a structural diagram of a surgical navigation system according to an embodiment of the present invention.
3 is a flowchart illustrating a long-term image providing method using a surgical navigation system according to an embodiment of the present invention.
4 is an exemplary diagram of an organ image provided by a surgical navigation system according to an exemplary embodiment of the present invention.
5 is an exemplary diagram of an ROI set for each organ according to an exemplary embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise.

이하, 도면을 참조로 하여 본 발명의 실시예에 따른 수술 내비게이션 시스템 및 이를 이용한 입체 영상 제공 방법에 대해 설명한다.Hereinafter, a surgical navigation system and a stereoscopic image providing method using the same according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 수술 내비게이션 시스템의 예시도이다. 1 is an illustration of a surgical navigation system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 환자의 장기에 3차원의 입체 장기 영상을 매칭하여, 수술자(이하, ‘의사’라 지칭함)가 수술 중 직접 병변이나 혈관 등의 장기 내부 구조를 확인할 수 있도록 하는 수술 내비게이션 시스템(100)은 영상 매칭부(110)와 디스플레이부(120)를 포함한다.As shown in Figure 1, by matching a three-dimensional stereoscopic organ image to the organ of the patient, the operator (hereinafter referred to as a doctor) to allow the operator to directly check the internal structure of the organ, such as lesions or vessels during surgery The navigation system 100 includes an image matching unit 110 and a display unit 120.

영상 매칭부(110)는 환자의 장기에 대한 CT 또는 MRI 등 2차원 의료 영상을 토대로 3차원 의료 영상을 생성한다. 영상 매칭부(110)는 환자가 수술 받을 때 취하는 자세 정보를 기준으로 3차원 의료 영상을 생성한다. 이를 위해, 영상 매칭부(1100는 환자가 취하고 있는 자세로부터 자세 정보를 획득하여 이용하는 것을 예로 하여 설명하나, 환자가 수술을 받을 때 취하는 자세 정보가 고정되어 있는 경우에는 미리 영상 매칭부(110)에 자세 정보가 저장되어 있을 수도 있다.The image matching unit 110 generates a 3D medical image based on a 2D medical image such as CT or MRI of a patient's organ. The image matching unit 110 generates a 3D medical image based on posture information that the patient takes when the surgery is performed. To this end, the image matching unit 1100 will be described using an example of acquiring posture information from a posture taken by the patient. However, when the posture information taken when the patient is undergoing surgery is fixed, the image matching unit 1100 is previously described. Posture information may be stored.

영상 매칭부(110)가 생성한 3차원 의료 영상에는 장기의 전체 외관, 내부 혈관 조직, 병변 조직, 주변 기관, 장기의 위치 및 구조를 모두 포함한다. 영상 매칭부(110)가 2차원 의료 영상과 자세 정보를 기준으로 3차원 의료 영상을 생성하는 방법은 여러 방법으로 수행될 수 있으므로, 본 발명의 실시예에서는 어느 하나로 한정하지 않는다.The 3D medical image generated by the image matching unit 110 includes all the external appearance of organs, internal vascular tissues, lesion tissues, peripheral organs, and positions and structures of organs. Since the image matching unit 110 generates the 3D medical image based on the 2D medical image and the posture information, the method may be performed in various ways, and thus, the image matching unit 110 is not limited to any one embodiment.

영상 매칭부(110)는 또한 외부로부터 입력되는 실제 장기 주변의 미리 설정된 수만큼의 지점을 장기에 대한 관심 영역(land mark)으로 수신한다. 의사가 수술 시 실제 장기에 염색약과 같이 장기에 손상을 주지 않으면서도 위치 파악이 용이하도록 임의의 위치 또는 미리 설정된 위치에 표시하면, 영상 매칭부(110)는 표시된 복수의 위치를 관심영역으로 수신한다.The image matching unit 110 also receives a preset number of points around the actual organ input from the outside as a land mark for the organ. When the doctor displays an arbitrary position or a predetermined position so as to easily locate the organ without damaging the organ, such as a dye, during surgery, the image matching unit 110 receives the plurality of displayed positions as the ROI. .

영상 매칭부(110)는 생성한 3차원 의료 영상에 수신한 관심 영역을 설정한다. 그리고, 영상 매칭부(110)는 관심 영역이 설정된 3차원 의료 영상을 미리 계산된 임계값을 이용하여 필터링하여 실제 장기에 정합될 장기 영상을 생성한다. 그리고, 생성한 장기 영상을 디스플레이부(120)로 제공하여, 수술자인 의사가 디스플레이부(120)를 통해 실제 장기와 정합된 입체 장기 영상을 확인할 수 있도록 한다. 이때, 장기 영상에도 관심 영역이 표시되어 있으므로, 실제 장기상에 표시된 관심 영역에 일치하도록 위치시킨 후, 장기 영상이 실제 장기에 투영되어 디스플레이 된다.The image matching unit 110 sets a region of interest received in the generated 3D medical image. The image matching unit 110 generates a long-term image to be matched to an actual organ by filtering the 3D medical image in which the ROI is set using a threshold value calculated in advance. Then, the generated organ image is provided to the display unit 120 so that the surgeon doctor can check the stereoscopic organ image matched with the actual organ through the display unit 120. At this time, since the region of interest is also displayed on the organ image, the region of interest is positioned to coincide with the region of interest displayed on the organ, and then the organ image is displayed on the organ.

디스플레이부(120)는 영상 매칭부(110)로부터 전달되는 장기 영상을 환자의 장기 위치상에 정합, 디스플레이 하여, 의사가 용이하게 환자의 장기 내부 상태를 확인할 수 있도록 한다. 여기서 디스플레이부(120)는 의사가 착용할 수 있는 HMD(Head Mounted Device) 형태와 비 HMD(Non-Head Mounted Device) 형태로 구현될 수 있으며, 본 발명의 실시예에서는 HMD 형태를 예로 하여 설명한다. The display unit 120 matches and displays the organ image transmitted from the image matching unit 110 on the organ position of the patient, so that the doctor can easily check the internal state of the organ of the patient. The display unit 120 may be implemented in the form of a head mounted device (HMD) and a non-head mounted device (HMD) that can be worn by a doctor, and the embodiment of the present invention will be described by using an HMD as an example. .

이상에서 설명한 수술 내비게이션 시스템(100)의 구조에 대해 도 2를 참조로 상세히 설명한다.The structure of the surgical navigation system 100 described above will be described in detail with reference to FIG.

도 2는 본 발명의 실시예에 따른 수술 내비게이션 시스템의 구조도이다.2 is a structural diagram of a surgical navigation system according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 수술 내비게이션 시스템(100)은 장기 영상을 생성하는 영상 매칭부(110)와 장기 영상을 환자의 수술 대상 장기에 정합된 형태로 디스플레이하는 디스플레이부(120)로 구성된다. As shown in FIG. 2, the surgical navigation system 100 includes an image matching unit 110 for generating an organ image and a display unit 120 for displaying the organ image in a form matched to an organ to be operated on a patient. .

영상 매칭부(110)는 정보 수신부(111), 3차원 영상 생성부(112), 관심 영역 설정부(113) 및 장기 영상 생성부(114)를 포함한다. 그리고 디스플레이부(120)는 장기 영상 수신부(121) 및 영상 제공부(122)를 포함한다.The image matching unit 110 includes an information receiver 111, a 3D image generator 112, an ROI setting unit 113, and a long term image generator 114. The display unit 120 includes a long term image receiving unit 121 and an image providing unit 122.

먼저, 정보 수신부(111)는 환자의 수술 대상 장기에 대한 2차원 의료 영상을 수신한다. 2차원 의료 영상의 종류로는 CT 또는 MRI 등이 있으며, 본 발명의 실시예에서는 어느 하나의 종류로 2차원 의료 영상의 형태를 한정하지 않는다. 2차원 의료 영상에는 수술 대상 장기에 대한 장기 외형, 장기 위치, 병변 위치, 병변 크기, 수술 대상 장기의 주변 장기 위치, 주변 장기 구조, 수술 대상 장기의 혈관 구조, 혈관 위치 등의 다양한 정보가 포함되어 있다.First, the information receiver 111 receives a 2D medical image of a patient's surgery target organ. Types of two-dimensional medical images include CT or MRI, and the embodiment of the present invention does not limit the shape of the two-dimensional medical images. Two-dimensional medical images include various information such as organ appearance, organ location, lesion location, lesion size, peripheral organ location, peripheral organ structure, vascular structure of the organ under operation, vascular location, etc. have.

3차원 영상 생성부(112)는 정보 수신부(111)가 수신한 2차원 의료 영상을 전처리 과정, 합성 과정, 배경 투사 과정 그리고 후처리 과정을 통해 3차원 의료 영상으로 생성한다. 여기서, 생성된 3차원 의료 영상은 수술 대상 장기의 크기, 장기의 위치, 주변 조직과의 위치, 병변 위치와 병변의 크기, 혈관 위치 등 2차원 의료 영상이 포함하는 정보를 동일하게 포함한다.The 3D image generator 112 generates the 2D medical image received by the information receiver 111 as a 3D medical image through a preprocessing process, a synthesis process, a background projection process, and a postprocessing process. Here, the generated 3D medical image includes the same information included in the 2D medical image, such as the size of the target organ, the location of the organ, the position with the surrounding tissue, the location of the lesion and the size of the lesion, and the location of the blood vessel.

즉, 3차원 영상 생성부(112)는 입력된 수술 대상 장기의 2차원 의료 영상에서 노이즈를 제거하고 영상 품질을 향상시키고, 편이 보정(Bias Correction) 등의 전처리 작업을 수행하여 3차원 의료 영상으로 변환하기 적합한 상태의 전처리된 의료 영상을 생성한다. 3차원 영상 생성부(112)는 전처리된 의료 영상을 합성하고 배경을 투사하여 3차원 의료 영상으로 생성한다. That is, the 3D image generator 112 removes noise from an input 2D medical image of an organ to be operated, improves image quality, and performs a preprocessing operation such as bias correction to produce a 3D medical image. Generate preprocessed medical images in a state suitable for conversion. The 3D image generator 112 synthesizes the preprocessed medical image and projects the background to generate a 3D medical image.

3차원 영상 생성부(112)가 생성한 3차원 의료 영상을 통해 의사는 수술 대상 장기의 전체 외관, 내부 혈관 조직, 병변 조직, 주변 기관이나 장기의 위치, 주변 기관이나 장기의 구조 등을 파악할 수 있다. 그리고 3차원 영상 생성부(112)는 수술 대상 장기에 있는 병변, 수술 대상 장기의 내부 혈관 조직 등이 수술 대상 장기의 표면으로부터 얼마만큼의 깊이에 위치하는지 나타내는 위치 정보를, 3차원 좌표계를 이용하여 생성하여 3차원 의료 영상에 포함시킨다.Through the three-dimensional medical image generated by the three-dimensional image generator 112, the doctor can determine the overall appearance of the organ to be operated, the internal vascular tissue, the lesion tissue, the position of the peripheral organ or organ, the structure of the peripheral organ or organ, and the like. have. The 3D image generating unit 112 uses position information indicating how deep the lesion in the surgical organ, the internal vascular tissue of the surgical organ, and the like are located at the depth of the surface of the surgical organ using a 3D coordinate system. It is generated and included in the 3D medical image.

3차원 영상 생성부(112)가 2차원 의료 영상을 전처리하고, 합성, 배경을 투사하는 방법, 그리고 3차원 좌표계를 이용하여 깊이 정보를 추출하고 이를 함께 제공하는 것은 다양한 방법을 통해 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하여 설명하지는 않는다.Since the 3D image generating unit 112 preprocesses the 2D medical image, synthesizes it, projects the background, and extracts the depth information using the 3D coordinate system and provides the same together, it can be performed through various methods. The embodiment of the present invention is not limited to any one method.

3차원 영상 생성부(112)는 생성한 3차원 의료 영상으로부터 이후 설명할 장기 영상 생성부(114)에서 필터링할 때 사용할 임계값을 계산한다. 여기서 필터링에 사용되는 임계값은 3차원 의료 영상을 나타내는 그레이 스케일(gray scale)의 특정 값을 의미한다. The 3D image generator 112 calculates a threshold value to be used for filtering by the organ image generator 114 to be described later from the generated 3D medical image. Here, the threshold used for filtering means a specific value of a gray scale representing a 3D medical image.

예를 들어, CT 영상인 2차원 의료 영상에서 뼈는 밝게 나타나고, 기타 조직(상피조직, 결합조직, 근육조직, 신경조직)들은 어둡게 나타난다. 그리고 혈관의 밝기와 병변의 밝기가 뼈의 밝기와 기타 조직의 밝기 사이의 밝기로 보인다면, 뼈와 기타 조직, 혈관, 병변 등의 밝기를 숫자로 표현할 수 있다.For example, in two-dimensional medical images, CT images, bones appear bright and other tissues (epithelial, connective, muscular, neural) appear dark. If the brightness of blood vessels and the brightness of lesions are seen as the brightness between the brightness of bones and the brightness of other tissues, then the brightness of bones and other tissues, blood vessels, lesions, etc. can be expressed numerically.

그러므로, 3차원 영상 생성부(112)는 혈관과 병변의 밝기에 해당하는 수치를 기준으로 그레이 스케일의 임계값을 설정할 수 있다. 본 발명의 실시예에서는 3차원 영상 생성부(112)가 임계값을 계산하는 것을 예로 하여 설명하나 반드시 이와 같이 한정되는 것은 아니다. 또한, 3차원 의료 영상으로부터 임계값을 계산하는 방법을 어느 하나의 방법으로 한정하지 않는다.Therefore, the 3D image generator 112 may set a threshold value of the gray scale based on a value corresponding to the brightness of the blood vessel and the lesion. In the exemplary embodiment of the present invention, the 3D image generator 112 calculates the threshold value as an example, but is not necessarily limited thereto. In addition, the method of calculating the threshold value from the 3D medical image is not limited to any one method.

관심 영역 설정부(113)는 외부로부터 입력되는 관심 영역(이하, 설명의 편의를 위하여 ‘제1 관심 영역’이라 지칭함)을 수신한다. 본 발명의 실시예에서는 관심 영역을 수술 대상 장기에 표시된 세 지점에 대한 위치 정보인 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.The ROI setting unit 113 receives an ROI input from the outside (hereinafter, referred to as a “first ROI” for convenience of description). In the embodiment of the present invention, the region of interest is described as being location information of three points displayed on the organ to be operated on as an example, but is not necessarily limited thereto.

그리고 관심 영역 설정부(113)는 수술 대상 장기에 표시된 세 지점인 제1 관심 영역을 삼각화(triangulation) 방법을 적용하여 제2 관심 영역으로 생성한다. 제2 관심 영역은 3차원 의료 영상에 포함되어 설정될 정보로, 제1 관심 영역으로 표시된 세 지점이 동일하게 3차원 의료 영상에도 표시될 수 있도록 하기 위해 생성된 정보이다.The ROI setting unit 113 generates the first ROI, which is three points displayed on the organ to be operated, as a second ROI by applying a triangulation method. The second region of interest is information to be included and set in the 3D medical image, and is information generated so that three points marked as the first region of interest may be displayed on the 3D medical image in the same manner.

즉, 관심 영역 설정부(113)는 의사가 수술 시 환자의 수술 대상 장기에 세 지점에 임의의 표시를 남겨두면, 해당 표시가 남겨진 위치의 위치 정보를 제1 관심 영역으로 획득한다. 관심 영역 설정부(113)가 장기에 남겨진 세 지점의 표시를 제1 관심 영역으로 획득하는 방법은 여러 방법으로 실행할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하여 설명하지 않는다.That is, when the doctor leaves an arbitrary mark on three points on the patient's surgery target organ during surgery, the ROI setting unit 113 acquires the location information of the position where the corresponding mark remains as the first ROI. Since the ROI setting unit 113 obtains the display of the three points left in the organ as the first ROI in various ways, the embodiment of the present invention is not limited to any one method.

여기서 세 지점은 수술 대상 장기 주변에서 병변에 의한 변형이 적으며, 미리 설정된 강도 이상의 단단한 구조물 세 곳을 의사가 선택하여 표시하는 것을 예로 하여 설명한다. 의사가 관심 영역을 설정하는 예에 대해 도 5를 참조로 먼저 설명한다.Here, the three points will be described as an example in which the deformation by the lesion is less around the organ to be operated, and the doctor selects and displays three rigid structures having a predetermined strength or more. An example of the doctor setting the region of interest will be described first with reference to FIG. 5.

도 5는 본 발명의 실시예에 따라 각 장기별 설정된 관심 영역의 예시도이다.5 is an exemplary diagram of an ROI set for each organ according to an exemplary embodiment of the present invention.

도 5에 도시된 바와 같이, 의사는 장기 중 간에 대한 관심 영역을 설정할 때, 세 지점을 대동맥, 담낭, 문맥으로 설정하여 관심 영역으로 설정할 수 있다. 또 다른 장기로 신장을 예로 하면, 의사는 세 지점으로 정맥, 복수의 갈비뼈 중 제1 위치 갈비뼈, 제2 위치 갈비뼈를 설정할 수 있다.As shown in FIG. 5, when the doctor sets the region of interest for the middle of the organ, the doctor may set three points as the region of interest by setting the aorta, the gallbladder, and the context. Using another example of the kidney, the doctor may set the vein, the first position of the plurality of ribs, and the second position of the ribs at three points.

또 다른 장기로 심장을 예로 하여 설명하면, 의사에 의해 설정된 관심 영역은 상대 정맥, 폐 동맥, 그리고 하대 정맥이 설정될 수 있다. 그리고 자궁을 예로 하면, 좌측 난소와 우측 난소, 복부 대정맥이 설정될 수 있다.In another organ, the cardiac example is used. The region of interest set by the doctor may be a relative vein, a pulmonary artery, and an inferior vena cava. In the case of the uterus, the left ovary, the right ovary, and the abdominal vena cava may be set.

본 발명의 실시예에서는 의사가 수술 시 장기에 세 지점을 표시함으로써 관심 영역이 설정되는 것을 예로 하여 설명하였으나, 장기 종류에 따라 미리 관심 영역이 설정되어 제공될 수도 있다.In the exemplary embodiment of the present invention, the doctor has indicated that the region of interest is set by displaying three points on the organ during surgery, but the region of interest may be set in advance according to the type of organ.

한편, 상기 도 2를 이어 설명하면, 장기 영상 생성부(114)는 3차원 영상 생성부(112)에서 생성된 3차원 의료 영상에 관심 영역 설정부(113)에서 생성한 제2 관심 영역을 설정한다. 그리고, 장기 영상 생성부(114)는 제2 관심 영역이 설정된 3차원 의료 영상을 환자가 취하고 있는 자세를 토대로 추출된 자세 정보를 토대로 장기 영상을 보정한다.Meanwhile, referring to FIG. 2, the long-term image generator 114 sets the second ROI generated by the ROI setting unit 113 to the 3D medical image generated by the 3D image generator 112. do. The organ image generating unit 114 corrects the organ image based on the posture information extracted based on the posture of the patient taking the 3D medical image in which the second ROI is set.

이를 위해, 장기 영상 생성부(114)는 환자가 취하고 있는 자세에 대한 영상을 외부로부터 수신하고, 자세에 따라 형태가 변형된 장기의 자세 정보를 추출한다. 환자의 자세에 따라 장기의 모양이나 위치, 크기가 달라질 수 있기 때문이다. 장기 영상 생성부(114)가 환자의 자세 영상을 수신하는 방법이나, 자세 영상으로부터 자세 정보를 추출하는 방법, 그리고 자세 정보를 이용하여 3차원 의료 영상을 보정하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.To this end, the organ image generating unit 114 receives an image of the posture of the patient from the outside, and extracts the posture information of the organ whose shape is modified according to the posture. This is because the shape, position, and size of organs may vary depending on the patient's posture. Since the long-term image generator 114 receives the posture image of the patient, extracts the posture information from the posture image, and corrects the 3D medical image by using the posture information, the method may be performed in various ways. The embodiment of the present invention is not limited to any one method.

장기 영상 생성부(114)는 다양한 장기 정보와 제2 관심 영역이 설정된 3차원 의료 영상을, 3차원 영상 생성부(112)가 계산한 임계값을 토대로 필터링하여 장기 영상으로 생성한다. 3차원 의료 영상을 필터링하여 생성한 장기 영상에는, 수술 대상 장기의 내부 구조 즉, 혈관과 병변, 그리고 제2 관심 영역만이 남게 되고, 그 밖의 조직(예를 들어, 뼈, 근육 등)들은 삭제되어, 실제 장기상에서 수술 대상 장기의 혈관과 병변만을 디스플레이 할 수 있게 된다.The organ image generator 114 filters the 3D medical image in which the various organ information and the second ROI are set based on the threshold value calculated by the 3D image generator 112 to generate the organ image. In the organ image generated by filtering the 3D medical image, only the internal structure of the organ to be operated, that is, the blood vessel and the lesion, and the second region of interest remain, and the other tissues (eg, bone, muscle, etc.) are deleted. As a result, only blood vessels and lesions of the target organ may be displayed on the actual organ.

즉, 장기 영상 생성부(114)는 계산된 임계값보다 낮은 값과 높은 값을 필터링을 통해 삭제하면, 밝은 영상인 뼈와 어두운 영상인 조직이 사라지고 중간에 해당하는 혈관과 병변 영상만이 남게 된다.That is, if the organ image generator 114 deletes the lower value and the higher value than the calculated threshold value through filtering, the bone image and the dark image tissue disappear, and only the blood vessel and the lesion image corresponding to the middle image remain. .

장기 영상 생성부(114)는 환자의 자세 정보에 맞게 변형된 장기 영상을 실제 장기에 정합한다. 장기 영상을 실제 장기에 정합할 때, 장기 영상 생성부(114)는 실제 장기에 표시된 제1 관심 영역과 장기 영상에 표시된 제2 관심 영역을 일치시킨다. The organ image generator 114 matches the organ image modified according to the posture information of the patient with the actual organ. When the organ image is matched to the actual organ, the organ image generator 114 matches the first region of interest displayed on the actual organ and the second region of interest displayed on the organ image.

장기 영상 생성부(114)가 제1 관심 영역과 제2 관심 영역이 일치시킬 때, 장기 영상 생성부(114)는 제1 관심 영역을 기준으로 제2 관심 영역을 얼마나 회전시킬지(회전각), 얼마나 위치를 변화시킬지(위치 변화 값), 얼마나 크기를 변화시킬지(크기 변화 값) 등을 계산한다. 그리고, 계산된 회전각, 위치 변화 값 및 크기 변화 값을 제2 관심 영역에 반영하여, 실제 수술 대상 장기에 장기 영상이 정합되도록 한다.When the long term image generator 114 matches the first region of interest with the second region of interest, how long the long term image generator 114 rotates the second region of interest based on the first region of interest (rotation angle), Calculate how much the position changes (position change value) and how much the size changes (size change value). Then, the calculated rotation angle, position change value, and size change value are reflected in the second region of interest so that the organ image is matched to the actual target organ.

장기 영상 생성부(114)가 제1 관심 영역을 기준으로 제2 관심 영역의 회전각, 위치 변화 값, 크기 변화 값을 계산하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 상세한 설명을 생략한다. 또한, 변화된 장기 영상을 수술 대상 장기에 정합하는 방법 역시 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 상세한 설명을 생략한다. Since the long-term image generator 114 calculates the rotation angle, the position change value, and the size change value of the second ROI based on the first ROI, various embodiments of the present disclosure may be described in detail. Omit. In addition, the method of matching the changed organ image to the organ to be operated may also be performed in various ways, and thus, detailed description thereof will be omitted.

한편, 디스플레이부(120)의 장기 영상 수신부(121)는 장기 영상 생성부(112)에서 생성한 수술 대상 장기에 정합된 장기 영상을 수신한다. Meanwhile, the organ image receiver 121 of the display unit 120 receives the organ image matched to the organ to be operated by the organ image generator 112.

영상 제공부(122)는 장기 영상 수신부(121)가 수신한 장기 영상을 실제 수술 대상 장기상에 투영하여 디스플레이 한다. 수술 대상 장기에 투영되어 디스플레이 되는 장기 영상에는 장기의 혈관 구조, 병변 위치, 병변 크기만이 3차원 좌표계와 함께 나타난다. The image provider 122 projects and displays the organ image received by the organ image receiver 121 on an actual target organ. The organ image, which is projected onto the target organ and displayed, shows only the organ structure, lesion location, and lesion size along with the three-dimensional coordinate system.

영상 제공부(122)가 제공하는 수술 대상 장기에 투영된 장기 영상은, 수술이 진행되는 동안 수술 대상 장기에 고정된 상태를 유지하여 디스플레이 된다. 이를 위해, 만약 환자의 자세가 변경되거나 수술 대상 장기가 움직이는 경우, 변경된 자세나 움직임 정도가 반영된 장기 영상이 지속적으로 갱신되어 제공된다.The long-term image projected onto the surgical target organ provided by the image provider 122 is displayed while being fixed to the surgical target organ while the surgery is in progress. To this end, if the posture of the patient is changed or the target organ moves, the long-term image reflecting the changed posture or movement degree is continuously provided.

이상에서 설명한 수술 내비게이션 시스템을 이용하여 장기 영상을 제공하는 방법에 대해 도 3을 참조로 설명한다.A method of providing an organ image by using the surgical navigation system described above will be described with reference to FIG. 3.

도 3은 본 발명의 실시예에 따른 수술 내비게이션 시스템을 이용한 장기 영상 제공 방법에 대한 흐름도이다.3 is a flowchart illustrating a long-term image providing method using a surgical navigation system according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 수술 내비게이션 시스템(100)은 환자의 수술 대상 장기를 촬영한 CT 또는 MRI와 같은 2차원 의료 영상을 수신한다. 그리고 수신한 2차원 의료 영상을 토대로 3차원 의료 영상을 생성한다(S100). As shown in FIG. 3, the surgical navigation system 100 receives a 2D medical image such as a CT or an MRI of an organ of a patient. In operation S100, a 3D medical image is generated based on the received 2D medical image.

이와 동시에 수술 내비게이션 시스템(100)은 생성한 3차원 의료 영상을 토대로 이후 필터링에 사용할 임계값을 계산한다. 2차원 의료 영상을 3차원 입체 영상으로 생성하는 과정에서, 수술 내비게이션 시스템(100)은 환자의 장기의 구조나 위치, 장기 내부 혈관 구조, 병변 위치나 병변 크기 등의 다양한 장기 정보도 추출한다.At the same time, the surgical navigation system 100 calculates a threshold to be used for later filtering based on the generated 3D medical image. In the process of generating a two-dimensional medical image as a three-dimensional stereoscopic image, the surgical navigation system 100 also extracts various organ information such as organ structure or location of the patient, organ internal vascular structure, lesion location or lesion size.

수술 내비게이션 시스템(100)은 의사가 환자의 수술 대상 장기에 표시한 세 지점의 표식에 대한 위치 정보를 제1 관심 영역으로 획득한다. 그리고 획득한 제1 관심 영역으로부터 제2 관심 영역을 계산한다(S110).The surgical navigation system 100 obtains location information on three marks marked by a doctor on an organ to be operated by a patient as a first region of interest. In operation S110, a second ROI is calculated from the acquired first ROI.

즉, 의사가 환자의 수술 대상 장기에 염색약 등을 이용하여 세 지점에 점을 찍으면, 해당 점들에 대한 위치 정보를 제1 관심 영역으로 획득한다. 이는 3차원 의료 영상으로부터 생성된 장기 영상을 실제 수술 대상 장기에 정합하는 과정에서, 관심 영역을 이용하여 정합이 이루어질 수 있도록 하기 위함이다. 그리고 제1 관심 영역을 3차원 의료 영상에 적용하기 위하여 제2 관심 영역을 계산한다.That is, when a doctor marks a point at three points using a dye or the like on a patient's surgery target organ, the doctor acquires location information on the points as the first ROI. This is to ensure that the matching is performed using the ROI in the process of matching the organ image generated from the 3D medical image to the target organ. The second ROI is calculated to apply the first ROI to the 3D medical image.

제2 관심 영역을 계산한 후, 수술 내비게이션 시스템(100)은 환자가 취하고 있는 환자 자세 영상으로부터 자세 정보를 추출한다(S120). 환자 자세 영상을 수집하는 방법이나, 수집한 환자 자세 영상으로부터 자세 정보를 추출하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.After calculating the second ROI, the surgical navigation system 100 extracts posture information from the patient posture image of the patient (S120). Since the method of collecting the patient posture image or the method of extracting the posture information from the collected patient posture image may be performed in various ways, the embodiment of the present invention is not limited to any one method.

수술 내비게이션 시스템(100)은 S100 단계에서 생성한 3차원 의료 영상과 계산한 임계값, S110 단계에서 계산한 제2 관심 영역, 그리고 S120 단계에서 추출한 자세 정보를 토대로 보정된 장기 영상을 생성한다(S130). The surgical navigation system 100 generates a corrected long-term image based on the 3D medical image generated in step S100 and the threshold value calculated in step S110, the second region of interest calculated in step S110, and the posture information extracted in step S120 (S130). ).

즉, 수술 내비게이션 시스템(100)은 제2 관심 영역이 표시된 3차원 의료 영상을 환자 자세 영상으로부터 추출한 자세 정보를 토대로 보정한다. 수술 내비게이션 시스템(100)은 보정된 3차원 의료 영상을 S100 단계에서 계산된 임계값을 이용하여 필터링하여 장기 영상을 생성한다(S140). 필터링되어 생성된 장기 영상에는, 수술 대상 장기의 내부 구조 즉, 혈관과 병변, 그리고 제2 관심 영역이 남게 되고, 그 밖의 조직(예를 들어, 뼈, 근육 등)들은 삭제되어, 실제 장기상에서 혈관과 병변만을 디스플레이 할 수 있게 된다.That is, the surgical navigation system 100 corrects the 3D medical image displaying the second ROI based on posture information extracted from the patient posture image. The surgical navigation system 100 generates a long-term image by filtering the corrected 3D medical image using the threshold value calculated in step S100 (S140). In the filtered organ image, internal structures of the organ to be operated, i.e., blood vessels and lesions, and a second region of interest remain, and other tissues (e.g., bones, muscles, etc.) are deleted, and the blood vessels on the actual organs are deleted. Only and lesions can be displayed.

수술 내비게이션 시스템(100)은 S140 단계에서 생성한 장기 영상을 관심 영역을 토대로 실제 영상에 정합하여 디스플레이 한다(S150). 즉, 수술 내비게이션 시스템(100) 실제 장기에 표시된 제1 관심 영역과 장기 영상에 표시된 제2 관심 영역을 일치시켜, 수술 대상 장기에 장기 영상이 정합된 형태로 디스플레이 한다. The surgical navigation system 100 matches and displays the long-term image generated in operation S140 with the actual image based on the region of interest (S150). That is, the surgical navigation system 100 matches the first region of interest displayed on the actual organ with the second region of interest displayed on the organ image, and displays the organ image on the target organ.

이상에서 설명한 수술 내비게이션 시스템이 제공하는 수술 대상 장기에 투영된 장기 영상의 예에 대해 도 4를 참조로 설명한다.An example of an organ image projected on an operation target organ provided by the surgical navigation system described above will be described with reference to FIG. 4.

도 4는 본 발명의 실시예에 따라 수술 내비게이션 시스템이 제공하는 장기 영상의 예시도이다.4 is an exemplary diagram of an organ image provided by a surgical navigation system according to an exemplary embodiment of the present invention.

도 4의 (a)에 도시된 바와 같이 환자가 정 자세로 누워있는 상태에서 간에 대한 수술이 이루어진다고 가정하면, 의사는 환자의 간에 세 곳에 관심 영역을 설정한다. 수술 내비게이션 시스템(100)은 환자에 대한 2차원 장기 영상을 토대로 3차원 장기 영상을 생성하고, 도 4의 (b)에 나타낸 바와 같이 의사가 환자의 간에 직접 표시해 둔 관심 영역을 3차원 장기 영상에도 반영되도록 표시한다.As shown in (a) of FIG. 4, assuming that surgery is performed on the liver while the patient is lying in the forward position, the doctor sets three regions of interest in the liver of the patient. The surgical navigation system 100 generates a three-dimensional organ image based on the two-dimensional organ image of the patient, and as shown in (b) of FIG. 4, the surgeon navigation system 100 also displays a region of interest displayed directly by the doctor on the three-dimensional organ image. Mark to reflect.

그리고, 환자가 취한 자세에서 확인할 수 있는 간의 형태와 동일하게 3차원 장기 영상을 반영하여 도 4의 (b)와 같이 장기 영상을 생성한다. 장기 영상에 반영된 관심 영역이 도 4의 (a)에 나타낸 환자의 간에 표시된 관심 영역에 1:1 매칭되도록 정합한다.The organ image is generated as shown in FIG. 4B by reflecting the 3D organ image in the same manner as the shape of the liver which can be confirmed in the posture taken by the patient. The region of interest reflected in the long-term image is matched to match the region of interest indicated by the liver of the patient shown in FIG. 4A.

이를 토대로 의사가 실제 수술을 집도할 때, 디스플레이부(120) 즉, HMD 형태의 장비를 통해 환자의 간을 보면, 도 4의 (a)에 나타낸 환자의 실제 간 상에 (b)에 나타낸 장기 영상이 투영되어 의사가 간의 혈관이나 병변의 크기, 병변의 위치 등을 용이하게 파악할 수 있도록 한다.On the basis of this, when the doctor performs the actual surgery, the patient's liver is shown through the display unit 120, that is, the HMD-type equipment, and the organ shown in (b) on the actual liver of the patient shown in FIG. The image is projected so that doctors can easily determine the size of the blood vessels or lesions in the liver and the location of the lesions.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (13)

수술 내비게이션 시스템에 있어서,
환자의 수술 대상 장기의 2차원 의료 영상 정보를 이용하여 3차원 의료 영상을 생성하고, 생성한 상기 3차원 의료 영상, 상기 3차원 의료 영상을 나타내는 그레이 스케일(gray scale)에 해당하는 값, 상기 수술 대상 장기에 표시된 세 지점에 대한 위치 정보인 제1 관심 영역과 환자 자세 정보를 토대로, 상기 수술 대상 장기에 매칭할 장기 영상을 생성하는 영상 매칭부, 그리고
상기 영상 매칭부에서 생성한 장기 영상을, 환자의 실제 장기상에 투영하여 디스플레이하는 디스플레이부
를 포함하고,
상기 영상 매칭부는,
상기 수술 대상 장기에 대한 2차원 의료 영상 정보를 수신하는 정보 수신부,
상기 정보 수신부가 수신한 2차원 의료 영상 정보를 이용하여 상기 3차원 의료 영상을 생성하고, 생성한 3차원 의료 영상으로부터 상기 그레이 스케일에 해당하는 값을 계산하는 3차원 영상 생성부,
상기 수술 대상 장기에 표시된 복수의 상기 제1 관심 영역을 획득하고, 상기 제1 관심 영역과 동일한 영역이며 상기 3차원 의료 영상에 반영하여 제공할 제2 관심 영역을 계산하는 관심 영역 설정부, 그리고
상기 3차원 의료 영상을 상기 그레이 스케일에 해당하는 값으로 필터링하여 장기 영상을 생성하고, 생성한 장기 영상에 포함된 상기 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치되도록 매칭하는 장기 영상 생성부
를 포함하는 수술 내비게이션 시스템.
In surgical navigation systems,
A 3D medical image is generated by using 2D medical image information of a patient's surgery target organ, the generated 3D medical image, a value corresponding to a gray scale representing the 3D medical image, and the surgery An image matching unit configured to generate an organ image to be matched with the target organ based on the first ROI and the patient posture information, which are location information of three points displayed on the target organ, and
A display unit for projecting and displaying the organ image generated by the image matching unit on the actual organ of the patient
Including,
The image matching unit,
An information receiver configured to receive 2D medical image information of the organ to be operated on;
A 3D image generating unit generating the 3D medical image using the 2D medical image information received by the information receiving unit and calculating a value corresponding to the gray scale from the generated 3D medical image;
A region of interest setting unit for obtaining a plurality of first regions of interest displayed on the surgery target organ, and calculating a second region of interest that is the same region as the first region of interest and is reflected and provided in the 3D medical image;
The 3D medical image is filtered to a value corresponding to the gray scale to generate an organ image, and to match the second region of interest included in the generated organ image with the first region of interest displayed on the target organ to match. Long term image generator
Surgical navigation system comprising a.
삭제delete 제1항에 있어서,
상기 장기 영상은 상기 수술 대상 장기의 혈관과 병변, 상기 혈관과 병변에 대한 깊이 정보와 상기 제2 관심 영역을 포함하는 수술 내비게이션 시스템.
The method of claim 1,
The organ image may include blood vessels and lesions of the organ to be operated on, depth information about the blood vessels and lesions, and the second region of interest.
제3항에 있어서,
상기 장기 영상 생성부는,
상기 환자의 자세 정보를 수신하고,
상기 제2 관심 영역이 반영된 상기 3차원 의료 영상을 상기 자세 정보를 토대로 보정하는 수술 내비게이션 시스템.
The method of claim 3,
The long term image generator,
Receiving posture information of the patient,
And a navigation navigation system for correcting the 3D medical image reflecting the second ROI based on the posture information.
제4항에 있어서,
상기 장기 영상 생성부는,
상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산하는 수술 내비게이션 시스템.
The method of claim 4, wherein
The long term image generator,
In order to match and match the second ROI of the organ image with the first ROI displayed on the organ to be operated, the rotation angle, the size change value, and the position change value of the second ROI based on the first ROI. Surgical navigation system to calculate the.
제1항에 있어서,
상기 2차원 의료 영상 정보는 장기 외형, 병변 위치, 병변 크기, 주변 장기 위치, 주변 장기 구조, 혈관 구조 및 혈관 위치 중 복수의 정보를 포함하는 수술 내비게이션 시스템.
The method of claim 1,
The 2D medical image information includes a plurality of pieces of information such as organ appearance, lesion location, lesion size, peripheral organ location, peripheral organ structure, vascular structure and blood vessel location.
제1항에 있어서,
상기 디스플레이부는,
상기 장기 영상 생성부가 생성한 장기 영상을 수신하는 장기 영상 수신부, 그리고
상기 수신한 장기 영상을 상기 수술 대상 장기상에 투영되도록 디스플레이하는 영상 제공부
를 포함하는 수술 내비게이션 시스템.
The method of claim 1,
The display unit,
A long term image receiver configured to receive a long term image generated by the long term image generator, and
Image providing unit for displaying the received organ image to be projected on the surgery target organ
Surgical navigation system comprising a.
제7항에 있어서,
상기 디스플레이부는,
의사가 착용할 수 있는 HMD(Head Mounted Device) 형태 또는 비 HMD(Non-Head Mounted Device) 형태 중 어느 하나로 구현되는 수술 내비게이션 시스템.
The method of claim 7, wherein
The display unit,
Surgical navigation system implemented in the form of a head-mounted device (HMD) or non-head-mounted device (HMD) wearable by a doctor.
수술 내비게이션 시스템이 수술 대상 장기에 장기 영상을 디스플레이하는 방법에 있어서,
제1 관심 영역이 표시된 환자의 수술 대상 장기에 대한 2차원 의료 영상으로부터 3차원 의료 영상을 생성하는 단계,
상기 생성한 3차원 의료 영상에 상기 제1 관심 영역에 대응하는 제2 관심 영역을 반영하는 단계,
상기 3차원 의료 영상을 나타내는 그레이 스케일(gray scale)에 해당하는 값을 토대로 상기 3차원 의료 영상을 필터링하여, 상기 제2 관심 영역이 반영된 장기 영상을 생성하는 단계, 그리고
상기 제1 관심 영역과 제2 관심 영역을 일치시키고, 상기 수술 대상 장기에 상기 장기 영상을 매칭하여 상기 수술 대상 장기상에 상기 장기 영상이 투영되도록 디스플레이하는 단계
를 포함하는 장기 영상 디스플레이 방법.
In the method of the surgical navigation system to display an organ image on the organ to be operated,
Generating a 3D medical image from the 2D medical image of the target organ of the patient displaying the first ROI,
Reflecting a second region of interest corresponding to the first region of interest on the generated 3D medical image;
Generating the organ image reflecting the second region of interest by filtering the 3D medical image based on a value corresponding to a gray scale representing the 3D medical image, and
Matching the first region of interest with a second region of interest, matching the organ image to the organ to be operated, and displaying the organ image onto the surgical organ;
Long term image display method comprising a.
제9항에 있어서,
상기 장기 영상은 상기 수술 대상 장기의 혈관과 병변, 상기 혈관과 병변에 대한 깊이 정보와 상기 제2 관심 영역을 포함하는 장기 영상 디스플레이 방법.
The method of claim 9,
The organ image may include blood vessels and lesions of the organ to be operated, depth information about the vessels and lesions, and the second region of interest.
제9항에 있어서,
상기 제2 관심 영역을 반영하는 단계는,
외부로부터 입력되는 환자의 자세 영상으로부터 추출된 자세 정보를 획득하는 단계, 그리고
획득한 자세 정보를 토대로 상기 제2 관심 영역이 반영된 3차원 의료 영상을 보정하는 단계
를 포함하는 장기 영상 디스플레이 방법.
The method of claim 9,
Reflecting the second region of interest,
Obtaining posture information extracted from a posture image of a patient input from outside; and
Correcting the 3D medical image reflecting the second ROI based on the acquired posture information
Long term image display method comprising a.
제9항에 있어서,
상기 3차원 의료 영상을 생성하는 단계 이전에,
상기 수술 대상 장기에 대한 2차원 의료 영상을 수신하는 단계, 그리고
수신한 2차원 의료 영상으로부터 상기 3차원 의료 영상을 생성하는 단계
를 포함하고,
상기 2차원 의료 영상은 MRI 또는 CT 중 어느 하나로, 상기 수술 대상 장기에 대한 장기 외형, 병변 위치, 병변 크기, 주변 장기 위치, 주변 장기 구조, 혈관 구조 및 혈관 위치 중 복수의 정보를 포함하는 장기 영상 디스플레이 방법.
The method of claim 9,
Before generating the 3D medical image,
Receiving a 2D medical image of the organ to be operated on, and
Generating the 3D medical image from the received 2D medical image
Including,
The 2D medical image is either MRI or CT, and includes a plurality of pieces of information of an organ shape, a lesion position, a lesion size, a peripheral organ position, a peripheral organ structure, a vascular structure, and a blood vessel position of the target organ. Display method.
제9항에 있어서,
상기 디스플레이하는 단계는,
상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산하는 단계
를 더 포함하는 장기 영상 디스플레이 방법.
The method of claim 9,
The displaying step,
In order to match and match the second ROI of the organ image with the first ROI displayed on the organ to be operated, the rotation angle, the size change value, and the position change value of the second ROI based on the first ROI. Step to calculate
The long-term image display method further comprising.
KR1020170085027A 2017-07-04 2017-07-04 Navigation system for liver disease using augmented reality technology and method for organ image display Expired - Fee Related KR101988531B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170085027A KR101988531B1 (en) 2017-07-04 2017-07-04 Navigation system for liver disease using augmented reality technology and method for organ image display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170085027A KR101988531B1 (en) 2017-07-04 2017-07-04 Navigation system for liver disease using augmented reality technology and method for organ image display

Publications (2)

Publication Number Publication Date
KR20190004591A KR20190004591A (en) 2019-01-14
KR101988531B1 true KR101988531B1 (en) 2019-09-30

Family

ID=65027663

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170085027A Expired - Fee Related KR101988531B1 (en) 2017-07-04 2017-07-04 Navigation system for liver disease using augmented reality technology and method for organ image display

Country Status (1)

Country Link
KR (1) KR101988531B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102275385B1 (en) 2019-05-16 2021-07-09 주식회사 데카사이트 System and method for tracking motion of medical device using augmented reality
KR102457585B1 (en) * 2020-04-10 2022-10-21 (주)휴톰 Method and system for navigating vascular during surgery
KR102446345B1 (en) 2020-06-23 2022-09-23 한림대학교 산학협력단 Control method, apparatus and program for lesion determination system obtained by breast imaging
KR102776812B1 (en) * 2022-06-03 2025-03-06 전남대학교산학협력단 Method and apparatus for detecting position of biopsy needle in medical diagnostic image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101667152B1 (en) 2015-05-22 2016-10-24 고려대학교 산학협력단 Smart glasses system for supplying surgery assist image and method for supplying surgery assist image using smart glasses

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206340B1 (en) * 2011-04-29 2012-11-29 주식회사 코어메드 Method and System for Providing Rehearsal of Image Guided Surgery and Computer-readable Recording Medium for the same
KR20140112207A (en) * 2013-03-13 2014-09-23 삼성전자주식회사 Augmented reality imaging display system and surgical robot system comprising the same
KR20160086629A (en) * 2015-01-12 2016-07-20 한국전자통신연구원 Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101667152B1 (en) 2015-05-22 2016-10-24 고려대학교 산학협력단 Smart glasses system for supplying surgery assist image and method for supplying surgery assist image using smart glasses

Also Published As

Publication number Publication date
KR20190004591A (en) 2019-01-14

Similar Documents

Publication Publication Date Title
JP6400793B2 (en) Generating image display
US9990744B2 (en) Image registration device, image registration method, and image registration program
JP2023175709A (en) Registration for spatial tracking system and augmented reality display
US10055848B2 (en) Three-dimensional image segmentation based on a two-dimensional image information
KR20210051141A (en) Method, apparatus and computer program for providing augmented reality based medical information of patient
US20180158201A1 (en) Apparatus and method for registering pre-operative image data with intra-operative laparoscopic ultrasound images
US10022199B2 (en) Registration correction based on shift detection in image data
JP2019519257A (en) System and method for image processing to generate three-dimensional (3D) views of anatomical parts
KR101988531B1 (en) Navigation system for liver disease using augmented reality technology and method for organ image display
US20200242776A1 (en) Medical image processing apparatus, medical image processing method, and system
KR102056930B1 (en) Spine surgical navigation system and method using augmented reality technology
JP6493885B2 (en) Image alignment apparatus, method of operating image alignment apparatus, and image alignment program
JP5934070B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
KR102433473B1 (en) Method, apparatus and computer program for providing augmented reality based medical information of patient
CN110731817A (en) radiationless percutaneous spine positioning method based on optical scanning automatic contour segmentation matching
CN116492052A (en) Three-dimensional visual operation navigation system based on mixed reality backbone
JP2019126654A (en) Image processing device, image processing method, and program
CN115105204A (en) A laparoscopic augmented reality fusion display method
Andrea et al. Validation of stereo vision based liver surface reconstruction for image guided surgery
JP4512824B2 (en) Image processing apparatus and program used therefor
JP6476125B2 (en) Image processing apparatus and surgical microscope system
JP2019516492A (en) Motion Compensation of Hybrid X-ray / Camera Intervention
JP2017046725A (en) Image alignment apparatus, method and program
CANGELOSI Image-Guided Surgery and Augmented Reality in Orthopaedic Surgery: a perspective on reducing Iatrogenic Nerve Damage in Elbow
JP2024509589A (en) Patient preparation for medical imaging

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20170704

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20181127

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20190307

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20190605

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20190605

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20220401

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20230404

Start annual number: 5

End annual number: 5

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20250316