KR101988531B1 - Navigation system for liver disease using augmented reality technology and method for organ image display - Google Patents
Navigation system for liver disease using augmented reality technology and method for organ image display Download PDFInfo
- Publication number
- KR101988531B1 KR101988531B1 KR1020170085027A KR20170085027A KR101988531B1 KR 101988531 B1 KR101988531 B1 KR 101988531B1 KR 1020170085027 A KR1020170085027 A KR 1020170085027A KR 20170085027 A KR20170085027 A KR 20170085027A KR 101988531 B1 KR101988531 B1 KR 101988531B1
- Authority
- KR
- South Korea
- Prior art keywords
- organ
- image
- medical image
- interest
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 210000000056 organ Anatomy 0.000 title claims abstract description 195
- 238000000034 method Methods 0.000 title claims description 43
- 230000003190 augmentative effect Effects 0.000 title description 5
- 208000019423 liver disease Diseases 0.000 title 1
- 230000007774 longterm Effects 0.000 claims abstract description 34
- 230000003902 lesion Effects 0.000 claims description 40
- 238000001356 surgical procedure Methods 0.000 claims description 29
- 210000004204 blood vessel Anatomy 0.000 claims description 21
- 230000002093 peripheral effect Effects 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 10
- 230000002792 vascular Effects 0.000 claims description 9
- 210000001519 tissue Anatomy 0.000 description 12
- 210000004185 liver Anatomy 0.000 description 8
- 238000002595 magnetic resonance imaging Methods 0.000 description 7
- 210000000988 bone and bone Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000013170 computed tomography imaging Methods 0.000 description 3
- 210000001835 viscera Anatomy 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 2
- 210000001672 ovary Anatomy 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- 230000003187 abdominal effect Effects 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003387 muscular Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 210000001147 pulmonary artery Anatomy 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000004291 uterus Anatomy 0.000 description 1
- 210000001631 vena cava inferior Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/366—Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
수술 내비게이션 시스템이 수술 대상 장기에 장기 영상을 디스플레이 하기 위하여, 제1 관심 영역이 표시된 환자의 수술 대상 장기에 대한 2차원 의료 영상으로부터 3차원 의료 영상을 생성한다. 생성한 3차원 의료 영상에 제1 관심 영역에 대응하는 제2 관심 영역을 반영하고, 3차원 의료 영상을 토대로 계산된 임계값을 토대로 3차원 의료 영상을 필터링하여 제2 관심 영역이 반영된 장기 영상을 생성한다. 그리고 제1 관심 영역과 제2 관심 영역을 일치시키고, 수술 대상 장기에 장기 영상을 매칭하여 수술 대상 장기상에 장기 영상이 투영되도록 디스플레이 한다.In order for the surgical navigation system to display an organ image on the organ to be operated on, the 3D medical image is generated from a 2D medical image of the organ of the patient on which the first ROI is displayed. Reflect the second region of interest corresponding to the first region of interest in the generated three-dimensional medical image, filter the three-dimensional medical image based on the threshold calculated based on the three-dimensional medical image, and display the long-term image in which the second region of interest is reflected. Create Then, the first ROI coincides with the second ROI, and the organ image is matched to the organ to be operated to display the organ image on the organ.
Description
본 발명은 증강현실 기술을 이용한 간병변 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법에 관한 것이다.The present invention relates to a liver lesion surgery navigation system and a long-term image display method using augmented reality technology.
일반적으로 의사들이 수술에 들어가기 앞서 환자의 수술 계획을 수립할 때, 수술 부위에 대한 정보를 환자의 CT(Computed Tomographic) 또는 MRI(Magnetic Resonance Imaging) 사진 등의 2차원 의료 영상을 참고하여 수술 계획을 세운다. 이 경우, 대부분 환자의 장기 내부에 존재하는 병변의 위치나 병변의 위치에 따른 혈관과의 관계 등을 2차원 의료 영상에 매칭하기 어려우며, 수술 전에 장기 촬영 정보로 활용할 수단이 없으므로, 수술 시 장기 내부 병변의 위치와 주위 혈관 분포 등을 파악하는데 많은 한계가 있다.In general, when doctors plan a patient's surgery plan before entering the surgery, the surgery plan is referred to two-dimensional medical images such as CT (Computed Tomographic) or MRI (Magnetic Resonance Imaging) information. Stand up. In this case, it is difficult to match the two-dimensional medical image with the location of the lesion or the relationship with blood vessels according to the location of the lesion in most patients' organs. There are many limitations in determining the location of lesions and the distribution of surrounding blood vessels.
이러한 문제점을 해결하기 위해, CT나 MRI 사진들을 3차원 영상으로 구현하여 제공하는 기술이 연구되고 있다. 3차원의 증강 현실 영상으로 구현된 의료 영상을 이용하여 수술 계획을 세운다 하더라도, 수술 내비게이션 시스템을 사용하는 의사는 수술 도구와 환자의 장기간의 깊이 감을 정확하게 인식하지 못할 경우, 원치 않는 부위를 손상시킬 우려가 있다. In order to solve this problem, a technique for providing a 3D image by providing CT or MRI pictures has been studied. Even if the surgical plan is made using medical images made with 3D augmented reality images, doctors using the surgical navigation system may damage unwanted parts if they do not accurately recognize the surgical instruments and the long-term depth of the patient. There is.
따라서, 본 발명은 실제 환자의 장기 내부 병변의 위치와 주위 혈관 분포 등 장기 내부의 영상을 증강 현실 기술을 이용하여 제공하는 수술 내비게이션 시스템 및 장기 영상 디스플레이 방법을 제공한다.Accordingly, the present invention provides a surgical navigation system and a long-term image display method for providing an image of the internal organs, such as the location of the internal organ lesions of the patient and the distribution of surrounding blood vessels using augmented reality technology.
상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 하나의 특징인 수술 내비게이션 시스템은,Surgical navigation system which is one feature of the present invention for achieving the technical problem of the present invention,
환자의 수술 대상 장기의 2차원 의료 영상 정보로부터 3차원 의료 영상 정보를 생성하고, 생성한 상기 3차원 의료 영상 정보, 3차원 의료 영상 정보로부터 계산된 임계값, 외부로부터 수집한 관심 영역과 환자 자세 정보를 토대로, 상기 수술 대상 장기에 매칭할 장기 영상을 생성하는 영상 매칭부, 그리고 상기 영상 매칭부에서 생성한 장기 영상을, 환자의 실제 장기상에 투영하여 디스플레이하는 디스플레이부를 포함한다.3D medical image information is generated from the 2D medical image information of a patient's surgery target organ, the generated 3D medical image information, a threshold calculated from the 3D medical image information, an external region of interest and a patient posture Based on the information, the image matching unit for generating an organ image to match the surgery target organ, and the display unit for projecting and displaying the organ image generated by the image matching unit on the actual organ of the patient.
상기 영상 매칭부는, 상기 수술 대상 장기에 대한 2차원 의료 영상 정보를 수신하는 정보 수신부, 상기 정보 수신부가 수신한 2차원 의료 영상 정보로부터 상기 3차원 의료 영상 정보를 생성하고, 생성한 3차원 의료 영상 정보로부터 상기 임계값을 계산하는 3차원 영상 생성부, 상기 수술 대상 장기에 표시된 복수의 제1 관심 영역을 획득하고, 획득한 제1 관심 영역으로부터 상기 3차원 의료 영상 정보에 반영할 제2 관심 영역을 계산하는 관심 영역 설정부, 그리고 상기 3차원 의료 영상을 상기 임계값으로 필터링하여 장기 영상을 생성하고, 생성한 장기 영상에 포함된 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치되도록 매칭하는 장기 영상 생성부를 포함할 수 있다.The image matching unit may include an information receiver configured to receive 2D medical image information about the organ to be operated on, and generate the 3D medical image information from the 2D medical image information received by the information receiver, and generate the 3D medical image. A 3D image generating unit for calculating the threshold value from the information, a plurality of first ROIs displayed on the organ to be operated on, and a second ROI to be reflected in the 3D medical image information from the acquired first ROI A region of interest setting unit for calculating a region, and generating a long-term image by filtering the 3D medical image by the threshold value, and a second region of interest included in the generated organ image and a first region of interest displayed on the target organ It may include a long-term image generating unit for matching to match.
상기 장기 영상은 상기 수술 대상 장기의 혈관과 병변, 상기 혈관과 병변에 대한 깊이 정보와 상기 제2 관심 영역을 포함하며, 상기 임계값은 상기 3차원 의료 영상으로부터 계산된 그레이 스케일 값일 수 있다.The organ image may include blood vessels and lesions of the surgery target organ, depth information of the blood vessels and lesions, and the second region of interest, and the threshold value may be a gray scale value calculated from the 3D medical image.
상기 장기 영상 생성부는, 상기 환자의 자세 정보를 수신하고, 제2 관심 영역이 반영된 상기 3차원 의료 영상을 상기 자세 정보를 토대로 보정할 수 있다.The organ image generator may receive posture information of the patient and correct the 3D medical image reflecting a second ROI based on the posture information.
상기 장기 영상 생성부는, 상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산할 수 있다.The long-term image generator may be configured to rotate and size the second ROI based on the first ROI in order to match the second ROI of the organ image with the first ROI displayed on the organ to be operated. The change value and the position change value can be calculated.
상기 디스플레이부는, 상기 장기 영상 생성부가 생성한 장기 영상을 수신하는 장기 영상 수신부, 그리고 상기 수신한 장기 영상을 상기 수술 대상 장기상에 투영되도록 디스플레이하는 영상 제공부를 포함할 수 있다.The display unit may include an organ image receiving unit for receiving an organ image generated by the organ image generating unit, and an image providing unit configured to display the received organ image to be projected onto the surgical target organ.
상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 또 다른 특징인 수술 내비게이션 시스템이 수술 대상 장기에 장기 영상을 디스플레이하는 방법은,In another aspect of the present invention for achieving the technical problem of the present invention, a navigation navigation system for displaying a long-term image on the organ to be operated,
제1 관심 영역이 표시된 환자의 수술 대상 장기에 대한 2차원 의료 영상으로부터 3차원 의료 영상을 생성하는 단계, 상기 생성한 3차원 의료 영상에 상기 제1 관심 영역에 대응하는 제2 관심 영역을 반영하는 단계, 상기 3차원 의료 영상을 토대로 계산된 임계값을 토대로 상기 3차원 의료 영상을 필터링하여 제2 관심 영역이 반영된 장기 영상을 생성하는 단계, 그리고 상기 제1 관심 영역과 제2 관심 영역을 일치시키고, 상기 수술 대상 장기에 상기 장기 영상을 매칭하여 상기 수술 대상 장기상에 상기 장기 영상이 투영되도록 디스플레이하는 단계를 포함한다.Generating a 3D medical image from a 2D medical image of a target organ of a patient displaying a first ROI, and reflecting a second ROI corresponding to the first ROI to the generated 3D medical image Generating a long-term image reflecting a second ROI by filtering the 3D medical image based on a threshold calculated based on the 3D medical image, and matching the first ROI with the second ROI. And matching the organ image to the surgery target organ to display the organ image on the surgery target organ.
상기 제2 관심 영역을 반영하는 단계는, 외부로부터 입력되는 환자의 자세 영상으로부터 추출된 자세 정보를 획득하는 단계, 그리고 획득한 자세 정보를 토대로 상기 제2 관심 영역이 반영된 3차원 의료 영상을 보정하는 단계를 포함할 수 있다.The reflecting of the second ROI may include obtaining posture information extracted from a posture image of a patient input from the outside, and correcting a 3D medical image reflecting the second ROI based on the acquired posture information. It may include a step.
상기 3차원 의료 영상을 생성하는 단계 이전에, 상기 수술 대상 장기에 대한 2차원 의료 영상을 수신하는 단계, 그리고 수신한 2차원 의료 영상으로부터 상기 3차원 의료 영상을 생성하는 단계Before generating the 3D medical image, receiving a 2D medical image of the organ to be operated on, and generating the 3D medical image from the received 2D medical image
를 포함하고, 상기 2차원 의료 영상은 MRI 또는 CT 중 어느 하나로, 상기 수술 대상 장기에 대한 장기 외형, 병변 위치, 병변 크기, 주변 장기 위치, 주변 장기 구조, 혈관 구조 및 혈관 위치 중 복수의 정보를 포함할 수 있다.The 2D medical image may include a plurality of pieces of information of an organ shape, a lesion location, a lesion size, a peripheral organ location, a peripheral organ structure, a vascular structure, and a blood vessel location, using either MRI or CT. It may include.
상기 디스플레이하는 단계는, 상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산하는 단계를 더 포함할 수 있다. The displaying may include a rotation angle and a size of the second ROI based on the first ROI in order to match the second ROI of the organ image with the first ROI displayed on the organ to be operated. The method may further include calculating a change value and a position change value.
본 발명에 따르면, 직접 수술 전 환자의 장기 내부 상태를 증강 현실 영상으로 확인할 수 있어 수술 계획을 세움에 있어 명확한 자료로 사용함으로써, 의료 사고의 발생 감소와 수술 시간 단축 및 환자의 수술에 대한 부담감을 감소시킬 수 있다.According to the present invention, the internal organ state of the patient can be directly confirmed by the augmented reality image, so that it can be used as a clear data in the planning of the surgery, thereby reducing the occurrence of medical accidents, reducing the operation time, and the burden on the patient's surgery. Can be reduced.
또한, 직접 수술 및 시술용이 아닌 의학 전공자 및 기타 전공자들에게 교육용 소프트웨어로 보급할 수 있으므로, 교육 비용을 줄일 수 있다.In addition, it can be distributed as educational software to medical and other majors, not directly for surgery and surgery, thereby reducing the cost of education.
도 1은 본 발명의 실시예에 따른 수술 내비게이션 시스템의 예시도이다.
도 2는 본 발명의 실시예에 따른 수술 내비게이션 시스템의 구조도이다.
도 3은 본 발명의 실시예에 따른 수술 내비게이션 시스템을 이용한 장기 영상 제공 방법에 대한 흐름도이다.
도 4는 본 발명의 실시예에 따라 수술 내비게이션 시스템이 제공하는 장기 영상의 예시도이다.
도 5는 본 발명의 실시예에 따라 각 장기별 설정된 관심 영역의 예시도이다.1 is an illustration of a surgical navigation system according to an embodiment of the present invention.
2 is a structural diagram of a surgical navigation system according to an embodiment of the present invention.
3 is a flowchart illustrating a long-term image providing method using a surgical navigation system according to an embodiment of the present invention.
4 is an exemplary diagram of an organ image provided by a surgical navigation system according to an exemplary embodiment of the present invention.
5 is an exemplary diagram of an ROI set for each organ according to an exemplary embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise.
이하, 도면을 참조로 하여 본 발명의 실시예에 따른 수술 내비게이션 시스템 및 이를 이용한 입체 영상 제공 방법에 대해 설명한다.Hereinafter, a surgical navigation system and a stereoscopic image providing method using the same according to an embodiment of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 수술 내비게이션 시스템의 예시도이다. 1 is an illustration of a surgical navigation system according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 환자의 장기에 3차원의 입체 장기 영상을 매칭하여, 수술자(이하, ‘의사’라 지칭함)가 수술 중 직접 병변이나 혈관 등의 장기 내부 구조를 확인할 수 있도록 하는 수술 내비게이션 시스템(100)은 영상 매칭부(110)와 디스플레이부(120)를 포함한다.As shown in Figure 1, by matching a three-dimensional stereoscopic organ image to the organ of the patient, the operator (hereinafter referred to as a doctor) to allow the operator to directly check the internal structure of the organ, such as lesions or vessels during surgery The
영상 매칭부(110)는 환자의 장기에 대한 CT 또는 MRI 등 2차원 의료 영상을 토대로 3차원 의료 영상을 생성한다. 영상 매칭부(110)는 환자가 수술 받을 때 취하는 자세 정보를 기준으로 3차원 의료 영상을 생성한다. 이를 위해, 영상 매칭부(1100는 환자가 취하고 있는 자세로부터 자세 정보를 획득하여 이용하는 것을 예로 하여 설명하나, 환자가 수술을 받을 때 취하는 자세 정보가 고정되어 있는 경우에는 미리 영상 매칭부(110)에 자세 정보가 저장되어 있을 수도 있다.The
영상 매칭부(110)가 생성한 3차원 의료 영상에는 장기의 전체 외관, 내부 혈관 조직, 병변 조직, 주변 기관, 장기의 위치 및 구조를 모두 포함한다. 영상 매칭부(110)가 2차원 의료 영상과 자세 정보를 기준으로 3차원 의료 영상을 생성하는 방법은 여러 방법으로 수행될 수 있으므로, 본 발명의 실시예에서는 어느 하나로 한정하지 않는다.The 3D medical image generated by the
영상 매칭부(110)는 또한 외부로부터 입력되는 실제 장기 주변의 미리 설정된 수만큼의 지점을 장기에 대한 관심 영역(land mark)으로 수신한다. 의사가 수술 시 실제 장기에 염색약과 같이 장기에 손상을 주지 않으면서도 위치 파악이 용이하도록 임의의 위치 또는 미리 설정된 위치에 표시하면, 영상 매칭부(110)는 표시된 복수의 위치를 관심영역으로 수신한다.The image matching
영상 매칭부(110)는 생성한 3차원 의료 영상에 수신한 관심 영역을 설정한다. 그리고, 영상 매칭부(110)는 관심 영역이 설정된 3차원 의료 영상을 미리 계산된 임계값을 이용하여 필터링하여 실제 장기에 정합될 장기 영상을 생성한다. 그리고, 생성한 장기 영상을 디스플레이부(120)로 제공하여, 수술자인 의사가 디스플레이부(120)를 통해 실제 장기와 정합된 입체 장기 영상을 확인할 수 있도록 한다. 이때, 장기 영상에도 관심 영역이 표시되어 있으므로, 실제 장기상에 표시된 관심 영역에 일치하도록 위치시킨 후, 장기 영상이 실제 장기에 투영되어 디스플레이 된다.The image matching
디스플레이부(120)는 영상 매칭부(110)로부터 전달되는 장기 영상을 환자의 장기 위치상에 정합, 디스플레이 하여, 의사가 용이하게 환자의 장기 내부 상태를 확인할 수 있도록 한다. 여기서 디스플레이부(120)는 의사가 착용할 수 있는 HMD(Head Mounted Device) 형태와 비 HMD(Non-Head Mounted Device) 형태로 구현될 수 있으며, 본 발명의 실시예에서는 HMD 형태를 예로 하여 설명한다. The
이상에서 설명한 수술 내비게이션 시스템(100)의 구조에 대해 도 2를 참조로 상세히 설명한다.The structure of the
도 2는 본 발명의 실시예에 따른 수술 내비게이션 시스템의 구조도이다.2 is a structural diagram of a surgical navigation system according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 수술 내비게이션 시스템(100)은 장기 영상을 생성하는 영상 매칭부(110)와 장기 영상을 환자의 수술 대상 장기에 정합된 형태로 디스플레이하는 디스플레이부(120)로 구성된다. As shown in FIG. 2, the
영상 매칭부(110)는 정보 수신부(111), 3차원 영상 생성부(112), 관심 영역 설정부(113) 및 장기 영상 생성부(114)를 포함한다. 그리고 디스플레이부(120)는 장기 영상 수신부(121) 및 영상 제공부(122)를 포함한다.The
먼저, 정보 수신부(111)는 환자의 수술 대상 장기에 대한 2차원 의료 영상을 수신한다. 2차원 의료 영상의 종류로는 CT 또는 MRI 등이 있으며, 본 발명의 실시예에서는 어느 하나의 종류로 2차원 의료 영상의 형태를 한정하지 않는다. 2차원 의료 영상에는 수술 대상 장기에 대한 장기 외형, 장기 위치, 병변 위치, 병변 크기, 수술 대상 장기의 주변 장기 위치, 주변 장기 구조, 수술 대상 장기의 혈관 구조, 혈관 위치 등의 다양한 정보가 포함되어 있다.First, the
3차원 영상 생성부(112)는 정보 수신부(111)가 수신한 2차원 의료 영상을 전처리 과정, 합성 과정, 배경 투사 과정 그리고 후처리 과정을 통해 3차원 의료 영상으로 생성한다. 여기서, 생성된 3차원 의료 영상은 수술 대상 장기의 크기, 장기의 위치, 주변 조직과의 위치, 병변 위치와 병변의 크기, 혈관 위치 등 2차원 의료 영상이 포함하는 정보를 동일하게 포함한다.The
즉, 3차원 영상 생성부(112)는 입력된 수술 대상 장기의 2차원 의료 영상에서 노이즈를 제거하고 영상 품질을 향상시키고, 편이 보정(Bias Correction) 등의 전처리 작업을 수행하여 3차원 의료 영상으로 변환하기 적합한 상태의 전처리된 의료 영상을 생성한다. 3차원 영상 생성부(112)는 전처리된 의료 영상을 합성하고 배경을 투사하여 3차원 의료 영상으로 생성한다. That is, the
3차원 영상 생성부(112)가 생성한 3차원 의료 영상을 통해 의사는 수술 대상 장기의 전체 외관, 내부 혈관 조직, 병변 조직, 주변 기관이나 장기의 위치, 주변 기관이나 장기의 구조 등을 파악할 수 있다. 그리고 3차원 영상 생성부(112)는 수술 대상 장기에 있는 병변, 수술 대상 장기의 내부 혈관 조직 등이 수술 대상 장기의 표면으로부터 얼마만큼의 깊이에 위치하는지 나타내는 위치 정보를, 3차원 좌표계를 이용하여 생성하여 3차원 의료 영상에 포함시킨다.Through the three-dimensional medical image generated by the three-
3차원 영상 생성부(112)가 2차원 의료 영상을 전처리하고, 합성, 배경을 투사하는 방법, 그리고 3차원 좌표계를 이용하여 깊이 정보를 추출하고 이를 함께 제공하는 것은 다양한 방법을 통해 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하여 설명하지는 않는다.Since the 3D
3차원 영상 생성부(112)는 생성한 3차원 의료 영상으로부터 이후 설명할 장기 영상 생성부(114)에서 필터링할 때 사용할 임계값을 계산한다. 여기서 필터링에 사용되는 임계값은 3차원 의료 영상을 나타내는 그레이 스케일(gray scale)의 특정 값을 의미한다. The
예를 들어, CT 영상인 2차원 의료 영상에서 뼈는 밝게 나타나고, 기타 조직(상피조직, 결합조직, 근육조직, 신경조직)들은 어둡게 나타난다. 그리고 혈관의 밝기와 병변의 밝기가 뼈의 밝기와 기타 조직의 밝기 사이의 밝기로 보인다면, 뼈와 기타 조직, 혈관, 병변 등의 밝기를 숫자로 표현할 수 있다.For example, in two-dimensional medical images, CT images, bones appear bright and other tissues (epithelial, connective, muscular, neural) appear dark. If the brightness of blood vessels and the brightness of lesions are seen as the brightness between the brightness of bones and the brightness of other tissues, then the brightness of bones and other tissues, blood vessels, lesions, etc. can be expressed numerically.
그러므로, 3차원 영상 생성부(112)는 혈관과 병변의 밝기에 해당하는 수치를 기준으로 그레이 스케일의 임계값을 설정할 수 있다. 본 발명의 실시예에서는 3차원 영상 생성부(112)가 임계값을 계산하는 것을 예로 하여 설명하나 반드시 이와 같이 한정되는 것은 아니다. 또한, 3차원 의료 영상으로부터 임계값을 계산하는 방법을 어느 하나의 방법으로 한정하지 않는다.Therefore, the
관심 영역 설정부(113)는 외부로부터 입력되는 관심 영역(이하, 설명의 편의를 위하여 ‘제1 관심 영역’이라 지칭함)을 수신한다. 본 발명의 실시예에서는 관심 영역을 수술 대상 장기에 표시된 세 지점에 대한 위치 정보인 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.The
그리고 관심 영역 설정부(113)는 수술 대상 장기에 표시된 세 지점인 제1 관심 영역을 삼각화(triangulation) 방법을 적용하여 제2 관심 영역으로 생성한다. 제2 관심 영역은 3차원 의료 영상에 포함되어 설정될 정보로, 제1 관심 영역으로 표시된 세 지점이 동일하게 3차원 의료 영상에도 표시될 수 있도록 하기 위해 생성된 정보이다.The
즉, 관심 영역 설정부(113)는 의사가 수술 시 환자의 수술 대상 장기에 세 지점에 임의의 표시를 남겨두면, 해당 표시가 남겨진 위치의 위치 정보를 제1 관심 영역으로 획득한다. 관심 영역 설정부(113)가 장기에 남겨진 세 지점의 표시를 제1 관심 영역으로 획득하는 방법은 여러 방법으로 실행할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하여 설명하지 않는다.That is, when the doctor leaves an arbitrary mark on three points on the patient's surgery target organ during surgery, the
여기서 세 지점은 수술 대상 장기 주변에서 병변에 의한 변형이 적으며, 미리 설정된 강도 이상의 단단한 구조물 세 곳을 의사가 선택하여 표시하는 것을 예로 하여 설명한다. 의사가 관심 영역을 설정하는 예에 대해 도 5를 참조로 먼저 설명한다.Here, the three points will be described as an example in which the deformation by the lesion is less around the organ to be operated, and the doctor selects and displays three rigid structures having a predetermined strength or more. An example of the doctor setting the region of interest will be described first with reference to FIG. 5.
도 5는 본 발명의 실시예에 따라 각 장기별 설정된 관심 영역의 예시도이다.5 is an exemplary diagram of an ROI set for each organ according to an exemplary embodiment of the present invention.
도 5에 도시된 바와 같이, 의사는 장기 중 간에 대한 관심 영역을 설정할 때, 세 지점을 대동맥, 담낭, 문맥으로 설정하여 관심 영역으로 설정할 수 있다. 또 다른 장기로 신장을 예로 하면, 의사는 세 지점으로 정맥, 복수의 갈비뼈 중 제1 위치 갈비뼈, 제2 위치 갈비뼈를 설정할 수 있다.As shown in FIG. 5, when the doctor sets the region of interest for the middle of the organ, the doctor may set three points as the region of interest by setting the aorta, the gallbladder, and the context. Using another example of the kidney, the doctor may set the vein, the first position of the plurality of ribs, and the second position of the ribs at three points.
또 다른 장기로 심장을 예로 하여 설명하면, 의사에 의해 설정된 관심 영역은 상대 정맥, 폐 동맥, 그리고 하대 정맥이 설정될 수 있다. 그리고 자궁을 예로 하면, 좌측 난소와 우측 난소, 복부 대정맥이 설정될 수 있다.In another organ, the cardiac example is used. The region of interest set by the doctor may be a relative vein, a pulmonary artery, and an inferior vena cava. In the case of the uterus, the left ovary, the right ovary, and the abdominal vena cava may be set.
본 발명의 실시예에서는 의사가 수술 시 장기에 세 지점을 표시함으로써 관심 영역이 설정되는 것을 예로 하여 설명하였으나, 장기 종류에 따라 미리 관심 영역이 설정되어 제공될 수도 있다.In the exemplary embodiment of the present invention, the doctor has indicated that the region of interest is set by displaying three points on the organ during surgery, but the region of interest may be set in advance according to the type of organ.
한편, 상기 도 2를 이어 설명하면, 장기 영상 생성부(114)는 3차원 영상 생성부(112)에서 생성된 3차원 의료 영상에 관심 영역 설정부(113)에서 생성한 제2 관심 영역을 설정한다. 그리고, 장기 영상 생성부(114)는 제2 관심 영역이 설정된 3차원 의료 영상을 환자가 취하고 있는 자세를 토대로 추출된 자세 정보를 토대로 장기 영상을 보정한다.Meanwhile, referring to FIG. 2, the long-
이를 위해, 장기 영상 생성부(114)는 환자가 취하고 있는 자세에 대한 영상을 외부로부터 수신하고, 자세에 따라 형태가 변형된 장기의 자세 정보를 추출한다. 환자의 자세에 따라 장기의 모양이나 위치, 크기가 달라질 수 있기 때문이다. 장기 영상 생성부(114)가 환자의 자세 영상을 수신하는 방법이나, 자세 영상으로부터 자세 정보를 추출하는 방법, 그리고 자세 정보를 이용하여 3차원 의료 영상을 보정하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.To this end, the organ
장기 영상 생성부(114)는 다양한 장기 정보와 제2 관심 영역이 설정된 3차원 의료 영상을, 3차원 영상 생성부(112)가 계산한 임계값을 토대로 필터링하여 장기 영상으로 생성한다. 3차원 의료 영상을 필터링하여 생성한 장기 영상에는, 수술 대상 장기의 내부 구조 즉, 혈관과 병변, 그리고 제2 관심 영역만이 남게 되고, 그 밖의 조직(예를 들어, 뼈, 근육 등)들은 삭제되어, 실제 장기상에서 수술 대상 장기의 혈관과 병변만을 디스플레이 할 수 있게 된다.The
즉, 장기 영상 생성부(114)는 계산된 임계값보다 낮은 값과 높은 값을 필터링을 통해 삭제하면, 밝은 영상인 뼈와 어두운 영상인 조직이 사라지고 중간에 해당하는 혈관과 병변 영상만이 남게 된다.That is, if the
장기 영상 생성부(114)는 환자의 자세 정보에 맞게 변형된 장기 영상을 실제 장기에 정합한다. 장기 영상을 실제 장기에 정합할 때, 장기 영상 생성부(114)는 실제 장기에 표시된 제1 관심 영역과 장기 영상에 표시된 제2 관심 영역을 일치시킨다. The
장기 영상 생성부(114)가 제1 관심 영역과 제2 관심 영역이 일치시킬 때, 장기 영상 생성부(114)는 제1 관심 영역을 기준으로 제2 관심 영역을 얼마나 회전시킬지(회전각), 얼마나 위치를 변화시킬지(위치 변화 값), 얼마나 크기를 변화시킬지(크기 변화 값) 등을 계산한다. 그리고, 계산된 회전각, 위치 변화 값 및 크기 변화 값을 제2 관심 영역에 반영하여, 실제 수술 대상 장기에 장기 영상이 정합되도록 한다.When the long
장기 영상 생성부(114)가 제1 관심 영역을 기준으로 제2 관심 영역의 회전각, 위치 변화 값, 크기 변화 값을 계산하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 상세한 설명을 생략한다. 또한, 변화된 장기 영상을 수술 대상 장기에 정합하는 방법 역시 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 상세한 설명을 생략한다. Since the long-
한편, 디스플레이부(120)의 장기 영상 수신부(121)는 장기 영상 생성부(112)에서 생성한 수술 대상 장기에 정합된 장기 영상을 수신한다. Meanwhile, the
영상 제공부(122)는 장기 영상 수신부(121)가 수신한 장기 영상을 실제 수술 대상 장기상에 투영하여 디스플레이 한다. 수술 대상 장기에 투영되어 디스플레이 되는 장기 영상에는 장기의 혈관 구조, 병변 위치, 병변 크기만이 3차원 좌표계와 함께 나타난다. The
영상 제공부(122)가 제공하는 수술 대상 장기에 투영된 장기 영상은, 수술이 진행되는 동안 수술 대상 장기에 고정된 상태를 유지하여 디스플레이 된다. 이를 위해, 만약 환자의 자세가 변경되거나 수술 대상 장기가 움직이는 경우, 변경된 자세나 움직임 정도가 반영된 장기 영상이 지속적으로 갱신되어 제공된다.The long-term image projected onto the surgical target organ provided by the
이상에서 설명한 수술 내비게이션 시스템을 이용하여 장기 영상을 제공하는 방법에 대해 도 3을 참조로 설명한다.A method of providing an organ image by using the surgical navigation system described above will be described with reference to FIG. 3.
도 3은 본 발명의 실시예에 따른 수술 내비게이션 시스템을 이용한 장기 영상 제공 방법에 대한 흐름도이다.3 is a flowchart illustrating a long-term image providing method using a surgical navigation system according to an embodiment of the present invention.
도 3에 도시된 바와 같이, 수술 내비게이션 시스템(100)은 환자의 수술 대상 장기를 촬영한 CT 또는 MRI와 같은 2차원 의료 영상을 수신한다. 그리고 수신한 2차원 의료 영상을 토대로 3차원 의료 영상을 생성한다(S100). As shown in FIG. 3, the
이와 동시에 수술 내비게이션 시스템(100)은 생성한 3차원 의료 영상을 토대로 이후 필터링에 사용할 임계값을 계산한다. 2차원 의료 영상을 3차원 입체 영상으로 생성하는 과정에서, 수술 내비게이션 시스템(100)은 환자의 장기의 구조나 위치, 장기 내부 혈관 구조, 병변 위치나 병변 크기 등의 다양한 장기 정보도 추출한다.At the same time, the
수술 내비게이션 시스템(100)은 의사가 환자의 수술 대상 장기에 표시한 세 지점의 표식에 대한 위치 정보를 제1 관심 영역으로 획득한다. 그리고 획득한 제1 관심 영역으로부터 제2 관심 영역을 계산한다(S110).The
즉, 의사가 환자의 수술 대상 장기에 염색약 등을 이용하여 세 지점에 점을 찍으면, 해당 점들에 대한 위치 정보를 제1 관심 영역으로 획득한다. 이는 3차원 의료 영상으로부터 생성된 장기 영상을 실제 수술 대상 장기에 정합하는 과정에서, 관심 영역을 이용하여 정합이 이루어질 수 있도록 하기 위함이다. 그리고 제1 관심 영역을 3차원 의료 영상에 적용하기 위하여 제2 관심 영역을 계산한다.That is, when a doctor marks a point at three points using a dye or the like on a patient's surgery target organ, the doctor acquires location information on the points as the first ROI. This is to ensure that the matching is performed using the ROI in the process of matching the organ image generated from the 3D medical image to the target organ. The second ROI is calculated to apply the first ROI to the 3D medical image.
제2 관심 영역을 계산한 후, 수술 내비게이션 시스템(100)은 환자가 취하고 있는 환자 자세 영상으로부터 자세 정보를 추출한다(S120). 환자 자세 영상을 수집하는 방법이나, 수집한 환자 자세 영상으로부터 자세 정보를 추출하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.After calculating the second ROI, the
수술 내비게이션 시스템(100)은 S100 단계에서 생성한 3차원 의료 영상과 계산한 임계값, S110 단계에서 계산한 제2 관심 영역, 그리고 S120 단계에서 추출한 자세 정보를 토대로 보정된 장기 영상을 생성한다(S130). The
즉, 수술 내비게이션 시스템(100)은 제2 관심 영역이 표시된 3차원 의료 영상을 환자 자세 영상으로부터 추출한 자세 정보를 토대로 보정한다. 수술 내비게이션 시스템(100)은 보정된 3차원 의료 영상을 S100 단계에서 계산된 임계값을 이용하여 필터링하여 장기 영상을 생성한다(S140). 필터링되어 생성된 장기 영상에는, 수술 대상 장기의 내부 구조 즉, 혈관과 병변, 그리고 제2 관심 영역이 남게 되고, 그 밖의 조직(예를 들어, 뼈, 근육 등)들은 삭제되어, 실제 장기상에서 혈관과 병변만을 디스플레이 할 수 있게 된다.That is, the
수술 내비게이션 시스템(100)은 S140 단계에서 생성한 장기 영상을 관심 영역을 토대로 실제 영상에 정합하여 디스플레이 한다(S150). 즉, 수술 내비게이션 시스템(100) 실제 장기에 표시된 제1 관심 영역과 장기 영상에 표시된 제2 관심 영역을 일치시켜, 수술 대상 장기에 장기 영상이 정합된 형태로 디스플레이 한다. The
이상에서 설명한 수술 내비게이션 시스템이 제공하는 수술 대상 장기에 투영된 장기 영상의 예에 대해 도 4를 참조로 설명한다.An example of an organ image projected on an operation target organ provided by the surgical navigation system described above will be described with reference to FIG. 4.
도 4는 본 발명의 실시예에 따라 수술 내비게이션 시스템이 제공하는 장기 영상의 예시도이다.4 is an exemplary diagram of an organ image provided by a surgical navigation system according to an exemplary embodiment of the present invention.
도 4의 (a)에 도시된 바와 같이 환자가 정 자세로 누워있는 상태에서 간에 대한 수술이 이루어진다고 가정하면, 의사는 환자의 간에 세 곳에 관심 영역을 설정한다. 수술 내비게이션 시스템(100)은 환자에 대한 2차원 장기 영상을 토대로 3차원 장기 영상을 생성하고, 도 4의 (b)에 나타낸 바와 같이 의사가 환자의 간에 직접 표시해 둔 관심 영역을 3차원 장기 영상에도 반영되도록 표시한다.As shown in (a) of FIG. 4, assuming that surgery is performed on the liver while the patient is lying in the forward position, the doctor sets three regions of interest in the liver of the patient. The
그리고, 환자가 취한 자세에서 확인할 수 있는 간의 형태와 동일하게 3차원 장기 영상을 반영하여 도 4의 (b)와 같이 장기 영상을 생성한다. 장기 영상에 반영된 관심 영역이 도 4의 (a)에 나타낸 환자의 간에 표시된 관심 영역에 1:1 매칭되도록 정합한다.The organ image is generated as shown in FIG. 4B by reflecting the 3D organ image in the same manner as the shape of the liver which can be confirmed in the posture taken by the patient. The region of interest reflected in the long-term image is matched to match the region of interest indicated by the liver of the patient shown in FIG. 4A.
이를 토대로 의사가 실제 수술을 집도할 때, 디스플레이부(120) 즉, HMD 형태의 장비를 통해 환자의 간을 보면, 도 4의 (a)에 나타낸 환자의 실제 간 상에 (b)에 나타낸 장기 영상이 투영되어 의사가 간의 혈관이나 병변의 크기, 병변의 위치 등을 용이하게 파악할 수 있도록 한다.On the basis of this, when the doctor performs the actual surgery, the patient's liver is shown through the
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
Claims (13)
환자의 수술 대상 장기의 2차원 의료 영상 정보를 이용하여 3차원 의료 영상을 생성하고, 생성한 상기 3차원 의료 영상, 상기 3차원 의료 영상을 나타내는 그레이 스케일(gray scale)에 해당하는 값, 상기 수술 대상 장기에 표시된 세 지점에 대한 위치 정보인 제1 관심 영역과 환자 자세 정보를 토대로, 상기 수술 대상 장기에 매칭할 장기 영상을 생성하는 영상 매칭부, 그리고
상기 영상 매칭부에서 생성한 장기 영상을, 환자의 실제 장기상에 투영하여 디스플레이하는 디스플레이부
를 포함하고,
상기 영상 매칭부는,
상기 수술 대상 장기에 대한 2차원 의료 영상 정보를 수신하는 정보 수신부,
상기 정보 수신부가 수신한 2차원 의료 영상 정보를 이용하여 상기 3차원 의료 영상을 생성하고, 생성한 3차원 의료 영상으로부터 상기 그레이 스케일에 해당하는 값을 계산하는 3차원 영상 생성부,
상기 수술 대상 장기에 표시된 복수의 상기 제1 관심 영역을 획득하고, 상기 제1 관심 영역과 동일한 영역이며 상기 3차원 의료 영상에 반영하여 제공할 제2 관심 영역을 계산하는 관심 영역 설정부, 그리고
상기 3차원 의료 영상을 상기 그레이 스케일에 해당하는 값으로 필터링하여 장기 영상을 생성하고, 생성한 장기 영상에 포함된 상기 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치되도록 매칭하는 장기 영상 생성부
를 포함하는 수술 내비게이션 시스템.
In surgical navigation systems,
A 3D medical image is generated by using 2D medical image information of a patient's surgery target organ, the generated 3D medical image, a value corresponding to a gray scale representing the 3D medical image, and the surgery An image matching unit configured to generate an organ image to be matched with the target organ based on the first ROI and the patient posture information, which are location information of three points displayed on the target organ, and
A display unit for projecting and displaying the organ image generated by the image matching unit on the actual organ of the patient
Including,
The image matching unit,
An information receiver configured to receive 2D medical image information of the organ to be operated on;
A 3D image generating unit generating the 3D medical image using the 2D medical image information received by the information receiving unit and calculating a value corresponding to the gray scale from the generated 3D medical image;
A region of interest setting unit for obtaining a plurality of first regions of interest displayed on the surgery target organ, and calculating a second region of interest that is the same region as the first region of interest and is reflected and provided in the 3D medical image;
The 3D medical image is filtered to a value corresponding to the gray scale to generate an organ image, and to match the second region of interest included in the generated organ image with the first region of interest displayed on the target organ to match. Long term image generator
Surgical navigation system comprising a.
상기 장기 영상은 상기 수술 대상 장기의 혈관과 병변, 상기 혈관과 병변에 대한 깊이 정보와 상기 제2 관심 영역을 포함하는 수술 내비게이션 시스템.The method of claim 1,
The organ image may include blood vessels and lesions of the organ to be operated on, depth information about the blood vessels and lesions, and the second region of interest.
상기 장기 영상 생성부는,
상기 환자의 자세 정보를 수신하고,
상기 제2 관심 영역이 반영된 상기 3차원 의료 영상을 상기 자세 정보를 토대로 보정하는 수술 내비게이션 시스템.The method of claim 3,
The long term image generator,
Receiving posture information of the patient,
And a navigation navigation system for correcting the 3D medical image reflecting the second ROI based on the posture information.
상기 장기 영상 생성부는,
상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산하는 수술 내비게이션 시스템.The method of claim 4, wherein
The long term image generator,
In order to match and match the second ROI of the organ image with the first ROI displayed on the organ to be operated, the rotation angle, the size change value, and the position change value of the second ROI based on the first ROI. Surgical navigation system to calculate the.
상기 2차원 의료 영상 정보는 장기 외형, 병변 위치, 병변 크기, 주변 장기 위치, 주변 장기 구조, 혈관 구조 및 혈관 위치 중 복수의 정보를 포함하는 수술 내비게이션 시스템.The method of claim 1,
The 2D medical image information includes a plurality of pieces of information such as organ appearance, lesion location, lesion size, peripheral organ location, peripheral organ structure, vascular structure and blood vessel location.
상기 디스플레이부는,
상기 장기 영상 생성부가 생성한 장기 영상을 수신하는 장기 영상 수신부, 그리고
상기 수신한 장기 영상을 상기 수술 대상 장기상에 투영되도록 디스플레이하는 영상 제공부
를 포함하는 수술 내비게이션 시스템.The method of claim 1,
The display unit,
A long term image receiver configured to receive a long term image generated by the long term image generator, and
Image providing unit for displaying the received organ image to be projected on the surgery target organ
Surgical navigation system comprising a.
상기 디스플레이부는,
의사가 착용할 수 있는 HMD(Head Mounted Device) 형태 또는 비 HMD(Non-Head Mounted Device) 형태 중 어느 하나로 구현되는 수술 내비게이션 시스템.The method of claim 7, wherein
The display unit,
Surgical navigation system implemented in the form of a head-mounted device (HMD) or non-head-mounted device (HMD) wearable by a doctor.
제1 관심 영역이 표시된 환자의 수술 대상 장기에 대한 2차원 의료 영상으로부터 3차원 의료 영상을 생성하는 단계,
상기 생성한 3차원 의료 영상에 상기 제1 관심 영역에 대응하는 제2 관심 영역을 반영하는 단계,
상기 3차원 의료 영상을 나타내는 그레이 스케일(gray scale)에 해당하는 값을 토대로 상기 3차원 의료 영상을 필터링하여, 상기 제2 관심 영역이 반영된 장기 영상을 생성하는 단계, 그리고
상기 제1 관심 영역과 제2 관심 영역을 일치시키고, 상기 수술 대상 장기에 상기 장기 영상을 매칭하여 상기 수술 대상 장기상에 상기 장기 영상이 투영되도록 디스플레이하는 단계
를 포함하는 장기 영상 디스플레이 방법.In the method of the surgical navigation system to display an organ image on the organ to be operated,
Generating a 3D medical image from the 2D medical image of the target organ of the patient displaying the first ROI,
Reflecting a second region of interest corresponding to the first region of interest on the generated 3D medical image;
Generating the organ image reflecting the second region of interest by filtering the 3D medical image based on a value corresponding to a gray scale representing the 3D medical image, and
Matching the first region of interest with a second region of interest, matching the organ image to the organ to be operated, and displaying the organ image onto the surgical organ;
Long term image display method comprising a.
상기 장기 영상은 상기 수술 대상 장기의 혈관과 병변, 상기 혈관과 병변에 대한 깊이 정보와 상기 제2 관심 영역을 포함하는 장기 영상 디스플레이 방법.The method of claim 9,
The organ image may include blood vessels and lesions of the organ to be operated, depth information about the vessels and lesions, and the second region of interest.
상기 제2 관심 영역을 반영하는 단계는,
외부로부터 입력되는 환자의 자세 영상으로부터 추출된 자세 정보를 획득하는 단계, 그리고
획득한 자세 정보를 토대로 상기 제2 관심 영역이 반영된 3차원 의료 영상을 보정하는 단계
를 포함하는 장기 영상 디스플레이 방법.The method of claim 9,
Reflecting the second region of interest,
Obtaining posture information extracted from a posture image of a patient input from outside; and
Correcting the 3D medical image reflecting the second ROI based on the acquired posture information
Long term image display method comprising a.
상기 3차원 의료 영상을 생성하는 단계 이전에,
상기 수술 대상 장기에 대한 2차원 의료 영상을 수신하는 단계, 그리고
수신한 2차원 의료 영상으로부터 상기 3차원 의료 영상을 생성하는 단계
를 포함하고,
상기 2차원 의료 영상은 MRI 또는 CT 중 어느 하나로, 상기 수술 대상 장기에 대한 장기 외형, 병변 위치, 병변 크기, 주변 장기 위치, 주변 장기 구조, 혈관 구조 및 혈관 위치 중 복수의 정보를 포함하는 장기 영상 디스플레이 방법.The method of claim 9,
Before generating the 3D medical image,
Receiving a 2D medical image of the organ to be operated on, and
Generating the 3D medical image from the received 2D medical image
Including,
The 2D medical image is either MRI or CT, and includes a plurality of pieces of information of an organ shape, a lesion position, a lesion size, a peripheral organ position, a peripheral organ structure, a vascular structure, and a blood vessel position of the target organ. Display method.
상기 디스플레이하는 단계는,
상기 장기 영상의 제2 관심 영역과 상기 수술 대상 장기에 표시된 제1 관심 영역이 일치하여 매칭하기 위하여, 상기 제1 관심 영역을 기준으로 상기 제2 관심 영역의 회전각, 크기 변화 값 및 위치 변화 값을 계산하는 단계
를 더 포함하는 장기 영상 디스플레이 방법.The method of claim 9,
The displaying step,
In order to match and match the second ROI of the organ image with the first ROI displayed on the organ to be operated, the rotation angle, the size change value, and the position change value of the second ROI based on the first ROI. Step to calculate
The long-term image display method further comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170085027A KR101988531B1 (en) | 2017-07-04 | 2017-07-04 | Navigation system for liver disease using augmented reality technology and method for organ image display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170085027A KR101988531B1 (en) | 2017-07-04 | 2017-07-04 | Navigation system for liver disease using augmented reality technology and method for organ image display |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190004591A KR20190004591A (en) | 2019-01-14 |
KR101988531B1 true KR101988531B1 (en) | 2019-09-30 |
Family
ID=65027663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170085027A Expired - Fee Related KR101988531B1 (en) | 2017-07-04 | 2017-07-04 | Navigation system for liver disease using augmented reality technology and method for organ image display |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101988531B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102275385B1 (en) | 2019-05-16 | 2021-07-09 | 주식회사 데카사이트 | System and method for tracking motion of medical device using augmented reality |
KR102457585B1 (en) * | 2020-04-10 | 2022-10-21 | (주)휴톰 | Method and system for navigating vascular during surgery |
KR102446345B1 (en) | 2020-06-23 | 2022-09-23 | 한림대학교 산학협력단 | Control method, apparatus and program for lesion determination system obtained by breast imaging |
KR102776812B1 (en) * | 2022-06-03 | 2025-03-06 | 전남대학교산학협력단 | Method and apparatus for detecting position of biopsy needle in medical diagnostic image |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101667152B1 (en) | 2015-05-22 | 2016-10-24 | 고려대학교 산학협력단 | Smart glasses system for supplying surgery assist image and method for supplying surgery assist image using smart glasses |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101206340B1 (en) * | 2011-04-29 | 2012-11-29 | 주식회사 코어메드 | Method and System for Providing Rehearsal of Image Guided Surgery and Computer-readable Recording Medium for the same |
KR20140112207A (en) * | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | Augmented reality imaging display system and surgical robot system comprising the same |
KR20160086629A (en) * | 2015-01-12 | 2016-07-20 | 한국전자통신연구원 | Method and Apparatus for Coordinating Position of Surgery Region and Surgical Tool During Image Guided Surgery |
-
2017
- 2017-07-04 KR KR1020170085027A patent/KR101988531B1/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101667152B1 (en) | 2015-05-22 | 2016-10-24 | 고려대학교 산학협력단 | Smart glasses system for supplying surgery assist image and method for supplying surgery assist image using smart glasses |
Also Published As
Publication number | Publication date |
---|---|
KR20190004591A (en) | 2019-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6400793B2 (en) | Generating image display | |
US9990744B2 (en) | Image registration device, image registration method, and image registration program | |
JP2023175709A (en) | Registration for spatial tracking system and augmented reality display | |
US10055848B2 (en) | Three-dimensional image segmentation based on a two-dimensional image information | |
KR20210051141A (en) | Method, apparatus and computer program for providing augmented reality based medical information of patient | |
US20180158201A1 (en) | Apparatus and method for registering pre-operative image data with intra-operative laparoscopic ultrasound images | |
US10022199B2 (en) | Registration correction based on shift detection in image data | |
JP2019519257A (en) | System and method for image processing to generate three-dimensional (3D) views of anatomical parts | |
KR101988531B1 (en) | Navigation system for liver disease using augmented reality technology and method for organ image display | |
US20200242776A1 (en) | Medical image processing apparatus, medical image processing method, and system | |
KR102056930B1 (en) | Spine surgical navigation system and method using augmented reality technology | |
JP6493885B2 (en) | Image alignment apparatus, method of operating image alignment apparatus, and image alignment program | |
JP5934070B2 (en) | Virtual endoscopic image generating apparatus, operating method thereof, and program | |
KR102433473B1 (en) | Method, apparatus and computer program for providing augmented reality based medical information of patient | |
CN110731817A (en) | radiationless percutaneous spine positioning method based on optical scanning automatic contour segmentation matching | |
CN116492052A (en) | Three-dimensional visual operation navigation system based on mixed reality backbone | |
JP2019126654A (en) | Image processing device, image processing method, and program | |
CN115105204A (en) | A laparoscopic augmented reality fusion display method | |
Andrea et al. | Validation of stereo vision based liver surface reconstruction for image guided surgery | |
JP4512824B2 (en) | Image processing apparatus and program used therefor | |
JP6476125B2 (en) | Image processing apparatus and surgical microscope system | |
JP2019516492A (en) | Motion Compensation of Hybrid X-ray / Camera Intervention | |
JP2017046725A (en) | Image alignment apparatus, method and program | |
CANGELOSI | Image-Guided Surgery and Augmented Reality in Orthopaedic Surgery: a perspective on reducing Iatrogenic Nerve Damage in Elbow | |
JP2024509589A (en) | Patient preparation for medical imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170704 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20181127 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20190307 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20190605 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20190605 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20220401 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20230404 Start annual number: 5 End annual number: 5 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20250316 |