KR102495465B1 - Needle Position Prediction Method and System for MRI-compatible Biopsy Robot - Google Patents
Needle Position Prediction Method and System for MRI-compatible Biopsy Robot Download PDFInfo
- Publication number
- KR102495465B1 KR102495465B1 KR1020210088067A KR20210088067A KR102495465B1 KR 102495465 B1 KR102495465 B1 KR 102495465B1 KR 1020210088067 A KR1020210088067 A KR 1020210088067A KR 20210088067 A KR20210088067 A KR 20210088067A KR 102495465 B1 KR102495465 B1 KR 102495465B1
- Authority
- KR
- South Korea
- Prior art keywords
- biopsy
- image
- robot
- needle
- mri
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Instruments for taking body samples for diagnostic purposes; Other methods or instruments for diagnosis, e.g. for vaccination diagnosis, sex determination or ovulation-period determination; Throat striking implements
- A61B10/02—Instruments for taking cell samples or for biopsy
- A61B10/0233—Pointed or sharp biopsy instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Instruments for taking body samples for diagnostic purposes; Other methods or instruments for diagnosis, e.g. for vaccination diagnosis, sex determination or ovulation-period determination; Throat striking implements
- A61B10/02—Instruments for taking cell samples or for biopsy
- A61B2010/0208—Biopsy devices with actuators, e.g. with triggered spring mechanisms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/374—NMR or MRI
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
본 발명은 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법에 관한 것으로, 생검 시술 로봇의 제1 실제 위치와 분할영상에서의 상기 생검 시술 로봇의 제1 영상 위치를 추출하는 단계와, 상기 제1 실제 위치와 상기 제1 영상 위치를 정합하여 정합데이터를 생성하는 단계와, 상기 정합데이터를 기반으로 상기 생검 시술 로봇의 제2 실제 위치를 상기 분할영상에서의 제2 영상 위치로 변환하는 단계 및 상기 제2 영상 위치를 상기 분할영상에 표시하는 단계를 포함할 수 있다.The present invention relates to a needle position prediction method for an MRI-based biopsy robot, comprising the steps of extracting a first actual position of the biopsy robot and a first image position of the biopsy robot from a segmented image; generating matched data by matching the actual position with the first image position; converting the second actual position of the biopsy robot into a second image position in the split image based on the matched data; and A step of displaying a second image position on the divided image may be included.
Description
본 발명은 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템에 관한 것으로, 보다 상세하게는 시술 전 MRI 영상에 시술 중인 바늘의 위치를 예측하여 MRI 영상에 표시할 수 있는 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템에 관한 것이다.The present invention relates to a needle position prediction method and system for a biopsy robot, and more particularly, to a needle position prediction for a biopsy robot capable of predicting the position of a needle being operated on an MRI image before an operation and displaying it on an MRI image. It relates to methods and systems.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this part merely provide background information on the present embodiment and do not constitute prior art.
생검은 환자의 신체에 종양이나 결절이 생긴 경우 악성 여부를 빨리 판단하여 치료의 방침을 정하기 위해 조직 일부를 중공침을 이용하여 채취하는 검사법의 일종이다. Biopsy is a type of examination method in which a part of a tissue is collected using a hollow needle in order to quickly determine whether a tumor or nodule is malignant and determine a treatment policy when a tumor or nodule is formed in a patient's body.
생검은 암의 초기 진단시 초음파, 컴퓨터 단층촬영(Computer Tomography, CT), 자기공명영상(Magnetic Resonance Imaging, MRI) 등에 의해 종양이 의심되는 부위를 시술 전에 검진하는 것으로, 영상을 기반으로 조직검사를 수행한다.Biopsy is an examination of the area suspected of having a tumor before surgery by ultrasound, computer tomography (CT), magnetic resonance imaging (MRI), etc. at the time of early diagnosis of cancer. carry out
구체적으로, 시술자는 CT 또는 MRI와 같은 의료 영상을 기반으로 환자의 종양을 영상 촬영하고, 생검 바늘이 삽입된 상태의 환자를 다시 의료 영상으로 촬영하여 바늘이 삽입된 위치를 확인하게 된다.Specifically, the operator takes an image of the patient's tumor based on a medical image such as CT or MRI, and takes a medical image of the patient in a state where the biopsy needle is inserted again to confirm the insertion position of the needle.
이와 같이, 생검 바늘의 위치를 알기 위해서는 생검 바늘이 환자에게 삽입된 상태에서 필요할 때마다 의료 영상으로 촬영한 후 위치를 확인해야 한다. 그렇게 되면 생검 시술 소요 시간이 증가하므로, 환자의 몸에 부담을 주게 되고 비용 또한 증가되는 문제점이 있다.As such, in order to know the location of the biopsy needle, the location of the biopsy needle must be checked after taking a medical image whenever necessary in a state where the biopsy needle is inserted into the patient. In this case, since the time required for the biopsy procedure increases, there is a problem in that a burden is applied to the patient's body and costs are also increased.
이에 따라, 의료 영상으로 추가 촬영하지 않고도 생검 바늘의 위치를 확인할 수 있는 방법 및 시스템의 도입이 필요한 실정이다.Accordingly, there is a need to introduce a method and system capable of confirming the location of a biopsy needle without additionally capturing a medical image.
따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 생검 시술 로봇의 바늘이 실제 이동한 위치를 확인하기 위해 MRI 영상을 추가 촬영하지 않고 MRI 영상에서의 위치로 변환시킬 수 있는 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법 및 시스템을 제공하고자 한다.Therefore, in order to solve the problems of the prior art, an object of the present invention is an MRI-based method that can convert the location of a needle of a biopsy robot to a location in an MRI image without additionally taking an MRI image to confirm the actual moved location. It is intended to provide a needle position prediction method and system for a biopsy robot.
본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to those mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
상기 목적들을 달성하기 위하여, 본 발명의 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법은, 생검 시술 로봇의 제1 실제 위치와 분할영상에서의 상기 생검 시술 로봇의 제1 영상 위치를 추출하는 단계와, 상기 제1 실제 위치와 상기 제1 영상 위치를 정합하여 정합데이터를 생성하는 단계와, 상기 정합데이터를 기반으로 상기 생검 시술 로봇의 제2 실제 위치를 상기 분할영상에서의 제2 영상 위치로 변환하는 단계 및 상기 제2 영상 위치를 상기 분할영상에 표시하는 단계를 포함할 수 있다.In order to achieve the above objects, the needle position prediction method for an MRI-based biopsy robot of the present invention includes the steps of extracting a first actual position of the biopsy robot and a first image position of the biopsy robot in a segmented image. and generating matched data by matching the first actual position with the first image position, and based on the matched data, a second actual position of the biopsy robot as a second image position in the segmented image. Transforming and displaying the location of the second image on the divided image may be included.
본 발명의 실시예에서, 상기 제1 영상 위치를 추출하는 단계 이전에, 생검 시술 전 환자와 상기 생검 시술 로봇의 MRI 영상을 촬영하는 단계 및 상기 MRI 영상을 분할하여 상기 분할영상을 생성하는 단계를 더 포함할 수 있다. In an embodiment of the present invention, prior to the step of extracting the first image location, the step of taking an MRI image of the patient and the biopsy robot before the biopsy procedure and the step of generating the split image by dividing the MRI image can include more.
본 발명의 실시예에서, 상기 정합데이터를 생성하는 단계 이후에, 생검 시술을 수행하기 위한 상기 생검 시술 로봇의 바늘이 사출되고, 상기 바늘이 목표 위치로 이동하면, 상기 바늘이 실제 이동한 위치를 나타내는 상기 제2 실제 위치를 추출하는 단계를 더 포함할 수 있다.In an embodiment of the present invention, after the step of generating the matching data, the needle of the biopsy robot for performing the biopsy is ejected, and when the needle moves to the target position, the actual moved position of the needle is determined. The method may further include extracting the second actual location.
본 발명의 실시예에서, 상기 정합데이터를 생성하는 단계는, 상기 생검 시술 로봇의 3차원의 실제 위치가 2차원의 영상 위치로 대응될 수 있도록 기준이 되는 정합데이터를 생성하는 단계일 수 있다.In an embodiment of the present invention, the generating of matching data may be a step of generating matching data as a reference so that a 3D actual position of the biopsy robot may correspond to a 2D image position.
본 발명의 실시예에서, 상기 제1 영상 위치를 추출하는 단계는, 상기 생검 시술 로봇에 구비된 복수의 마커를 기반으로 추출되는 단계일 수 있다.In an embodiment of the present invention, the step of extracting the first image position may be a step of extracting based on a plurality of markers provided in the biopsy robot.
상기 목적들을 달성하기 위하여, 본 발명의 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템은, 생검하기 위한 바늘과 복수의 마커가 구비되는 생검 시술 로봇과, 생검 시술 전 환자와 상기 생검 시술 로봇의 MRI 영상을 촬영하는 촬영부와, 상기 촬영부에서 촬영된 영상을 분할하여 분할영상을 생성하는 분할부와, 상기 분할영상에서 상기 생검 시술 로봇의 제1 영상 위치를 추출하고 상기 생검 시술 로봇의 제1 실제 위치를 추출하는 추출부와, 상기 추출부에서 추출된 제1 영상 위치와 제1 실제 위치를 정합하여 정합데이터를 생성하는 정합부와, 상기 정합데이터를 기반으로 제2 실제 위치를 상기 분할영상에서의 제2 영상 위치로 변환하는 제어부 및 상기 제어부에서 변환된 제2 영상 위치를 상기 분할영상에 표시하는 표시부를 포함할 수 있다.In order to achieve the above objects, a needle position prediction system for an MRI-based biopsy robot of the present invention includes a biopsy robot equipped with a needle for biopsy and a plurality of markers, a patient before biopsy, and the biopsy robot. A photographing unit that captures an MRI image, a segmentation unit that divides the image captured by the photographing unit and generates a segmented image, and extracts the position of the first image of the biopsy robot from the segmented image, and extracts the first image position of the biopsy robot. 1. An extraction unit that extracts a real position; a matching unit that generates matched data by matching the first image position extracted from the extractor with the first actual position; and dividing a second actual position based on the matched data. It may include a control unit that converts the position of the second image in the image and a display unit that displays the position of the second image converted by the control unit on the divided image.
본 발명의 실시예에서, 상기 정합데이터는, 상기 생검 시술 로봇의 3차원의 실제 위치가 2차원의 영상 위치로 대응될 수 있도록 기준이 될 수 있다.In an embodiment of the present invention, the matching data may be a reference so that the 3D actual position of the biopsy robot can correspond to the 2D image position.
본 발명의 실시예에서, 상기 제어부는, 상기 생검 시술 로봇의 구동을 제어하며, 상기 생검 시술 로봇의 제1 실제 위치와 제2 실제 위치를 확인할 수 있다.In an embodiment of the present invention, the control unit may control driving of the biopsy robot and check a first actual position and a second actual position of the biopsy robot.
본 발명은 생검 시술 로봇의 초기 위치 정보가 포함된 정합데이터를 기반으로 생검 시술 로봇의 바늘이 실제 이동한 위치를 MRI 영상에서의 위치로 변환시킴으로써, 시술자가 바늘의 위치를 추가 촬영 없이 실시간으로 확인할 수 있다. 이로 인해, 시술 시간이 단축되며, 환자에게 가해지는 부담이 줄어 드는 효과가 있다.The present invention converts the actual movement position of the needle of the biopsy robot to the position in the MRI image based on matching data including the initial position information of the biopsy robot, so that the operator can check the position of the needle in real time without additional imaging. can Due to this, there is an effect that the operation time is shortened and the burden on the patient is reduced.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if the effects are not explicitly mentioned here, the effects described in the following specification expected by the technical features of the present invention and their provisional effects are treated as described in the specification of the present invention.
도 1은 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 시술 전 생성되는 정합데이터를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 시술 중 바늘의 위치를 예측 하여 표시되는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법을 설명하기 위한 흐름도이다.1 is a block diagram of a needle position prediction system for an MRI-based biopsy robot according to an embodiment of the present invention.
2 is a diagram for explaining matching data generated before an operation according to an embodiment of the present invention.
3 is a diagram for explaining a process of predicting and displaying the position of a needle during a procedure according to an embodiment of the present invention.
4 is a flowchart illustrating a needle position prediction method for an MRI-based biopsy robot according to an embodiment of the present invention.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention and its operational advantages and objectives achieved by the practice of the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계 없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by describing preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the described embodiments. And, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함” 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록”등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a certain component is said to "include", it means that it may further include other components, not excluding other components unless otherwise stated. In addition, terms such as “… unit”, “… unit”, “module”, and “block” described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware. And it can be implemented as a combination of software.
이하, 본 발명의 일 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description may be omitted.
도 1은 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템의 블록도이고, 도 2는 본 발명의 일 실시예에 따른 시술 전 생성되는 정합데이터를 설명하기 위한 도면이며, 도 3은 본 발명의 일 실시예에 따른 시술 중 바늘의 위치를 예측 하여 표시되는 과정을 설명하기 위한 도면이다.1 is a block diagram of a needle position prediction system for an MRI-based biopsy robot according to an embodiment of the present invention, and FIG. 2 is a diagram for explaining matching data generated before surgery according to an embodiment of the present invention. 3 is a view for explaining a process of predicting and displaying the position of a needle during a procedure according to an embodiment of the present invention.
도 1 내지 도 3을 참조하면, MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템(100)은 생검 시술 로봇(110), 촬영부(120), 분할부(130), 추출부(140), 정합부(150), 표시부(160) 및 제어부(170)를 포함할 수 있다.Referring to FIGS. 1 to 3 , the needle
생검 시술 로봇(110)은 시술 정확도 향상을 위한 하나 이상의 관절이 구비된 슬레이브 로봇(Slave Robot)의 일부일 수 있으며, 엔드이펙터(End-Effector)가 구비될 수 있다. 엔드이펙터에는 의료도구가 장착되며, 의료도구에 동력을 전달하여 의료도구가 구동될 수 있도록 할 수 있다. 여기서 의료 도구는 생검 시술을 수행하는 바늘일 수 있으며, 바늘은 조직채취용 바늘 및 조직채취용 바늘을 가이드 하는 가이드로 구성될 수 있다. The
설명의 편의를 위해, 본 발명의 생검 시술 로봇(110)은 가이드를 말하며 바늘(115)을 포함하는 것으로 설명하지만, 이에 한정되는 것은 아니다. 가이드에는 복수의 생검 마커가 가이드의 양 끝점에 구비되어 MRI 영상에서 가이드의 위치 즉, 생검 시술 로봇(110)의 위치를 확인할 수 있다. For convenience of description, the
또한, 생검 시술 로봇(110)은 시술대에 환자가 위치하면 생검 시술을 수행하기 위해 시술대 옆에 고정되어 바늘만 움직여서 환자 내부에 삽입되도록 구동될 수 있다.In addition, the
촬영부(120)는 환자와 생검 시술 로봇(110)을 촬영할 수 있다. 이러한 촬영부(120)는 자기 공명 영상(MRI), 초음파, 컴퓨터 단층촬영(CT) 등으로 구현될 수 있으며, 바람직하게는 자기 공명 영상일 수 있다.The photographing
본 발명에서 촬영부(120)는 시술하기 바로 직전 상태의 생검 시술 로봇(100)을 환자 옆에 세팅한 후 촬영할 수 있다. 촬영부(120)는 시술 전에만 촬영하기 위해 구동될 뿐, 시술 중에는 구동되지 않아도 된다.In the present invention, the photographing
분할부(130)는 촬영부(120)에서 촬영된 영상을 분할 할 수 있다. 보다 구체적으로, 분할부(130)는 생검 시술 로봇(110)의 위치를 확인할 수 있도록 3차원 MRI 영상을 2차원 MRI 영상으로 분할할 수 있다.The
추출부(140)는 시술대에서의 생검 시술 로봇(110)의 실제 위치 좌표인 제1 실제 위치와 2차원의 분할된 MRI 영상에서의 생검 시술 로봇(110)의 영상 위치 좌표인 제1 영상 위치를 추출할 수 있다.The
보다 구체적으로, 생검 시술 로봇(110)의 구동을 제어하는 제어부(160)에 생검 시술 로봇(110)이 이동한 3차원의 실제 위치 좌표가 저장될 수 있으며, 추출부(140)는 제어부(160)와 연동되어 3차원의 실제 위치 좌표를 전달 받을 수 있다. 또한, 추출부(140)는 생검 시술 로봇(110)의 영상 위치 좌표를 2차원의 분할된 MRI 영상 즉 분할영상에서 추출할 수 있다. More specifically, the three-dimensional coordinates of the actual location where the
뿐만 아니라, 추출부(140)는 생검 시술 로봇(100)의 바늘이 실제 이동한 위치인 제2 실제 위치를 제어부(160)에서 전달 받을 수 있다.In addition, the
정합부(150)는 추출부(140)에서 추출된 생검 시술 로봇(110)의 제1 실제 위치와 제1 영상 위치를 정합하여 정합데이터를 생성할 수 있다.The
여기서, 정합데이터는 생검 시술 로봇(110)의 초기 위치 정보를 나타낸다. 이러한 정합데이터는 생검 시술 로봇(110)의 바늘이 실제 이동한 위치를 분할영상의 위치로 변환할 때 즉, 3차원의 실제 위치를 2차원의 영상 위치로 대응될 수 있게 하는 기준이 될 수 있다.Here, matching data represents initial position information of the
표시부(160)는 촬영부(120)에서 촬영한 영상을 시술자가 확인할 수 있도록 디스플레이 할 수 있다. 뿐만 아니라, 표시부(160)는 정합데이터를 영상으로 디스플레이 할 수 있다. The
또한, 표시부(160)는 제어부(170)에서 생검 시술 로봇(110)의 제2 실제 위치를 제2 영상 위치로 변환한 결과를 시술자가 확인할 수 있도록 디스플레이 할 수 있다. In addition, the
보다 구체적으로, 표시부(160)는 생검 시술 로봇(110)의 바늘이 실제 이동한 위치인 제2 실제 위치를 분할영상에서의 위치인 제2 영상 위치로 변환한 결과를 시술자가 실시간으로 확인할 수 있으며, 바늘의 위치 변화에 따른 바늘의 길이 변화도 확인할 수 있다. More specifically, the
제어부(170)는 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템(100)의 전반적인 동작을 제어하도록 구성될 수 있다. 특히, 제어부(160)는 생검 시술 로봇(110)의 바늘이 실제 이동한 위치인 제2 실제 위치를 분할영상에 표시하여 디스플레이 될 수 있도록 생검 시술 로봇(110), 촬영부(120), 분할부(130), 추출부(140), 정합부(150) 및 표시부(160)를 제어하도록 구성될 수 있다.The
일례로, 제어부(170)는 하드웨어인 프로세서(Processor) 또는 해당 프로세서에서 수행되는 소프트웨어인 프로세스(Process) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.As an example, the
도 1 및 도 2를 참조하면, 시술대에 환자(미도시)와 생검 시술 로봇(110)이 설치될 수 있다. 생검 시술 로봇(110)에는 생검 마커(111, 113)가 길이 방향 양 끝에 구비되어 MRI 영상에서 생검 시술 로봇(110)의 위치를 확인할 수 있다.Referring to FIGS. 1 and 2 , a patient (not shown) and a
환자(미도시)와 생검 시술 로봇(110)을 촬영부(120)인 MRI Scan으로 촬영하여 3차원 MRI 영상을 생성하면, 분할부(130)에서 MRI 영상을 생검 시술 로봇(110)의 위치를 확인할 수 있게 MRI Slices로 분할하여 2차원의 MRI 분할영상을 생성할 수 있다. 이때, 분할영상에는 생검 마커(111, 113)가 식별되는 위치(111a, 113a)에 표시될 수 있다. 추출부(140)는 분할영상에서 Pixel 좌표에 의해 식별되는 위치(111a, 113a)의 2차원 좌표를 추출할 수 있으며, 이를 기반으로 생검 시술 로봇(110)의 제1 영상 위치를 추출할 수 있다. 이 후, 정합부(150)는 제어부(170)에서 전달 받은 생검 시술 로봇(110)의 제1 실제 위치를 제1 영상 위치와 정합하여 정합데이터를 생성할 수 있다. 이때의 정합데이터는 생검 시술 로봇(110)의 초기 위치 정보를 나타내며, 생검 시술 로봇(110)의 3차원의 실제 위치가 2차원의 영상 위치로 대응 될 수 있게 하는 기준이 된다.When a patient (not shown) and the
도 1 및 도 3을 참조하면, 생검 시술을 수행하기 위해 생검 시술 로봇(110)의 바늘(115)이 사출되어 목표 위치로 이동하면, 제어부(170)는 바늘(115)이 실제 이동한 위치를 바늘(115)의 끝 점 좌표로 인식한다. 이후, 정합 데이터를 기반으로 바늘(115)이 실제 이동한 위치인 제2 실제 위치를 NLP(Needle Location Prediction) 알고리즘에 적용하여 분할영상에서의 위치로 변환할 수 있다. 표시부(160)는 바늘(115)이 실제 이동한 거리인 제2 실제 위치를 분할영상에 115a처럼 표시하여 시술자가 확인할 수 있도록 디스플레이 할 수 있다.1 and 3 , when the
도 4는 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a needle position prediction method for an MRI-based biopsy robot according to an embodiment of the present invention.
도 1 및 도 4를 참조하면, MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법은 먼저, S401단계에서 생검 시술을 수행하기 위해 환자와 생검 시술 로봇(110)을 세팅한 후 촬영부(120)는 MRI 영상을 촬영하여 3차원 MRI 영상을 생성할 수 있다. Referring to FIGS. 1 and 4 , the needle position prediction method for the MRI-based biopsy robot first sets the patient and the
다음으로, S403단계에서 분할부(130)는 3차원 MRI 영상을 2차원의 분할영상으로 생성할 수 있다. 이때, 분할영상은 생검 시술 로봇(110)의 위치 확인이 잘 될 수 있도록 분할된 영상을 말한다.Next, in step S403, the
다음으로, S405단계에서 추출부(140)는 제어부(170)에서 생검 시술 로봇(110)의 실제 위치 좌표인 제1 실제 위치를 전달 받고, 분할영상에서 생검 시술 로봇(110)의 제1 영상 위치를 추출할 수 있다.Next, in step S405, the
다음으로, S407단계에서 정합부(150)는 생검 시술 로봇(110)의 제1 실제 위치와 제1 영상 위치를 정합하여 정합데이터를 생성할 수 있다. 이때 정합데이터는 생검 시술 로봇(110)의 바늘이 실제 이동하는 위치인 3차원의 실제 위치를 2차원의 분할영상에서의 위치로 변환되는 기준이 될 수 있다.Next, in step S407, the
다음으로, S409에서 생검 시술 로봇(110)이 생검 목표 위치로 바늘을 이동시키면, 제어부(170)는 바늘의 실제 이동 위치인 제2 실제 위치를 3차원 좌표로 추출할 수 있다. Next, when the
다음으로, S411에서 제어부(170)는 정합데이터를 기반으로 제2 실제 위치를 제2 영상위치로 변환할 수 있다.Next, in S411, the
다음으로, S413에서 표시부(160)는 변환된 제2 영상위치를 분할영상에 표시하여 시술자가 시술하면서 실시간으로 생검 시술 로봇(110)의 바늘 위치를 확인할 수 있도록 디스플레이 할 수 있다. Next, in S413, the
이와 같이, 본 발명의 일 실시예에 따른 MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 방법은 바늘의 초기 위치 정보가 포함된 정합데이터를 기반으로 생검 시술 로봇의 바늘이 실제 이동한 위치를 MRI 영상에서의 위치로 변환시킴으로써, 시술자가 바늘의 위치를 추가 촬영 없이 실시간으로 확인할 수 있다. 이로 인해, 시술 시간이 단축되며, 환자에게 가해지는 부담이 줄어 드는 효과가 있다.As such, the method for predicting the position of a needle for an MRI-based biopsy robot according to an embodiment of the present invention is based on matching data including information on the initial position of the needle, and displays the actual movement position of the needle of the biopsy robot through an MRI image. By converting to the position in , the operator can check the position of the needle in real time without additional imaging. Due to this, there is an effect that the operation time is shortened and the burden on the patient is reduced.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다. The above description is merely an example of the technical idea of the present invention, and those skilled in the art can make various modifications, changes, and substitutions without departing from the essential characteristics of the present invention. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings. . The protection scope of the present invention should be construed according to the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100: MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템
110: 생검 시술 로봇
120: 촬영부
130: 분할부
140: 추출부
150: 정합부
160: 표시부
170: 제어부100: Needle position prediction system for MRI-based biopsy robot
110: biopsy procedure robot
120: shooting unit
130: division part
140: extraction unit
150: matching part
160: display unit
170: control unit
Claims (8)
상기 MRI 영상을 분할하여 분할 영상을 생성하는 분할부;
상기 생검 시술 로봇의 구동을 제어하며, 상기 생검 시술 전 상기 생검 시술 로봇의 제1 실제 위치를 인식하여 저장하고, 상기 생검 시술 시 상기 생검 시술 로봇에서 사출되는 바늘의 제2 실제 위치를 인식하여 저장하는 제어부;
상기 제어부로부터 상기 제1 실제 위치를 전달 받고, 상기 분할 영상에서 식별되는 상기 마커의 위치를 상기 생검 시술 로봇의 제1 영상 위치로 추출하는 추출부;
상기 제1 실제 위치와 상기 제1 영상 위치를 정합하여 상기 생검 시술 로봇의 초기 위치 정보를 나타내는 정합 데이터를 정합부; 및
상기 생검 시술 전에 생성된 상기 분할 영상을 표시하는 표시부를 포함하고,
상기 제어부는
상기 정합 데이터를 기반으로 상기 제2 실제 위치를 상기 생검 시술 전에 생성된 상기 분할 영상에서의 제2 영상 위치로 변환하고,
상기 표시부는
상기 제2 영상 위치를 상기 생검 시술 전에 생성된 상기 분할 영상에 표시하고,
상기 촬영부는
상기 생검 시술 전에만 상기 환자 및 상기 생검 시술 로봇의 MRI 영상을 촬영하고,
상기 정합데이터는,
상기 생검 시술 로봇에서 사출되는 바늘의 3차원의 실제 위치를 2차원의 분할영상에서의 위치로 변환 하는데 있어 기준이 되는 데이터인
MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템.
A biopsy robot equipped with markers at both ends in a longitudinal direction before a biopsy procedure and a recording unit for taking an MRI image of a patient;
a segmentation unit generating segmented images by segmenting the MRI image;
It controls driving of the biopsy robot, recognizes and stores a first actual position of the biopsy robot before the biopsy, and recognizes and stores a second actual position of a needle ejected from the biopsy robot during the biopsy. a control unit;
an extraction unit receiving the first actual position from the control unit and extracting the position of the marker identified in the divided image as a first image position of the biopsy robot;
a matching unit that matches the first actual position with the first image position and transmits matching data indicating initial position information of the biopsy robot; and
A display unit displaying the segmented image generated before the biopsy procedure;
The control unit
converting the second real position into a second image position in the segmented image generated before the biopsy procedure based on the matching data;
the display part
The second image position is displayed on the segmented image generated before the biopsy procedure;
The filming department
Taking MRI images of the patient and the biopsy robot only before the biopsy procedure;
The matching data is
Data that is the reference in converting the 3D actual position of the needle ejected from the biopsy robot to the position in the 2D segmented image
A needle position prediction system for an MRI-based biopsy robot.
상기 생검 시술 로봇은
시술대에 상기 환자가 위치하면 생검 시술을 수행하기 위해 상기 시술대 옆에 고정되어 상기 생검 시술 시 상기 바늘만 사출되어 환자 내부에 삽입되도록 구동되는
MRI 기반의 생검 시술 로봇을 위한 바늘 위치 예측 시스템.
According to claim 1,
The biopsy robot
When the patient is located on the operating table, it is fixed next to the operating table to perform a biopsy procedure, and only the needle is ejected and driven to be inserted into the patient during the biopsy procedure.
A needle position prediction system for an MRI-based biopsy robot.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210088067A KR102495465B1 (en) | 2021-07-05 | 2021-07-05 | Needle Position Prediction Method and System for MRI-compatible Biopsy Robot |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020210088067A KR102495465B1 (en) | 2021-07-05 | 2021-07-05 | Needle Position Prediction Method and System for MRI-compatible Biopsy Robot |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20230007167A KR20230007167A (en) | 2023-01-12 |
| KR102495465B1 true KR102495465B1 (en) | 2023-02-06 |
Family
ID=84923805
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210088067A Active KR102495465B1 (en) | 2021-07-05 | 2021-07-05 | Needle Position Prediction Method and System for MRI-compatible Biopsy Robot |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102495465B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102907303B1 (en) | 2024-12-23 | 2025-12-31 | 전남대학교산학협력단 | Device and method for real-time detection of path and position of ultrasound-guided biopsy needle based on multi-branch potential diffusion model |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090143672A1 (en) | 2007-12-04 | 2009-06-04 | Harms Steven E | Method for mapping image reference points to facilitate biopsy using magnetic resonance imaging |
| JP2019076693A (en) | 2017-08-11 | 2019-05-23 | キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc | Registration and motion compensation for patient-mounted needle guide |
| WO2019144904A1 (en) * | 2018-01-29 | 2019-08-01 | The University Of Hong Kong | Robotic stereotactic system for mri-guided neurosurgery |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3349649B1 (en) * | 2015-09-18 | 2022-03-09 | Auris Health, Inc. | Navigation of tubular networks |
-
2021
- 2021-07-05 KR KR1020210088067A patent/KR102495465B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090143672A1 (en) | 2007-12-04 | 2009-06-04 | Harms Steven E | Method for mapping image reference points to facilitate biopsy using magnetic resonance imaging |
| JP2019076693A (en) | 2017-08-11 | 2019-05-23 | キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc | Registration and motion compensation for patient-mounted needle guide |
| WO2019144904A1 (en) * | 2018-01-29 | 2019-08-01 | The University Of Hong Kong | Robotic stereotactic system for mri-guided neurosurgery |
Non-Patent Citations (1)
| Title |
|---|
| Ziyan Guo 외 5인, Techniques for Stereotactic Neurosurgery: Beyond the Frame, Toward the Intraoperative Magnetic Resonance ImagingeGuided and Robot-Assisted Approaches(2018) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102907303B1 (en) | 2024-12-23 | 2025-12-31 | 전남대학교산학협력단 | Device and method for real-time detection of path and position of ultrasound-guided biopsy needle based on multi-branch potential diffusion model |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20230007167A (en) | 2023-01-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102467282B1 (en) | System and method of interventional procedure using medical images | |
| KR102013866B1 (en) | Method and apparatus for calculating camera location using surgical video | |
| US12488482B2 (en) | Image processing device, method, and program for confirming accuracy between 2D and 3D images | |
| US20220022979A1 (en) | System And Method For Registration Between Coordinate Systems And Navigation | |
| EP2963616B1 (en) | Fluoroscopic pose estimation | |
| US20170084036A1 (en) | Registration of video camera with medical imaging | |
| KR20190005177A (en) | Method and apparatus for image-based searching | |
| EP3881769B1 (en) | Methods and systems for biopsy needle reconstruction error assessment | |
| CN110215284A (en) | A kind of visualization system and method | |
| US10078906B2 (en) | Device and method for image registration, and non-transitory recording medium | |
| JP6490820B2 (en) | Ultrasonic imaging apparatus, image processing apparatus, and method | |
| US20240164848A1 (en) | System and Method for Registration Between Coordinate Systems and Navigation | |
| CN102389319A (en) | Radiation image processing apparatus, radiation image processing method, and radiation image processing program | |
| JP2010099193A (en) | Medical image processor, ultrasonic diagnostic apparatus, and medical image processing program | |
| KR102495465B1 (en) | Needle Position Prediction Method and System for MRI-compatible Biopsy Robot | |
| EP1787594A2 (en) | System and method for improved ablation of tumors | |
| WO2019130636A1 (en) | Ultrasound imaging device, image processing device, and method | |
| CN117653154A (en) | Method and system for digital mammography imaging | |
| EP3659512A1 (en) | System and method for remote visualization of medical images | |
| JP2023532065A (en) | Determining Needle Position | |
| EP4179975B1 (en) | SYSTEMS AND METHODS FOR VISUALIZING A MEDICAL DEVICE WITH RESPECT TO A TARGET | |
| EP4272655B1 (en) | Image processing device, method, and program | |
| US20200005473A1 (en) | Alignment system for liver surgery | |
| US20260044968A1 (en) | Systems and methods for registering visual representations of a surgical space | |
| EP4186436A1 (en) | Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| AMND | Amendment | ||
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| AMND | Amendment | ||
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| PE0601 | Decision on rejection of patent |
St.27 status event code: N-2-6-B10-B15-exm-PE0601 |
|
| X091 | Application refused [patent] | ||
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| T13-X000 | Administrative time limit extension granted |
St.27 status event code: U-3-3-T10-T13-oth-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| AMND | Amendment | ||
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PX0901 | Re-examination |
St.27 status event code: A-2-3-E10-E12-rex-PX0901 |
|
| PX0701 | Decision of registration after re-examination |
St.27 status event code: A-3-4-F10-F13-rex-PX0701 |
|
| X701 | Decision to grant (after re-examination) | ||
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-4-4-U10-U11-OTH-PR1001 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 4 |