KR101447931B1 - Surgical robot system using augmented reality and control method thereof - Google Patents
Surgical robot system using augmented reality and control method thereof Download PDFInfo
- Publication number
- KR101447931B1 KR101447931B1 KR1020110033649A KR20110033649A KR101447931B1 KR 101447931 B1 KR101447931 B1 KR 101447931B1 KR 1020110033649 A KR1020110033649 A KR 1020110033649A KR 20110033649 A KR20110033649 A KR 20110033649A KR 101447931 B1 KR101447931 B1 KR 101447931B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- information
- image
- surgical
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 110
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 46
- 210000000056 organ Anatomy 0.000 claims description 67
- 238000004891 communication Methods 0.000 claims description 63
- 238000012545 processing Methods 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 25
- 230000007774 longterm Effects 0.000 claims description 23
- 238000002591 computed tomography Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 19
- 238000004088 simulation Methods 0.000 claims description 14
- 238000002595 magnetic resonance imaging Methods 0.000 claims description 13
- 238000005520 cutting process Methods 0.000 claims description 8
- 230000000740 bleeding effect Effects 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 3
- 206010028980 Neoplasm Diseases 0.000 claims description 2
- 210000004204 blood vessel Anatomy 0.000 claims description 2
- 201000011510 cancer Diseases 0.000 claims description 2
- 230000008816 organ damage Effects 0.000 claims 1
- 238000001356 surgical procedure Methods 0.000 description 23
- 238000012360 testing method Methods 0.000 description 23
- 238000003860 storage Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000012549 training Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 13
- 210000004185 liver Anatomy 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 6
- 238000002357 laparoscopic surgery Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013475 authorization Methods 0.000 description 2
- 230000000747 cardiac effect Effects 0.000 description 2
- 230000002183 duodenal effect Effects 0.000 description 2
- 238000001839 endoscopy Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000002350 laparotomy Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000002271 resection Methods 0.000 description 2
- 206010009944 Colon cancer Diseases 0.000 description 1
- 208000001333 Colorectal Neoplasms Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000009530 blood pressure measurement Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009532 heart rate measurement Methods 0.000 description 1
- 230000036737 immune function Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 210000001113 umbilicus Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Leader-follower robots
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/742—Joysticks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45171—Surgery drill
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Endoscopes (AREA)
Abstract
증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법이 개시된다. 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에 장착되는 인터페이스로서, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 수술용 로봇의 마스터 인터페이스는 증강현실을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 한다.A surgical robot system using an augmented reality and a control method thereof are disclosed. An interface mounted on a master robot for controlling a slave robot including a robot arm, comprising: a screen display unit for displaying an endoscopic image corresponding to a video signal provided from a surgical endoscope; The master interface of the surgical robot including the manipulation unit and the augmented reality implementation unit for generating the virtual surgery tool information according to the user operation using the arm operation unit to display the virtual surgery tool through the screen display unit, By displaying the tool together with the virtual surgical tool, the operator can perform a smooth operation.
Description
본 발명은 수술에 관한 것으로서, 더욱 상세하게는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to surgery, and more particularly, to a surgical robot system using an augmented reality and a control method thereof.
수술 로봇은 외과의사에 의해 시행되던 수술 행위를 대신할 수 있는 기능을 가지는 로봇을 말한다. 이러한 수술 로봇은 사람에 비하여 정확하고 정밀한 동작을 할 수 있으며 원격 수술이 가능하다는 장점을 가진다.The surgical robot refers to a robot having a function of substituting surgical operation performed by a surgeon. Such a surgical robot has an advantage that it can perform accurate and precise operation compared to a human and can perform a remote operation.
현재 전세계적으로 개발되고 있는 수술 로봇은 뼈 수술 로봇, 복강경(復腔鏡) 수술 로봇, 정위 수술 로봇 등이 있다. 여기서 복강경 수술 로봇은 복강경과 소형 수술도구를 이용하여 최소 침습적 수술을 시행하는 로봇이다.Surgical robots currently being developed around the world include bone surgery robots, laparoscopic surgery robots, and stereotactic robots. Here, a laparoscopic surgical robot is a robot that performs minimally invasive surgery using laparoscopic and small surgical instruments.
복강경 수술은 배꼽 부위에 1cm 정도의 구멍을 뚫고 배 안을 들여다보는 내시경인 복강경을 집어넣은 후 수술하는 첨단 수술기법으로서 향후 많은 발전이 기대되는 분야이다.Laparoscopic surgery is an advanced surgical technique that inserts a laparoscope, which is an endoscope that penetrates a 1 cm hole in the umbilicus and looks into the abdomen.
최근의 복강경은 컴퓨터칩이 장착되어 육안으로 보는 것보다도 더 선명하면서도 확대된 영상을 얻을 수 있으며, 또 모니터를 통해 화면을 보면서 특별히 고안된 복강경용 수술 기구들을 사용하면 어떠한 수술도 가능할 정도로 발전되었다.A recent laparoscope is equipped with a computer chip that provides a sharper, larger image than what the naked eye can see, and the laparoscopic surgical instruments specially designed for viewing through the monitor have been developed to allow any surgery.
더욱이 복강경 수술은 그 수술 범위가 개복 수술과 거의 같으면서도, 개복수술에 비해 합병증이 적고, 시술 후 훨씬 빠른 시간 안에 치료를 시작할 수 있으며, 수술 환자의 체력이나 면역기능을 유지시키는 능력이 우수한 이점이 있다. 이로 인해 미국과 유럽 등지에서는 대장암 치료 등에 있어서는 복강경 수술이 점차 표준 수술로 인식되어 가는 추세이다.In addition, laparoscopic surgery is similar to laparotomy, but it has fewer complications than laparotomy, can start treatment within a short time after surgery, and has the advantage of maintaining the patient's physical strength and immune function have. Therefore, in the United States and Europe, laparoscopic surgery is becoming increasingly recognized as a standard surgery for colorectal cancer treatment and the like.
수술 로봇 시스템은 일반적으로 마스터 로봇과 슬레이브 로봇으로 구성된다. 수술자가 마스터 로봇에 구비된 조종기(예를 들어 핸들)를 조작하면, 슬레이브 로봇의 로봇 암에 결합되거나 로봇 암이 파지하고 있는 수술도구가 조작되어 수술이 수행된다.Surgical robot systems generally consist of a master robot and a slave robot. When the operator manipulates a manipulator (e.g., a handle) provided in the master robot, the surgical tool held by the robot arm is operated by being coupled to the robot arm of the slave robot.
마스터 로봇과 슬레이브 로봇은 통신망을 통해 결합되어 네트워크 통신을 하게 된다. 이때, 네트워크 통신 속도가 충분히 빠르지 않은 경우라면, 마스터 로봇에서 전송된 조작신호가 슬레이브 로봇에 수신될 때까지 또는/및 슬레이브 로봇에 장착된 복강경 카메라로부터 전송되는 복강경 영상이 마스터 로봇에 수신될 때까지 적지 않은 시간이 소요된다. The master robot and the slave robot are connected through a communication network to perform network communication. At this time, if the network communication speed is not sufficiently fast, the operation is not performed until the operation signal transmitted from the master robot is received by the slave robot or / and the laparoscopic image transmitted from the laparoscopic camera mounted on the slave robot is received by the master robot It takes a lot of time.
일반적으로 상호간의 네트워크 통신 속도가 150ms 이내가 되어야 마스터 로봇 및 슬레이브 로봇을 이용한 수술이 가능하다고 알려져 있다. 통신 속도가 그 이상 지연되면 수술자 손의 움직임과 화면을 통해 보는 슬레이브 로봇의 움직임이 일치하지 않아 수술자는 매우 불편함을 느끼게 된다. It is generally known that the network communication speed between the master and slave robots must be within 150 ms. If the communication speed is further delayed, the movement of the operator's hand and the movement of the slave robot seen through the screen do not coincide with each other, so that the operator feels uncomfortable.
또한, 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도가 느린 경우 수술자는 화면에 보이는 슬레이브 로봇의 움직임을 의식하거나 미리 예측하여 수술을 진행하게 된다. 이는 부자연스러운 동작이 야기되는 원인이 되며, 심할 경우에는 정상적인 수술이 이루어지지 못하는 원인도 된다.In addition, when the network communication speed between the master robot and the slave robot is slow, the operator considers the motion of the slave robot displayed on the screen or anticipates and predicts the operation of the slave robot. This causes unnatural movements, and in severe cases, normal operation can not be performed.
본 발명은, 증강현실(augmented reality)을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.The present invention relates to a surgical robot system using an augmented reality and a control method thereof, in which an actual surgical tool and a virtual surgical tool are displayed together using an augmented reality, thereby enabling smooth operation of the operator.
또한, 본 발명은 수술시 환자에 대한 다양한 정보를 출력할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.In addition, the present invention provides a surgical robot system using an augmented reality capable of outputting various information about a patient during surgery and a control method thereof.
또한, 본 발명은 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도에 따라 수술자의 원활한 수술 진행이 가능하도록 수술 화면 표시 방법을 다양화할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다.It is another object of the present invention to provide a surgical robot system and a control method thereof using an augmented reality that can diversify a surgical screen display method so that an operator can smoothly proceed according to a network communication speed between a master robot and a slave robot.
또한, 본 발명은 내시경 등을 통해 입력되는 화상을 자동화 처리하여 응급 상황을 즉시 수술자에게 통지할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. The present invention also provides a surgical robot system using an augmented reality capable of automatically notifying an operator of an emergency situation by automatically processing an image input through an endoscope or the like, and a control method thereof.
또한, 본 발명은 마스터 로봇의 조작에 의한 가상 수술도구의 이동 등에 따른 장기 접촉 등이 수술자에게 실시간 감지될 수 있고, 가상 수술도구와 장기간의 위치 관계가 직관적으로 인지될 수 있도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention can be applied to augmented reality in which a long-term contact or the like due to movement of a virtual surgical tool by manipulation of a master robot can be sensed in real time by a surgeon and intuitive recognition of a long- A surgical robot system and a control method thereof.
또한, 본 발명은 수술 부위에 대한 환자의 관련 이미지 데이터(예를 들어, CT 이미지, MRI 이미지 등)가 실시간 제시될 수 있어 다양한 정보를 활용한 수술 진행이 가능하도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention provides a surgical robot system using an augmented reality which enables the progression of surgery using a variety of information because the related image data (e.g., CT image, MRI image, etc.) And a control method thereof.
또한, 본 발명은 수술 로봇 시스템이 학습자(learner)와 교육자(trainer)간에 호환 및 공유될 수 있도록 하여 실시간 교육 효과를 극대화할 수 있는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. In addition, the present invention provides a surgical robot system using an augmented reality capable of maximizing a real-time educational effect by allowing a surgical robot system to be compatible and shared between a learner and a trainer, and a control method thereof .
또한, 본 발명은 3차원 모델링된 가상 장기를 활용하여 실제 수술 과정의 경과 및 결과를 미리 예측할 수 있도록 하는 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법을 제공하기 위한 것이다. The present invention also provides a surgical robot system and a control method thereof using an augmented reality in which a progress of a surgical procedure can be predicted in advance using a three-dimensional modeled virtual organ.
본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.The technical problems other than the present invention can be easily understood from the following description.
본 발명의 일 측면에 따르면, 증강현실을 이용한 수술 로봇 시스템, 슬레이브 로봇 및 마스터 로봇이 제공된다.According to one aspect of the present invention, a surgical robot system using augmented reality, a slave robot, and a master robot are provided.
본 발명의 일 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 제어하는 마스터(master) 로봇에 장착되는 인터페이스(interface)로서, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 수술용 로봇의 마스터 인터페이스가 제공된다.According to an embodiment of the present invention, there is provided an interface mounted on a master robot for controlling a slave robot including at least one robot arm, the interface including: an endoscope corresponding to a video signal provided from a surgical endoscope; And a virtual operation tool information display unit for displaying virtual surgery tool information according to a user operation using a dark operation unit to display a virtual surgery tool through the screen display unit, A master interface of a surgical robot including an augmented reality implementing section is provided.
수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상일 수 있다.Surgical endoscopy may be one or more of laparoscopic, thoracoscopic, arthroscopic, non-operative, cystoscopic, rectal, duodenal, mediastinal, and cardiac.
수술용 로봇의 마스터 인터페이스는, 로봇 암의 제어를 위한 사용자 조작에 따른 조작신호를 생성하여 슬레이브 로봇으로 전송하는 조작신호 생성부를 더 포함할 수 있다.The master interface of the surgical robot may further include an operation signal generation unit for generating an operation signal according to a user operation for controlling the robot arm and transmitting the operation signal to the slave robot.
수술용 로봇의 마스터 인터페이스는, 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택부와, 구동모드 선택부를 통해 선택된 구동모드에 상응하여 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함할 수 있다. The master interface of the surgical robot includes a drive mode selection unit for designating a drive mode of the master robot and a display unit for displaying at least one of the endoscopic image and the virtual surgery tool through the screen display unit corresponding to the drive mode selected through the drive mode selection unit And a control unit for controlling the display unit.
제어부는 선택된 구동모드에 상응하는 모드 표시자가 화면 표시부를 통해 디스플레이되도록 제어할 수 있다. 모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정될 수 있다.The controller may control the display of the mode indicator corresponding to the selected drive mode through the screen display unit. The mode indicator may be predefined by one or more of a text message, a border color, an icon, a background color, and the like.
슬레이브 로봇은 생체 정보 측정 유닛을 더 포함할 수 있다. 생체 정보 측정 유닛에 의해 측정된 생체 정보는 화면 표시부를 통해 디스플레이될 수 있다.The slave robot may further include a bio-information measurement unit. The biometric information measured by the biometric information measuring unit can be displayed on the screen display unit.
증강현실 구현부는, 내시경 영상 및 하나 이상의 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 특성값 연산부와, 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 가상 수술도구 생성부를 포함할 수 있다.The augmented reality implementation unit includes a feature value calculation unit that calculates a feature value using at least one of an endoscopic image and positional coordinate information of an actual surgical tool coupled to the at least one robot arm, And a virtual surgery tool generation unit for generating a virtual surgery tool.
특성값 연산부에 의해 연산되는 특성값은 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함할 수 있다.The characteristic value calculated by the characteristic value calculation unit may include at least one of an angle of view (FOV) of a surgical endoscope, an enlargement ratio, a viewpoint, a viewing depth, a kind of an actual surgical tool, a direction, a depth and a bending angle.
증강현실 구현부는, 테스트 신호를 슬레이브 로봇으로 전송하고, 슬레이브 로봇으로부터 테스트 신호에 따른 응답 신호를 수신하는 테스트 신호 처리부와, 테스트 신호의 전송 시각 및 응답 신호의 수신 시각을 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 지연시간 산출부를 더 포함할 수 있다.The augmented reality implementing unit includes a test signal processing unit that transmits a test signal to the slave robot and receives a response signal in response to the test signal from the slave robot and a test signal processing unit that tests the master robot and the slave robot And a delay time calculation unit for calculating a delay value for at least one of a network communication speed between the base station and the base station, and a network communication delay time.
마스터 인터페이스는, 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 제어부를 더 포함할 수 있다. 여기서, 제어부는 지연값이 미리 설정된 지연 임계값 이하인 경우에는 내시경 영상만이 화면 표시부를 통해 디스플레이되도록 제어할 수 있다.The master interface may further include a control unit for controlling one or more of the endoscopic image and the virtual surgical tool to be displayed through the screen display unit. Here, when the delay value is equal to or less than a preset delay threshold value, the controller may control only the endoscopic image to be displayed through the screen display unit.
증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 실제 수술도구와 가상 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 간격 연산부를 더 포함할 수 있다. The augmented reality implementing unit may further include an interval calculating unit for calculating an interval value of each operation section using the coordinates of the actual operation tool and the virtual operation tool displayed through the screen display unit.
가상 수술도구 생성부는 간격 연산부에 의해 연산된 간격값이 미리 설정된 간격 임계값 이하인 경우 가상 수술도구가 화면 표시부를 통해 표시되지 않도록 처리할 수 있다.The virtual surgery tool generation unit may process the virtual surgery tool so that the virtual surgery tool is not displayed on the screen display unit when the interval value calculated by the interval operation unit is equal to or less than a preset interval threshold value.
가상 수술도구 생성부는 간격 연산부에 의해 연산된 간격값에 비례하여 가상 수술도구에 대한 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상에 대한 처리를 수행할 수 있다.The virtual surgery tool creation unit may perform processing for at least one of adjusting translucency, color change, and outline thickness change for the virtual surgical tool in proportion to the interval value calculated by the interval calculation unit.
증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 특징 정보를 추출하는 영상 해석부를 더 포함할 수 있다. 여기서, 특징 정보는 내시경 영상의 픽셀별 색상값, 실제 수술도구의 위치좌표 및 조작 형상 중 하나 이상일 수 있다.The augmented reality implementing unit may further include an image analyzing unit for extracting the feature information through image processing on the endoscopic image displayed through the screen display unit. Here, the feature information may be at least one of a color value per pixel of the endoscopic image, a position coordinate of the actual surgical tool, and an operation shape.
영상 해석부는 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는 경우 경고 요청을 출력할 수 있다. 경고 요청에 따라 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.The image analyzing unit may output a warning request when the area or the number of pixels having a color value included in the color value range set in advance in the endoscopic image exceeds a threshold value. According to the warning request, at least one of a warning message display through a screen display unit, a warning sound output through a speaker unit, and a display stop for a virtual surgical tool can be performed.
마스터 인터페이스는, 특성값 연산부에 의해 연산된 특성값에 포함된 실제 수술도구의 위치 좌표정보 및 가상 수술도구 생성부에 의해 생성된 가상 수술도구 정보에 포함된 가상 수술도구의 위치 좌표정보를 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함할 수 있다.The master interface uses the position coordinate information of the actual surgical tool contained in the characteristic value calculated by the characteristic value calculation unit and the position coordinate information of the virtual surgery tool included in the virtual surgical tool information generated by the virtual surgery tool generation unit And a network verifying unit for verifying a network communication state between the master robot and the slave robot.
마스터 인터페이스는, 영상 해석부에 의해 추출된 특징 정보에 포함된 실제 수술도구 및 가상 수술도구의 각 위치 좌표정보를 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 상태를 검증하는 네트워크 검증부를 더 포함할 수 있다.The master interface may further include a network verifying unit for verifying a network communication state between the master robot and the slave robot using each position coordinate information of the actual surgical tool and the virtual surgical tool included in the feature information extracted by the video analyzing unit have.
네트워크 검증부는 네트워크 통신 상태의 검증을 위해 각 수술도구의 이동궤적 및 조작형태 중 하나 이상을 더 이용할 수 있다.The network verification unit may further use at least one of the movement trajectory and the operation mode of each surgical tool to verify the network communication state.
네트워크 검증부는 가상 수술도구의 위치 좌표정보가 앞서 저장된 실제 수술도구의 위치 좌표정보와 오차범위 내에서 일치하는지 여부의 판단으로서 네트워크 통신 상태를 검증할 수 있다.The network verification unit can verify the network communication status by determining whether the position coordinate information of the virtual surgery tool matches the position coordinate information of the actual surgical tool stored in advance within the error range.
네트워크 검증부는 실제 수술도구의 위치 좌표정보와 가상 수술도구의 위치 좌표정보가 오차범위 내에서 일치하지 않는 경우 경고 요청을 출력할 수 있다. 경고 요청에 따라 화면 표시부를 통한 경고 메시지 디스플레이, 스피커부를 통한 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.The network verification unit can output a warning request when the position coordinate information of the actual surgical tool and the position coordinate information of the virtual surgery tool do not match within the error range. According to the warning request, at least one of a warning message display through a screen display unit, a warning sound output through a speaker unit, and a display stop for a virtual surgical tool can be performed.
증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하고, 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 중첩 처리부를 더 포함할 수 있다.The augmented reality implementing unit includes an image analyzing unit that extracts feature information including area coordinate information displayed on a surgical site or an endoscopic image through image processing of an endoscopic image displayed through a screen display unit, The virtual surgical tool information and the area coordinate information are used to determine whether or not the virtual surgical tool overlaps with the area coordinate information and is located at the back side. When overlapping occurs, the area of the virtual surgery tool where the overlap occurs is concealed And a superimposing unit for processing the superimposed image data.
증강현실 구현부는, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 포함하는 특징 정보를 추출하는 영상 해석부와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하고, 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 접촉 인식부를 더 포함할 수 있다.The augmented reality implementing unit includes an image analyzing unit that extracts feature information including area coordinate information displayed on a surgical site or an endoscopic image through image processing of an endoscopic image displayed through a screen display unit, The contact detection unit may further include a contact recognition unit for determining whether or not the virtual surgery tool has contacted with the area coordinate information using the virtual surgery tool information and the area coordinate information and performing the contact warning processing when the contact is generated.
접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 화면 표시부를 통한 경고 메시지 디스플레이 및 스피커부를 통한 경고 음향 출력 중 하나 이상일 수 있다.The contact alert process may be at least one of a force feedback process, an operation restriction of a dark operation unit, a warning message display through a screen display unit, and a warning sound output through a speaker unit.
마스터 인터페이스는, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부와, 화면 표시부를 통해 디스플레이되는 내시경 영상에 대한 이미지 처리를 통해 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 영상 해석부를 더 포함할 수 있다. 영상 해석부에 의해 인식된 장기의 명칭에 상응하여 참조 영상이 내시경 영상이 표시되는 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The master interface includes a storage unit for storing a reference image that is at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image, And an image analyzing unit for recognizing an organ displayed on a surgical site or an endoscopic image through image processing on the image. The reference image can be displayed on the display screen independent of the display screen on which the endoscopic image is displayed in accordance with the name of the organ recognized by the image analyzing unit.
마스터 인터페이스는, 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 참조 영상을 저장하는 저장부를 더 포함할 수 있다. 특성값 연산부에 의해 연산된 실제 수술도구의 위치 좌표정보에 상응하여 참조 영상이 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The master interface may further include a storage unit for storing a reference image that is at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image. The reference image may be displayed together with the display screen on which the endoscopic image is displayed or on the display screen independent of the display screen in correspondence with the position coordinate information of the actual surgical tool calculated by the characteristic value calculation unit.
참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이될 수 있다.The reference image can be displayed as a three-dimensional image using MPR (Multi Planar Reformat).
본 발명의 다른 실시예에 따르면, 수술 로봇 시스템으로서, 상호간에 통신망을 통해 결합된 둘 이상의 마스터(master) 로봇과, 임의의 마스터 로봇으로부터 수신되는 조작신호에 따라 제어되는 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 포함하는 수술 로봇 시스템이 제공된다.According to another embodiment of the present invention there is provided a surgical robot system comprising two or more master robots coupled to each other via a communication network and one or more robotic arms controlled in accordance with an operation signal received from any of the master robots A surgical robot system including a slave robot is provided.
마스터 로봇 각각은, 수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부와, 하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부와, 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함할 수 있다.Each of the master robots includes a screen display unit for displaying an endoscopic image corresponding to a video signal provided from a surgical endoscope, at least one arm control unit provided for controlling each of the at least one robot arm, and a virtual operation tool And an augmented reality implementing unit for generating virtual surgery tool information according to a user operation using the arm operation unit to display the virtual surgery tool information.
둘 이상의 마스터 로봇 중 어느 하나인 제1 마스터 로봇의 암 조작부 조작은 가상 수술도구 정보의 생성을 위해서 기능하고, 둘 이상의 마스터 로봇 중 다른 하나인 제2 마스터 로봇의 암 조작부 조작은 로봇 암의 제어를 위해 기능할 수 있다.The manipulation of the arm manipulation part of the first master robot, which is one of the two or more master robots, functions to generate virtual surgical tool information, and the manipulation of the arm manipulation part of the second master robot, which is another one of the two or more master robots, Can function.
제1 마스터 로봇의 암 조작부 조작에 따른 가상 수술도구 정보에 상응하는 가상 수술도구가 제2 마스터 로봇의 화면 표시부를 통해 디스플레이될 수 있다.
A virtual surgical tool corresponding to the virtual surgical tool information according to the operation of the dark operation unit of the first master robot can be displayed through the screen display unit of the second master robot.
본 발명의 다른 측면에 따르면, 수술 로봇 시스템의 제어 방법, 수술 로봇 시스템의 동작 방법 및 각각의 방법을 구현하기 위한 프로그램이 기록된 기록매체가 제공된다.According to another aspect of the present invention, there is provided a control method of a surgical robot system, a method of operating a surgical robot system, and a recording medium on which a program for implementing the respective methods is recorded.
본 발명의 일 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 로봇 시스템의 제어 방법으로서, 수술용 내시경으로부터 입력되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 단계와, 암 조작부의 조작에 따른 가상 수술도구 정보를 생성하는 단계와, 가상 수술도구 정보에 상응하는 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계를 포함하는 수술 로봇 시스템의 제어 방법이 제공된다.According to an embodiment of the present invention, there is provided a method of controlling a surgical robot system performed by a master robot that controls a slave robot including at least one robot arm, the method comprising: displaying an endoscopic image corresponding to a video signal input from a surgical endoscope; A step of generating virtual surgery tool information according to the operation of the arm operation unit and a step of displaying the virtual surgery tool corresponding to the virtual surgery tool information together with the endoscope image, .
수술용 내시경은 복강경, 흉강경, 관절경, 비경, 방광경, 직장경, 십이지장경, 종격경, 심장경 중 하나 이상일 수 있다.Surgical endoscopy may be one or more of laparoscopic, thoracoscopic, arthroscopic, non-operative, cystoscopic, rectal, duodenal, mediastinal, and cardiac.
가상 수술도구 정보를 생성하는 단계는, 암 조작부의 조작에 따른 조작 정보를 입력받는 단계와, 조작 정보에 따라 가상 수술도구 정보 및 로봇 암의 제어를 위한 조작신호를 생성하는 단계를 포함할 수 있다. 조작신호는 로봇 암의 제어를 위해 슬레이브 로봇으로 전송될 수 있다.The step of generating the virtual surgical tool information may include the steps of receiving the manipulation information according to the manipulation of the arm manipulation unit and generating manipulation signals for controlling the virtual manipulation tool information and the robot arm according to the manipulation information . The operation signal can be transmitted to the slave robot for control of the robot arm.
수술 로봇 시스템의 제어 방법은, 마스터 로봇의 구동모드를 지정하기 위한 구동모드 선택 명령을 입력받는 단계와, 구동모드 선택 명령에 따라 화면 표시부를 통해 내시경 영상 및 가상 수술도구 중 하나 이상이 디스플레이되도록 제어하는 단계를 더 포함할 수 있다. 또한, 구동모드 선택 명령의 의해 지정된 구동모드에 상응하는 모드 표시자가 화면 표시부를 통해 디스플레이되도록 제어하는 단계가 더 포함될 수도 있다.A control method of a surgical robot system includes the steps of receiving a drive mode selection command for designating a drive mode of a master robot and controlling the display mode to display at least one of an endoscopic image and a virtual surgical tool through a screen display unit according to a drive mode selection command The method comprising the steps of: The method may further include controlling a mode indicator corresponding to the drive mode designated by the drive mode selection command to be displayed on the screen display unit.
모드 표시자는 텍스트 메시지, 테두리 색상, 아이콘, 배경 색상 등 중 하나 이상으로 미리 지정될 수 있다.The mode indicator may be predefined by one or more of a text message, a border color, an icon, a background color, and the like.
수술 로봇 시스템의 제어 방법은, 슬레이브 로봇으로부터 측정된 생체 정보를 수신하는 단계와, 생체 정보를 내시경 영상이 디스플레이되는 표시 영역과 독립된 표시 영역에 디스플레이하는 단계를 더 포함할 수 있다.The control method of the surgical robot system may further include receiving biometric information measured by the slave robot and displaying the biometric information in a display area independent of the display area where the endoscopic image is displayed.
수술 로봇 시스템의 제어 방법은, 내시경 영상 및 로봇 암에 결합된 실제 수술도구의 위치 좌표정보 중 하나 이상을 이용하여 특성값을 연산하는 단계를 더 포함할 수 있다. 특성값은 수술용 내시경의 화각(FOV), 확대율, 관점(viewpoint), 보는 깊이, 실제 수술도구의 종류, 방향, 깊이, 꺽인 각도 중 하나 이상을 포함할 수 있다.The control method of the surgical robot system may further include calculating the characteristic value using at least one of the endoscopic image and the position coordinate information of the actual surgical tool coupled to the robot arm. The characteristic value may include at least one of an angle of view (FOV) of a surgical endoscope, a magnification, a viewpoint, a viewing depth, a kind of an actual surgical tool, a direction, a depth and a bending angle.
수술 로봇 시스템의 제어 방법은 테스트 신호를 슬레이브 로봇으로 전송하는 단계와, 슬레이브 로봇으로부터 테스트 신호에 따른 응답 신호를 수신하는 단계와, 테스트 신호의 전송 시각 및 응답 신호의 수신 시각을 이용하여 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도 및 네트워크 통신상의 지연시간 중 하나 이상에 대한 지연값을 산출하는 단계를 더 포함할 수 있다.A method of controlling a surgical robot system includes transmitting a test signal to a slave robot, receiving a response signal according to a test signal from the slave robot, and transmitting the test signal to the master robot Calculating a delay value for at least one of a network communication speed between the slave robots and a network communication delay time.
가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 지연값이 미리 설정된 지연 임계값 이하인지 여부를 판단하는 단계와, 지연 임계값을 초과하는 경우 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계와, 지연 임계값 이하인 경우 내시경 영상만이 표시되도록 처리하는 단계를 포함할 수 있다.The step of causing the virtual surgical instrument to be displayed with the endoscopic image may include determining whether the delay value is less than or equal to a preset delay threshold value, And processing so that only the endoscopic image is displayed if it is equal to or less than the delay threshold value.
수술 로봇 시스템의 제어 방법은 실제 수술도구가 포함되어 디스플레이되는 내시경 영상 및 디스플레이되는 가상 수술도구의 위치 좌표를 연산하는 단계와, 각 수술도구의 위치 좌표를 이용하여 각 수술도구간의 간격값을 연산하는 단계를 더 포함할 수 있다.The control method of the surgical robot system includes calculating a position coordinate of an endoscopic image and a virtual surgical tool to be displayed including an actual surgical tool and calculating an interval value of each operation section using the position coordinates of each surgical tool Step < / RTI >
가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 간격값이 미리 설정된 간격 임계값 이하인지 여부를 판단하는 단계와, 이하인 경우에만 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함할 수 있다.The step of causing the virtual surgical tool to be displayed with the endoscopic image includes determining whether the interval value is less than or equal to a preset interval threshold value and processing the virtual surgical tool to be displayed with the endoscopic image only when .
또한, 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 간격값이 미리 설정된 간격 임계값을 초과하는지 여부를 판단하는 단계와, 초과하는 경우, 반투명도 조절, 색상 변경 및 외곽선 두께 변경 중 하나 이상이 처리된 가상 수술도구가 내시경 영상과 함께 디스플레이되도록 처리하는 단계를 포함할 수 있다.In addition, the step of causing the virtual surgical tool to be displayed with the endoscopic image further comprises the steps of: determining whether the interval value exceeds a preset interval threshold; and if so, selecting one of semitransparency adjustment, color change and outline thickness change And processing the processed virtual surgery tool to be displayed together with the endoscopic image.
수술 로봇 시스템의 제어 방법은 각 수술도구의 위치 좌표가 미리 설정된 오차 범위 내에서 일치하는지 여부를 판단하는 단계와, 판단의 결과에 의해 마스터 로봇과 슬레이브 로봇간의 통신 상태를 검증하는 단계를 더 포함할 수 있다.The control method of the surgical robot system further includes a step of determining whether or not the position coordinates of each surgical tool coincide with each other within a predetermined error range and verifying the communication state between the master robot and the slave robot based on the determination result .
판단하는 단계에서, 가상 수술도구에 대한 현재의 위치 좌표와 실제 수술도구에 대한 이전의 위치 좌표가 오차 범위 내에서 일치하는지 여부가 판단될 수 있다.In the judging step, it can be judged whether or not the current position coordinates of the virtual surgical tool and the previous position coordinates of the actual surgical tool coincide within the error range.
또한, 판단하는 단계에서, 각 수술도구의 이동궤적 및 조작형태 중 하나 이상이 오차 범위 내에서 일치하는지 여부가 더 판단될 수도 있다.Further, in the judging step, it may be further judged whether or not at least one of the movement trajectory and the operation form of each surgical tool coincide within the error range.
수술 로봇 시스템의 제어 방법은 디스플레이되는 내시경 영상에서 픽셀별 색상값을 포함하는 특징 정보를 추출하는 단계와, 내시경 영상 내에 미리 설정된 색상값 범위에 포함되는 색상값을 가지는 픽셀의 면적 또는 수량이 임계값을 초과하는지 여부를 판단하는 단계와, 초과하는 경우 경고 정보를 출력하는 단계를 포함할 수 있다.A method of controlling a surgical robot system includes the steps of extracting feature information including a color value for each pixel in an endoscopic image to be displayed, determining an area or a quantity of pixels having a color value included in a preset color value range in the endoscopic image, , And outputting warning information if it is exceeded.
경고 요청에 따라 경고 메시지 디스플레이, 경고 음향 출력 및 가상 수술도구에 대한 디스플레이 중지 중 하나 이상이 수행될 수 있다.Depending on the alert request, one or more of a warning message display, a warning sound output and a display stop for the virtual surgical instrument may be performed.
가상 수술도구가 내시경 영상과 함께 디스플레이되도록 하는 단계는, 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 중첩이 발생되어 뒤쪽에 위치하는 여부를 판단하는 단계와, 중첩이 발생되는 경우 가상 수술도구의 형상 중 중첩이 발생된 영역을 은폐 처리하는 단계를 포함할 수 있다.The step of displaying the virtual surgical tool together with the endoscopic image may include extracting area coordinate information of an organ displayed on a surgical site or an endoscopic image through image processing on the endoscopic image, A step of determining whether the virtual surgery tool is overlapped with the area coordinate information and located behind the virtual surgery tool using the information and the area coordinate information, .
수술 로봇 시스템의 제어 방법은 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)의 영역 좌표정보를 추출하는 단계와, 가상 수술도구 정보 및 영역 좌표정보를 이용하여 가상 수술도구가 영역 좌표정보와 접촉이 발생되었는지 여부를 판단하는 단계와, 접촉이 발생되는 경우 접촉 경고 처리를 수행하는 단계를 더 포함할 수 있다.The control method of the surgical robot system includes the steps of extracting area coordinate information of an organ displayed through a surgical site or an endoscopic image through image processing on an endoscopic image, using virtual surgery tool information and area coordinate information Determining whether or not the virtual surgery tool has contacted with the area coordinate information, and performing the contact warning processing when the contact is generated.
접촉 경고 처리는 포스 피드백(force feedback) 처리, 암 조작부의 조작 제한, 경고 메시지 디스플레이 및 경고 음향 출력 중 하나 이상일 수 있다.The contact alert processing may be one or more of force feedback processing, operation restriction of the dark control section, warning message display, and warning sound output.
수술 로봇 시스템의 제어 방법은 내시경 영상에 대한 이미지 처리를 통해, 수술부위 또는 내시경 영상을 통해 디스플레이되는 장기(臟器)를 인식하는 단계와, 미리 저장된 참조 영상에서 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계를 포함할 수 있다. 여기서, 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상일 수 있다.A control method of a surgical robot system includes the steps of recognizing an organ displayed through a surgical site or an endoscopic image through image processing on an endoscopic image, And extracting and displaying a reference image of the reference image. Here, the reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.
수술 로봇 시스템의 제어 방법은 미리 저장된 참조 영상에서 실제 수술도구의 위치 좌표에 상응하는 참조 영상을 추출하는 단계와, 추출된 참조 영상을 추출하여 디스플레이하는 단계를 포함할 수 있다. 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상일 수 있다.The control method of the surgical robot system may include extracting a reference image corresponding to the coordinates of the actual surgical tool from a reference image stored in advance, and extracting and displaying the extracted reference image. The reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.
참조 영상은 내시경 영상이 표시되는 표시 화면에 함께 표시되거나 상기 표시 화면과 독립된 표시 화면을 통해 디스플레이될 수 있다.The reference image may be displayed together with the display screen on which the endoscopic image is displayed or on the display screen independent of the display screen.
참조 영상은 MPR(Multi Planner Reformat)을 이용한 3차원 영상으로 디스플레이될 수도 있다.The reference image may be displayed as a three-dimensional image using MPR (Multi Planar Reformat).
본 발명의 다른 실시예에 따르면, 하나 이상의 로봇 암을 포함하는 슬레이브 로봇 및 슬레이브 로봇을 제어하는 마스터 로봇을 포함하는 수술 로봇 시스템의 동작 방법으로서, 제1 마스터 로봇이 암 조작부 조작에 상응하여 가상 수술도구를 디스플레이하기 위한 가상 수술도구 정보 및 로봇 암을 제어하기 위한 조작신호를 생성하는 단계와, 제1 마스터 로봇이 조작신호를 슬레이브 로봇으로 전송하고, 조작신호 또는 가상 수술도구 정보 중 하나 이상을 제2 마스터 로봇으로 전송하는 단계를 포함하되, 제2 마스터 로봇은 조작신호 또는 가상 수술도구 정보 중 하나 이상에 상응하는 가상 수술도구를 화면 표시부를 통해 디스플레이하는 것을 특징으로 하는 수술 로봇 시스템의 동작 방법이 제공된다.According to another embodiment of the present invention, there is provided a method of operating a surgical robot system including a master robot for controlling a slave robot and a slave robot including at least one robot arm, A step of generating a manipulation signal for controlling the robot arm and virtual surgery tool information for displaying the tool, a step of transmitting the manipulation signal to the slave robot, 2 master robot, wherein the second master robot displays a virtual surgical tool corresponding to at least one of an operation signal or virtual surgical tool information through a screen display unit, / RTI >
제1 마스터 로봇 및 제2 마스터 로봇 각각은 슬레이브 로봇으로부터 수신되는 내시경 영상을 화면 표시부를 통해 디스플레이하고, 가상 수술도구는 내시경 영상과 함께 디스플레이되는 것을 특징으로 할 수 있다.Each of the first master robot and the second master robot displays an endoscopic image received from the slave robot through a screen display unit and the virtual surgical tool is displayed together with the endoscopic image.
수술 로봇 시스템의 동작 방법은 제1 마스터 로봇은 제2 마스터 로봇으로부터 수술권한 회수 명령이 수신되었는지 여부를 판단하는 단계와, 수술권한 회수 명령이 수신된 경우, 제1 마스터 로봇은 암 조작부 조작이 가상 수술도구 정보의 생성을 위해서만 기능되도록 제어하는 단계를 더 포함할 수 있다.The operation method of the surgical robot system according to the present invention is characterized in that the first master robot judges whether or not a surgical operation right recovery command has been received from the second master robot, and when the operation right recovery instruction has been received, And controlling to function only for generation of the surgical tool information.
본 발명의 또 다른 실시예에 따르면, 로봇 암을 포함하는 슬레이브 로봇을 제어하는 마스터 로봇에서 수행되는 수술 시뮬레이션 방법으로서, 장기(臟器) 선택 정보를 인식하는 단계와, 미리 저장된 장기 모델링 정보를 이용하여 장기 선택 정보에 상응하는 3차원 장기 이미지를 디스플레이하는 단계를 포함하되, 장기 모델링 정보는 상응하는 장기의 내부 및 외부 각 지점의 형상, 색상 및 촉감 중 하나 이상을 포함하는 특성 정보를 가지는 것을 특징으로 하는 수술 시뮬레이션 방법이 제공된다.According to another embodiment of the present invention, there is provided a surgical simulation method performed by a master robot for controlling a slave robot including a robot arm, the method comprising: recognizing long-term organ selection information; And displaying the three-dimensional long-term image corresponding to the long-term selection information, wherein the long-term modeling information is characterized by having characteristic information including at least one of shape, color, and touch of each internal and external point of the corresponding organ A surgical simulation method is provided.
장기 선택 정보를 인식하기 위하여, 수술용 내시경으로부터 입력되는 영상 신호를 이용하여 수술 부위 내에 포함된 장기의 색상 및 외형 중 하나 이상에 대한 정보를 해석하는 단계와, 미리 저장된 장기 모델링 정보 중 해석된 정보에 매치되는 장기를 인식하는 단계가 수행될 수 있다.Analyzing information on at least one of color and appearance of organs contained in a surgical site using a video signal input from a surgical endoscope to recognize long term selection information; A step of recognizing the organ matched to the user can be performed.
장기 선택 정보는 하나 이상의 장기로서 수술자에 의해 선택 입력될 수도 있다.The long-term selection information may be selected by the operator as one or more organs.
또한, 암 조작부 조작에 따른 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계와, 장기 모델링 정보를 이용하여 수술조작 명령에 따른 촉감 정보를 출력하는 단계가 더 포함될 수도 있다.The method may further include receiving a surgical operation command for a three-dimensional long-term image according to the operation of the dark operation unit, and outputting tactile information according to a surgical operation command using the long-term modeling information.
촉감 정보는 암 조작부 조작에 따른 조작 민감도 및 조작 저항감 중 하나 이상을 제어하기 위한 제어 정보이거나 포스 피드백 처리를 위한 제어 정보일 수 있다.The tactile information may be control information for controlling at least one of the operation sensitivity and the operation resistance according to the operation of the dark operation unit, or the control information for the force feedback process.
암 조작부 조작에 따른 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계와, 장기 모델링 정보를 이용하여 수술조작 명령에 따른 절단면 이미지를 디스플레이하는 단계가 더 포함될 수도 있다.Receiving a surgical operation command for a three-dimensional long-term image according to the operation of the arm operation unit, and displaying a sectional image according to a surgical operation command using the long-term modeling information.
상술한 수술조작 명령은 절단, 꿰맴, 당김, 누름, 장기 변형, 전기수술에 의한 장기 손상, 혈관에서의 출혈 등 중 하나 이상일 수 있다.The above-described surgical operation command may be at least one of cutting, stitching, pulling, pushing, long-term deformation, organs damage by electrosurgery, bleeding in a blood vessel, and the like.
또한, 장기 선택 정보에 따른 장기를 인식하는 단계와, 미리 저장된 참조 영상에서 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계가 더 포함될 수도 있다. 여기서, 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 등 중 하나 이상일 수 있다.The method may further include recognizing an organ according to the organ selection information and extracting and displaying a reference image at a position corresponding to a name of the organ recognized in the reference image stored in advance. Here, the reference image may be at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예에 따르면, 증강현실(augmented reality)을 이용하여 실제 수술도구와 가상 수술도구를 함께 표시함으로써 수술자의 원활한 수술을 가능하도록 하는 효과가 있다.According to the embodiment of the present invention, an actual surgical tool and a virtual surgical tool are displayed together using an augmented reality, thereby enabling smooth operation of the operator.
또한, 수술시 환자에 대한 다양한 정보가 출력되어 수술자에 제공되는 효과도 있다.In addition, various information about the patient is outputted at the time of operation, and the operation is provided to the operator.
또한, 마스터 로봇과 슬레이브 로봇간의 네트워크 통신 속도에 따라 수술자의 원활한 수술 진행이 가능하도록 수술 화면 표시 방법이 다양화되는 효과도 있다.In addition, there is an effect that the operation screen display method is diversified so that the operator can smoothly perform the operation according to the network communication speed between the master robot and the slave robot.
또한, 내시경 등을 통해 입력되는 화상을 자동화 처리하여 응급 상황을 즉시 수술자에게 통지할 수 있는 효과도 있다.In addition, there is also an effect that an image inputted through an endoscope or the like is automatically processed and an emergency situation is immediately notified to the operator.
또한, 마스터 로봇의 조작에 의한 가상 수술도구의 이동 등에 따른 장기 접촉 등이 수술자에게 실시간 감지될 수 있고, 가상 수술도구와 장기간의 위치 관계가 직관적으로 인지될 수 있도록 하는 효과도 있다.In addition, long-term contact or the like due to the movement of the virtual surgical tool by the operation of the master robot can be detected in real time by the operator, and the long-term positional relationship with the virtual surgical tool can be intuitively recognized.
또한, 수술 부위에 대한 환자의 관련 이미지 데이터(예를 들어, CT 이미지, MRI 이미지 등)가 실시간 제시될 수 있어 다양한 정보를 활용한 수술 진행이 가능하도록 하는 효과도 있다.In addition, related image data (e.g., a CT image, an MRI image, etc.) of the patient with respect to the surgical site can be presented in real time, so that the operation can be performed using various information.
또한, 수술 로봇 시스템이 학습자(learner)와 교육자(trainer)간에 호환 및 공유될 수 있도록 하여 실시간 교육 효과를 극대화할 수 있는 효과도 있다.In addition, the surgical robot system can be compatible and shared between the learner and the trainer, thereby maximizing the real-time educational effect.
또한, 본 발명은 3차원 모델링된 가상 장기를 활용하여 실제 수술 과정의 경과 및 결과를 미리 예측할 수 있도록 하는 효과도 있다.The present invention also has the effect of predicting the progress and results of an actual surgical procedure using a three-dimensional modeled virtual organ.
도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도.
도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도.
도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도.
도 4a는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 구동모드를 예시한 도면.
도 4b는 본 발명의 일 실시예에 따른 실행중인 구동모드를 나타내는 모드 표시자를 예시한 도면.
도 5는 본 발명의 일 실시예에 따른 제1 모드와 제2 모드의 구동모드 선택 과정을 나타낸 순서도.
도 6은 본 발명의 일 실시예에 따른 제2 모드에서 모니터부를 통해 출력되는 화면 표시의 예시도.
도 7은 본 발명의 일 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른 제2 모드에서의 마스터 로봇의 구동방법을 나타낸 순서도.
도 9는 본 발명의 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면.
도 10 및 도 11은 각각 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇의 구동방법을 나타낸 순서도.
도 12는 본 발명의 또 다른 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도.
도 13은 본 발명의 또 다른 실시예에 따른 수술 로봇 시스템의 정상 구동을 검증하는 방법을 나타낸 순서도.
도 14는 본 발명의 또 다른 실시예에 따른 증강현실 구현부의 세부 구성을 나타낸 도면.
도 15 및 도 16은 각각 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇의 구동방법을 나타낸 순서도.
도 17은 본 발명의 또 다른 실시예에 따른 참조 이미지 제공 방법을 나타낸 순서도.
도 18은 본 발명의 또 다른 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도.
도 19는 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면.
도 20은 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면. 1 is a plan view showing the entire structure of a surgical robot according to an embodiment of the present invention;
2 is a conceptual diagram illustrating a master interface of a surgical robot according to an embodiment of the present invention.
3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention.
FIG. 4A illustrates a driving mode of a surgical robot system according to an embodiment of the present invention; FIG.
FIG. 4B illustrates a mode indicator representing a running mode of operation in accordance with an embodiment of the present invention. FIG.
5 is a flowchart illustrating a driving mode selection process of a first mode and a second mode according to an embodiment of the present invention.
6 is an exemplary view of a screen display output through a monitor unit in a second mode according to an embodiment of the present invention;
7 is a detailed configuration of an augmented
8 is a flowchart illustrating a method of driving a master robot in a second mode according to an embodiment of the present invention.
9 is a detailed configuration of an augmented
10 and 11 are flowcharts showing a method of driving a master robot in a second mode according to another embodiment of the present invention, respectively.
12 is a block diagram schematically showing the configuration of a master robot and a slave robot according to another embodiment of the present invention.
13 is a flowchart illustrating a method for verifying normal operation of a surgical robot system according to another embodiment of the present invention.
14 is a detailed configuration of an augmented reality implementing unit according to another embodiment of the present invention.
15 and 16 are flowcharts showing a driving method of a master robot for outputting a virtual surgical tool according to another embodiment of the present invention, respectively.
17 is a flowchart showing a reference image providing method according to another embodiment of the present invention.
18 is a plan view showing the entire structure of a surgical robot according to another embodiment of the present invention.
19 is a diagram illustrating a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.
20 illustrates a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, .
또한, 본 발명의 다양한 실시예들을 설명함에 있어, 각 실시예가 독립적으로 해석되거나 실시되어야 하는 것은 아니며, 각 실시예에서 설명되는 기술적 사상들이 개별적으로 설명되는 다른 실시예에 조합되어 해석되거나 실시될 수 있는 것으로 이해되어야 한다.Furthermore, in describing various embodiments of the present invention, it is not necessary for each embodiment to be interpreted or practiced independently, and the technical ideas described in each embodiment may be interpreted or practiced in combination with other embodiments, It should be understood that there is.
또한, 본 발명은 수술용 내시경(예를 들어, 복강경, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있는 기술적 사상이지만, 본 발명의 실시예를 설명함에 있어 설명의 편의를 위해 복강경이 이용되는 경우를 예로 들어 설명하기로 한다.
In addition, while the present invention is a technical idea that can be used universally for surgeries using surgical endoscopes (e.g., laparoscopic, thoracoscopic, arthroscopic, non-rigid, etc.) For convenience, a laparoscope is used as an example.
도 1은 본 발명의 일 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이고, 도 2는 본 발명의 일 실시예에 따른 수술용 로봇의 마스터 인터페이스를 나타낸 개념도이다. FIG. 1 is a plan view showing the entire structure of a surgical robot according to an embodiment of the present invention, and FIG. 2 is a conceptual view illustrating a master interface of a surgical robot according to an embodiment of the present invention.
도 1 및 도 2를 참조하면, 복강경 수술용 로봇 시스템은 수술대에 누워있는 환자에게 수술을 행하는 슬레이브 로봇(2)과 슬레이브 로봇(2)을 수술자가 원격 조종하는 마스터 로봇(1)을 포함하여 구성된다. 마스터 로봇(1)과 슬레이브 로봇(2)이 반드시 물리적으로 독립된 별도의 장치로 분리되어야 하는 것은 아니며, 하나로 통합되어 일체형으로 구성될 수 있으며, 이 경우 마스터 인터페이스(4)는 예를 들어 일체형 로봇의 인터페이스 부분에 상응할 수 있다.1 and 2, the robot system for laparoscopic surgery includes a
마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 마스터 인터페이스(4)는 모드전환 제어버튼을 더 포함할 수 있다. 모드전환 제어버튼은 클러치 버튼(14) 또는 페달(도시되지 않음) 등의 형태로 구현될 수 있으며, 모드전환 제어버튼의 구현 형태는 이에 제한되지 않으며 예를 들어 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등으로 구현될 수도 있다.The
마스터 인터페이스(4)는 수술자가 양손에 각각 파지되어 조작할 수 있도록 마스터 조종기를 구비한다. 마스터 조종기는 도 1 및 2에 예시된 바와 같이 두 개의 핸들(10)로 구현될 수 있으며, 수술자의 핸들(10) 조작에 따른 조작신호가 슬레이브 로봇(2)으로 전송되어 로봇 암(3)이 제어된다. 수술자의 핸들(10) 조작에 의해 로봇 암(3)의 위치 이동, 회전, 절단 작업 등이 수행될 수 있다.The
예를 들어, 핸들(10)은 메인 핸들(main handle)과 서브 핸들(sub handle)로 구성될 수 있다. 하나의 핸들만으로 슬레이브 로봇 암(3)이나 복강경(5) 등을 조작할 수도 있고, 서브 핸들을 추가하여 동시에 복수의 수술 장비를 실시간으로 조작할 수도 있다. 메인 핸들 및 서브 핸들은 그 조작방식에 따라 다양한 기구적 구성을 가질 수 있으며, 예를 들면, 조이스틱 형태, 키패드, 트랙볼, 터치스크린 등 슬레이브 로봇(2)의 로봇 암(3) 및/또는 기타 수술 장비를 작동시키기 위한 다양한 입력수단이 사용될 수 있다.For example, the
마스터 조종기는 핸들(10)의 형상으로 제한되지 않으며, 네트워크를 통해 로봇 암(3)의 동작을 제어할 수 있는 형태이면 아무런 제한없이 적용될 수 있다.The master manipulator is not limited to the shape of the
마스터 인터페이스(4)의 모니터부(6)에는 복강경(5)에 의해 입력되는 영상이 화상 이미지로 표시된다. 또한, 모니터부(6)에는 수술자의 핸들(10) 조작에 의해 제어되는 가상 수술도구가 함께 표시되거나 독립된 화면에 표시될 수도 있을 것이다. 또한, 모니터부(6)에 표시되는 정보는 선택된 구동모드에 의해 다양할 수 있을 것이다. 가상 수술도구의 표시 여부, 제어 방법, 구동모드별 표시 정보 등에 관해서는 이후 관련 도면을 참조하여 상세히 설명한다.In the
모니터부(6)는 하나 이상의 모니터들로 구성될 수 있으며, 각 모니터에 수술시 필요한 정보들이 개별적으로 표시되도록 할 수 있다. 도 1 및 2에는 모니터부(6)가 세 개의 모니터를 포함하는 경우가 예시되었으나, 모니터의 수량은 표시를 요하는 정보의 유형이나 종류 등에 따라 다양하게 결정될 수 있다.The
모니터부(6)는 환자에 대한 복수의 생체 정보를 더 출력할 수도 있다. 이 경우, 모니터부(6)의 하나 이상의 모니터를 통해 환자의 상태를 나타내는 지표, 예를 들면, 체온, 맥박, 호흡 및 혈압 등과 같은 생체 정보가 하나 이상 출력될 수 있으며, 각 정보는 영역별로 나뉘어져 출력될 수도 있다. 이러한 생체 정보를 마스터 로봇(1)으로 제공하기 위해, 슬레이브 로봇(2)은 체온 측정 모듈, 맥박 측정 모듈, 호흡 측정 모듈, 혈압 측정 모듈, 심전도 측정 모듈 등 중 하나 이상을 포함하는 생체 정보 측정 유닛을 포함할 수 있다. 각 모듈에 의해 측정된 생체 정보는 아날로그 신호 또는 디지털 신호의 형태로 슬레이브 로봇(2)에서 마스터 로봇(1)으로 전송될 수도 있으며, 마스터 로봇(1)은 수신된 생체 정보를 모니터부(6)를 통해 디스플레이할 수 있다.The
슬레이브 로봇(2)과 마스터 로봇(1)은 유선 통신망 또는 무선 통신망을 통해 상호 결합되어 조작신호, 복강경(5)을 통해 입력된 복강경 영상 등이 상대방으로 전송될 수 있다. 만일, 마스터 인터페이스(4)에 구비된 두 개의 핸들(10)에 의한 두 개의 조작신호 및/또는 복강경(5)의 위치 조정을 위한 조작신호가 동시에 및/또는 유사한 시점에서 전송될 필요가 있는 경우, 각 조작신호는 상호 독립적으로 슬레이브 로봇(2)으로 전송될 수 있다. 여기서 각 조작신호가 '독립적으로' 전송된다는 것은, 조작신호 간에 서로 간섭을 주지 않으며, 어느 하나의 조작신호가 다른 하나의 신호에 영향을 미치지 않음을 의미한다. 이처럼, 복수의 조작신호가 서로 독립적으로 전송되도록 하기 위해서는, 각 조작신호의 생성 단계에서 각 조작신호에 대한 헤더 정보를 부가하여 전송시키거나, 각 조작신호가 그 생성 순서에 따라 전송되도록 하거나, 또는 각 조작신호의 전송 순서에 관하여 미리 우선순위를 정해 놓고 그에 따라 전송되도록 하는 등 다양한 방식이 이용될 수 있다. 이 경우, 각 조작신호가 전송되는 전송 경로가 독립적으로 구비되도록 함으로써 각 조작신호간에 간섭이 근본적으로 방지되도록 할 수도 있을 것이다.The
슬레이브 로봇(2)의 로봇 암(3)은 다자유도를 가지며 구동되도록 구현될 수 있다. 로봇 암(3)은 예를 들어 환자의 수술 부위에 삽입되는 수술기구, 수술기구를 수술 위치에 따라 요(yaw)방향으로 회전시키는 요동 구동부, 요동 구동부의 회전 구동과 직교하는 피치(pitch) 방향으로 수술기구를 회전시키는 피치 구동부, 수술기구를 길이 방향으로 이동시키는 이송 구동부와, 수술기구를 회전시키는 회전 구동부, 수술기구의 끝단에 설치되어 수술 병변을 절개 또는 절단하는 수술기구 구동부를 포함하여 구성될 수 있다. 다만, 로봇 암(3)의 구성이 이에 제한되지 않으며, 이러한 예시가 본 발명의 권리범위를 제한하지 않는 것으로 이해되어야 한다. 또한, 수술자가 핸들(10)을 조작함에 의해 로봇 암(3)이 상응하는 방향으로 회전, 이동하는 등의 실제적인 제어 과정은 본 발명의 요지와 다소 거리감이 있으므로 이에 대한 구체적인 설명은 생략한다.The
슬레이브 로봇(2)은 환자를 수술하기 위하여 하나 이상으로 이용될 수 있으며, 수술 부위가 모니터부(6)를 통해 화상 이미지로 표시되도록 하기 위한 복강경(5)은 독립된 슬레이브 로봇(2)으로 구현될 수도 있다. 또한, 앞서 설명된 바와 같이, 본 발명의 실시예들은 복강경 이외의 다양한 수술용 내시경(예를 들어, 흉강경, 관절경, 비경 등)이 이용되는 수술들에 범용적으로 사용될 수 있다.
The
도 3은 본 발명의 일 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이고, 도 4a는 본 발명의 일 실시예에 따른 수술 로봇 시스템의 구동모드를 예시한 도면이며, 도 4b는 본 발명의 일 실시예에 따른 실행중인 구동모드를 나타내는 모드 표시자를 예시한 도면이다.FIG. 3 is a block diagram schematically showing the configuration of a master robot and a slave robot according to an embodiment of the present invention. FIG. 4A is a view illustrating a driving mode of a surgical robot system according to an embodiment of the present invention, 4B is a diagram illustrating a mode indicator indicating a running mode of operation according to an embodiment of the present invention.
마스터 로봇(1)과 슬레이브 로봇(2)의 구성이 개략적으로 표시된 도 3을 참조하면, 마스터 로봇(1)은 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 증강현실 구현부(350) 및 제어부(360)를 포함한다. 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 도 3에는 도시되지는 않았으나, 슬레이브 로봇(2)은 환자에 대한 생체 정보를 측정하여 제공하기 위한 생체 정보 측정 유닛 등을 더 포함할 수 있다.3, the
영상 입력부(310)는 슬레이브 로봇(2)의 복강경(5)에 구비된 카메라를 통해 입력된 영상을 유선 또는 무선 통신망을 통해 수신한다.The
화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. 또한, 화면 표시부(320)는 암 조작부(330)의 조작에 따른 가상 수술도구가 시각적 정보로서 더 출력할 수 있으며, 슬레이브 로봇(2)으로부터 생체 정보가 입력되는 경우 이에 상응하는 정보를 더 출력할 수 있다. 화면 표시부(320)는 모니터부(6) 등의 형태로 구현될 수 있으며, 수신된 영상이 화면 표시부(320)를 통해 화상 이미지로 출력되도록 하기 위한 영상 처리 프로세스가 제어부(360), 증강현실 구현부(350) 또는 영상 처리부(도시되지 않음)에 의해 수행될 수 있다.The
암 조작부(330)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. 암 조작부(330)는 도 2에 예시된 바와 같이 핸들(10)의 형상으로 형성될 수 있으나, 그 형상이 이에 제한되지 않으며 동일한 목적 달성을 위한 다양한 형상으로 변형 구현될 수 있다. 또한, 예를 들어 일부는 핸들 형상으로, 다른 일부는 클러치 버튼 등의 다른 형상으로 형성될 수도 있으며, 수술도구의 조작을 용이하도록 하기 위해 수술자의 손가락을 삽입 고정할 수 있도록 하는 손가락 삽입관 또는 삽입 고리가 더 형성될 수도 있다.The
상술한 바와 같이, 암 조작부(330)에는 클러치 버튼(14)이 구비될 수 있으며, 클러치 버튼(14)은 모드전환 제어버튼으로 이용될 수도 있다. 이외에도 모드전환 제어버튼은 페달(도시되지 않음) 등의 기구적 형태로 구현되거나 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등으로도 구현될 수도 있다. 또한, 복강경(5)이 영상을 입력받기 위해 특정 위치에 고정적으로 존재하지 않고, 그 위치 및/또는 영상 입력 각도가 수술자의 조정에 의해 이동되거나 변경될 수 있다면 클러치 버튼(14) 등은 복강경(5)의 위치 및/또는 영상 입력 각도의 조정을 위해 기능하도록 설정될 수도 있다.As described above, the
조작신호 생성부(340)는 로봇 암(3) 및/또는 복강경(5)의 위치 이동 또는 수술을 위한 조작을 위해 수술자가 암 조작부(330)를 조작하는 경우 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(2)으로 전송한다. 조작신호는 유선 또는 무선 통신망을 통해 송수신될 수 있음은 앞서 설명한 바와 같다.The
증강현실 구현부(350)는 마스터 로봇(1)이 제2 모드인 비교 모드 등에서 구동되는 경우, 복강경(5)을 통해 입력되는 수술 부위의 화상뿐 아니라 암 조작부(330)의 조작에 실시간 연동하는 가상 수술도구가 화면 표시부(320)를 통해 함께 출력될 수 있도록 처리한다. 증강현실 구현부(350)의 구체적인 기능, 다양한 세부 구성 등은 이후 관련 도면을 참조하여 상세히 설명한다. When the
제어부(360)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 제어부(360)는 영상 입력부(310)를 통해 입력되는 영상이 화면 표시부(320)를 통해 표시될 화상 이미지로 변환하는 기능을 수행할 수도 있다. 또한, 제어부(360)는 암 조작부(330)의 조작에 따른 조작정보가 입력되면 이에 상응하도록 가상 수술도구가 화면 표시부(320)를 통해 출력되도록 증강현실 구현부(350)를 제어한다. 또한, 제어부(360)는 교육모드인 제4 모드 수행시 학습자와 교육자간에 수술권한이 부여 또는 회수되도록 제어할 수도 있다.The
도 4a에 예시된 바와 같이, 마스터 로봇(1) 및/또는 슬레이브 로봇(2)은 다양한 구동모드 중 수술자 등에 의해 선택된 구동모드에서 동작할 수 있다.As illustrated in FIG. 4A, the
예를 들어, 구동모드는 실제 모드인 제1 모드, 비교 모드인 제2 모드, 가상 모드인 제3 모드, 교육 모드인 제4 모드, 시뮬레이션 모드인 제5 모드 등을 포함할 수 있다.For example, the driving mode may include a first mode that is an actual mode, a second mode that is a comparison mode, a third mode that is a virtual mode, a fourth mode that is an education mode, and a fifth mode that is a simulation mode.
마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 실제 모드인 제1 모드에서 동작하는 경우, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상은 수술 부위, 실제 수술 도구 등을 포함할 수 있다. 즉, 가상 수술도구가 표시되지 않도록 할 수 있으며, 이는 종래의 수술 로봇 시스템을 이용한 원격 수술시 표시 화면과 동일하거나 유사할 수 있다. 물론, 제1 모드에서 동작하는 경우에도, 슬레이브 로봇(2)에서 환자의 생체 정보가 측정되어 수신되는 경우 이에 상응하는 정보가 표시될 수 있으며, 그 표시 방법이 다양할 수 있음은 앞서 설명한 바와 같다.When the
마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 비교 모드인 제2 모드에서 동작하는 경우, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상은 수술 부위, 실제 수술 도구, 가상 수술도구 등을 포함할 수 있다. When the
참고로, 실제 수술도구는 복강경(5)에 의해 입력되어 마스터 로봇(1)으로 전송된 영상에 포함된 수술도구로서 환자의 신체에 직접적인 수술 행위를 가하는 수술도구이다. 이에 비해, 가상 수술도구는 수술자가 암 조작부(330)를 조작함에 따라 마스터 로봇(1)이 인식하는 조작정보(즉, 수술도구의 이동, 회전 등에 관한 정보)에 의해 제어되는 것으로서 화면에만 표시되는 가상의 수술도구이다. 실제 수술도구 및 가상 수술도구는 그 위치 및 조작 형상이 조작정보에 의해 결정될 것이다.For reference, an actual surgical tool is a surgical tool included in an image input by the
조작신호 생성부(340)는 수술자의 암 조작부(340) 조작에 따른 조작정보를 이용하여 조작신호를 생성하고, 생성한 조작신호를 슬레이브 로봇(2)으로 전송하여 결과적으로 실제 수술도구가 조작정보에 상응하도록 조작되도록 한다. 아울러, 조작신호에 의해 조작된 실제 수술도구의 위치 및 조작 형상은 복강경(5)에 의해 입력된 영상에 의해 수술자의 확인이 가능하다. 즉, 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도가 충분히 빠른 상황이라면 실제 수술도구와 가상 수술도구가 거의 비슷한 속도로 움직이게 될 것이다. 이에 비해, 네트워크 통신 속도가 다소 느린 상황이라면 가상 수술도구가 먼저 움직인 후 약간의 시간차를 두고 실제 수술도구가 가상 수술도구의 조작 형태와 동일하게 움직이게 될 것이다. 그러나, 네트워크 통신 속도가 느린 상황(예를 들어, 지연 시간이 150ms 초과)이라면 가상 수술도구가 움직인 후 어느 정도의 시간차를 두고 실제 수술도구가 움직이게 될 것이다. The operation
마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 가상 모드인 제3 모드에서 동작하는 경우로서, 암 조작부(330)에 대한 학습자(즉, 실습 학생) 또는 교육자(즉, 실습 교사)의 조작신호를 마스터 로봇(1)이 슬레이브 로봇(2)으로 전송하지 않도록 하여, 마스터 로봇(1)의 모니터부(6)를 통해 표시되는 영상이 수술 부위 및 가상 수술도구 등 중 하나 이상을 포함하도록 할 수 있다. 교육자 등은 제3 모드를 선택하여 실제 수술도구에 대한 사전 시험작동을 할 수 있다. 제3 모드로의 진입은 클러치 버튼(14) 등의 선택에 의해 이루어지도록 할 수 있으며, 해당 버튼이 눌려진 상태(또는 제3 모드가 선택된 상태)에서 핸들(10)의 조작시 실제 수술도구는 움직이지 않고 가상 수술도구만이 움직이도록 할 수 있을 것이다. 이 상태에서 해당 버튼의 누름을 종료(또는 제1 모드 또는 제2 모드를 선택)하면 가상 수술도구가 움직여진 조작정보에 부합하도록 실제 수술도구가 움직이도록 하거나 해당 버튼이 눌려진 시점으로 핸들(10)을 복귀(또는 가상 수술도구의 위치 및 조작 형태가 복귀)되도록 할 수도 있다.(I.e., a training student) or an educator (i.e., a training teacher) with respect to the
마스터 로봇(1) 및/또는 슬레이브 로봇(2)이 교육 모드인 제4 모드에서 동작하는 경우로서, 암 조작부(330)에 대한 학습자(즉, 실습 학생) 또는 교육자(즉, 실습 교사)의 조작신호가 교육자 또는 학습자에 의해 조작되는 마스터 로봇(1)으로 전달되도록 할 수 있다. 이를 위해, 1개의 슬레이브 로봇(2)에 2개 이상의 마스터 로봇(1)이 연결되도록 하거나, 마스터 로봇(1)에 별도의 마스터 로봇(1)이 연결되도록 할 수도 있다. 이 경우, 교육자용 마스터 로봇(1)의 암 조작부(330)가 조작되면 상응하는 조작신호가 슬레이브 로봇(2)으로 전달되도록 할 수 있으며, 교육자용 및 학습자용 마스터 로봇(1) 각각의 모니터부(6)에는 수술 경과의 확인을 위해 복강경(5)을 통해 입력된 영상이 표시되도록 할 수 있다. 이에 비해, 학습자용 마스터 로봇(1)의 암 조작부(330)가 조작되면 상응하는 조작신호가 교육자용 마스터 로봇(1)으로만 제공되고 슬레이브 로봇(2)으로는 전달되지 않도록 할 수 있다. 이와 같이, 교육자의 조작은 제1 모드에서 기능되도록 하되, 학습자의 조작은 제3 모드에서 기능되도록 할 수 있다. 교육 모드인 제4 모드에서의 동작에 대해서는 이후 관련 도면을 참조하여 상세히 설명한다.(That is, a training student) or an educator (that is, a training teacher) with respect to the
시뮬레이션 모드인 제5 모드에서 동작하는 경우, 마스터 로봇(1)은 3차원 모델링된 3차원 형상의 장기의 특성(예를 들어, 형상, 질감, 절제시의 촉감 등)을 이용하는 수술 시뮬레이터로 기능하게 된다. 즉, 제5 모드는 제3 모드인 가상 모드가 진화된 것으로 이해될 수 있으며, 입체 내시경 등을 이용하여 얻은 3차원 형상에 장기의 특성을 결합하여 수술 시뮬레이터로 동작하는 것이다. When operating in the fifth mode, which is a simulation mode, the
만일, 화면 표시부(320)를 통해 간(肝)이 출력되었다면, 입체 내시경을 이용하여 간의 형상이 3차원적으로 파악될 수 있고, 수학적으로 모델링된 간의 특성 정보(이는 저장부(도시되지 않음)에 미리 저장될 수 있음)와 매칭시켜 수술 도중 가상모드에서 수술 시뮬레이션을 해볼 수 있다. 예를 들어, 실제로 간을 절제하기 전에 간의 형상에 간의 특성정보를 매칭시킨 상태에서 어떤 방향에서 어떻게 간을 절제하여야 적절한지 미리 수술 시뮬레이션을 해볼 수도 있다. 아울러 수학적 모델링 정보 및 특성 정보를 바탕으로 어느 부분이 단단한지 어느 부분이 연한지 수술시의 촉감을 미리 느껴볼 수도 있다. 이 경우, 3차원적으로 얻은 장기의 표면 형상정보를 CT(Computer Tomography) 또는/및 MRI(Magnetic Resonance Imaging) 영상 등을 참조하여 재구성한 장기 표면의 3차원 형상과 정합하고, CT, MRI 영상 등으로부터 재구성한 장기 내부의 3차원 형상과 수학적 모델링 정보를 정합하면 보다 사실적인 수술 시뮬레이션이 가능해질 수 있다.If the liver is output through the
이제까지 제1 모드 내지 제5 모드의 구동모드들에 대해 설명하였으나, 이외에도 다양한 목적에 따른 구동모드의 추가가 가능할 수 있다.Although the driving modes of the first to fifth modes have been described so far, it is also possible to add driving modes according to various purposes.
또한, 각 모드에서 마스터 로봇(1)이 구동되도록 하는 경우, 수술자는 현재의 구동모드가 무엇인지 혼동될 수 있다. 보다 명확한 구동모드의 식별이 가능하도록 화면 표시부(320)를 통해 모드 표시자가 더 표시되도록 할 수 있다.Further, when the
도 4b에 수술 부위와 실제 수술도구(460)가 표시되는 화면상에 모드 표시자가 더 표시되는 표시 형태가 예시되어 있다. 모드 표시자는 현재 어떤 구동모드에서 구동 중인지를 명확히 인식할 수 있도록 하기 위한 것으로, 메시지(450), 테두리 색상(480) 등으로 다양할 수 있다. 이외에도, 모드 표시자는 아이콘, 배경 색상 등으로 구현될 수도 있으며, 하나의 모드 표시자만이 표시되거나 둘 이상의 모드 표시자가 함께 표시되도록 할 수도 있다.
FIG. 4B illustrates a display mode in which a mode indicator is further displayed on the screen where the surgical site and the actual
도 5는 본 발명의 일 실시예에 따른 제1 모드와 제2 모드의 구동모드 선택 과정을 나타낸 순서도이고, 도 6은 본 발명의 일 실시예에 따른 제2 모드에서 모니터부를 통해 출력되는 화면 표시의 예시도이다.FIG. 5 is a flowchart illustrating a driving mode selection process of a first mode and a second mode according to an exemplary embodiment of the present invention. FIG. Fig.
도 5에는 제1 모드 또는 제2 모드 중 어느 하나가 선택되도록 하는 경우가 가정되었으나, 도 4a에 예시된 바와 같이 구동모드가 제1 모드 내지 도 5 모드로 적용되는 경우라면 이후 설명되는 단계 520에서의 모드 선택 입력은 제1 모드 내지 도 5 모드 중 어느 하나에 대한 것일 수 있을 것이다.5, it is assumed that either the first mode or the second mode is selected. However, if the driving mode is applied in the first mode to the fifth mode as illustrated in FIG. 4A, The mode selection input of the first mode may be for any one of the first mode to the fifth mode.
도 5를 참조하면, 단계 510에서 수술 로봇 시스템이 구동 개시된다. 수술 로봇 시스템의 구동 개시 후 복강경(5)을 통해 입력되는 영상이 마스터 로봇(1)의 모니터부(6)를 통해 출력될 것이다.Referring to FIG. 5, the surgical robot system is started in
단계 520에서 마스터 로봇(1)은 수술자로부터 구동모드의 선택을 입력받는다. 구동모드의 선택은 예를 들어 기구적으로 구현된 클러치 버튼(14)이나 페달(도시되지 않음) 등의 누름이나 모니터부(6)를 통해 표시되는 기능메뉴 또는 모드선택 메뉴 등을 이용하여 이루어질 수 있을 것이다. In
단계 520에서 만일 제1 모드가 선택되었다면, 마스터 로봇(1)은 실제모드인 구동모드로 동작하며, 복강경(5)으로부터 입력되는 화상을 모니터부(6)에 디스플레이한다. If the first mode is selected in
그러나, 만일 단계 520에서 만일 제2 모드가 선택되었다면, 마스터 로봇(1)은 비교모드인 구동모드로 동작하며, 복강경(5)으로부터 입력되는 화상뿐 아니라 암 조작부(330) 조작에 따른 조작정보에 의해 제어되는 가상 수술도구가 함께 모니터부(6)에 디스플레이한다. However, if the second mode is selected in
도 6에는 제2 모드에서 모니터부(6)를 통해 출력되는 화면 표시 형태가 예시되어 있다.FIG. 6 illustrates a screen display form output through the
도 6에 예시된 바와 같이, 비교 모드에서 화면상에는 복강경(5)에 의해 입력되어 제공되는 영상(즉, 수술 부위와 실제 수술도구(460)가 표시되는 영상)과 암 조작부(330)에 따른 조작 정보에 의해 제어되는 가상 수술도구(610)가 함께 표시된다. 6, in the comparison mode, on the screen, the image input by the
실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치 등의 차이는 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도에 의해 야기되는 것이며, 소정의 시간이 경과된 후 실제 수술도구(460)는 현재 가상 수술도구(610)가 표시된 위치로 이동되어 표시될 것이다. The difference in the display position between the actual
도 6에는 실제 수술도구(460)와의 구분의 편의를 위해 가상 수술도구(610)가 화살표 모양으로 예시되었으나, 가상 수술도구(610)의 표시 형상은 실제 수술도구의 표시 형상과 동일하게 처리하거나 상호간의 식별 편의를 위해 반투명 형태, 외곽선만 존재하는 점선 도형 등과 같이 다양하게 표현할 수도 있다. 가상 수술도구(610)의 표시 여부 및 표시 형태 등에 대해서는 이후 관련 도면을 참조하여 다시 설명하기로 한다.6, the virtual
또한, 복강경(5)에 의해 입력되어 제공되는 영상과 가상 수술도구(610)가 함께 표시되도록 하는 방법은 예를 들어 복강경 영상 상부에 가상 수술도구(610)가 오버랩되어 표시되도록 하는 방법, 복강경 영상 및 가상 수술도구(610)가 하나의 영상으로 재구성되어 표시되도록 하는 방법 등 다양할 수 있을 것이다.
In addition, a method of causing the virtual
도 7은 본 발명의 일 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 8은 본 발명의 일 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.FIG. 7 is a diagram illustrating a detailed configuration of an augmented
도 7을 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 테스트 신호 처리부(730), 지연시간 산출부(740)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소(예를 들어, 테스트 신호 처리부(730), 지연시간 산출부(740) 등)는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.7, the augmented
특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 실제 수술도구의 위치는 슬레이브 로봇(2)의 로봇 암(3)의 위치값을 참조하여 인식할 수 있으며, 해당 위치에 대한 정보는 슬레이브 로봇(2)으로부터 마스터 로봇(1)으로 제공될 수도 있다.The characteristic
특성값 연산부(710)는 예를 들어 복강경(5)에 의한 영상 등을 이용하여 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등의 특성값을 연산할 수 있다. 복강경(5)에 의한 영상을 이용하여 특성값을 연산하는 경우, 해당 영상에 포함된 피사체의 외곽선 추출, 형상 인식, 기울어진 각도 등을 인식하기 위한 영상 인식 기술이 이용될 수도 있다. 또한, 실제 수술도구(460)의 종류 등은 로봇 암(3)에 해당 수술도구를 결합하는 과정 등에서 미리 입력될 수도 있다.The
가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 출력될 가상 수술도구(610)를 생성한다. 가상 수술도구(610)가 최초로 표시되는 위치는 예를 들어 화면 표시부(320)를 통해 실제 수술도구(460)가 표시된 표시 위치를 기준할 수 있으며, 암 조작부(330)의 조작에 따라 조작되는 가상 수술도구(610)의 이동 변위는 예를 들어 조작신호에 상응하여 실제 수술도구(460)가 이동되는 실측값을 참조하여 사전에 설정될 수 있을 것이다. The virtual surgery
가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 하기 위한 가상 수술도구 정보(예를 들어, 가상 수술도구의 표출을 위한 특성값)만을 생성할 수도 있다. 가상 수술도구 생성부(720)는 조작정보에 따른 가상 수술도구(610)의 형상이나 위치를 결정함에 있어 특성값 연산부(710)에 의해 연산된 특성값이나 가상 수술도구(610) 표출을 위해 이용했던 직전의 특성값 등을 참조할 수도 있다. 이는 가상 수술도구(710) 또는 실제 수술도구(460)가 이전의 모양(예를 들어, 기울어진 각도 등)과 동일한 상태에서 평행이동 조작만이 이루어진 경우 신속하게 해당 정보를 생성할 수 있도록 하기 위함이다.The virtual surgery
테스트 신호 처리부(730)는 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신 속도가 어느 정도인지를 판단할 수 있도록 테스트 신호를 슬레이브 로봇(2)으로 전송하고, 슬레이브 로봇(2)으로부터 응답 신호를 수신한다. 테스트 신호 처리부(730)에 의해 전송되는 테스트 신호는 예를 들어 마스터 로봇(1)과 슬레이브 로봇(2)간에 송수신되는 제어 신호에 타임스탬프(time stamp) 형태로 포함되어 사용되는 통상적인 신호이거나 네트워크 통신 속도를 측정하기 위해 추가적으로 이용되는 신호일 수 있다. 또한 테스트 신호가 송수신되는 매 시점들 중 일부의 시점에서만 네트워크 통신 속도의 측정이 이루어지도록 미리 지정될 수도 있다.The test
지연시간 산출부(740)는 테스트 신호의 전송 시각과 응답 신호의 수신 시각을 이용하여 네트워크 통신상의 지연시간을 산출한다. 마스터 로봇(1)에서 슬레이브 로봇(2)으로 임의의 신호를 전송하는 구간과 마스터 로봇(1)이 슬레이브 로봇(2)으로부터 임의의 신호를 수신하는 구간의 네트워크 통신 속도가 동일하다면 지연시간은 예를 들어 테스트 신호의 전송 시각과 응답 신호의 수신 시각간의 차이값의 1/2일 수 있다. 이는, 슬레이브 로봇은 마스터 로봇(1)으로부터 조작신호가 수신되면 즉시 상응하는 처리를 수행할 것이기 때문이다. 물론, 지연시간에는 슬레이브 로봇(2)에서 조작신호에 따른 로봇 암(3) 제어 등의 처리를 수행하기 위한 처리 지연시간이 더 포함될 수도 있을 것이다. 다른 예로서, 네트워크 통신상의 지연시간은 수술자의 조작 시각과 관찰 시각간의 차이가 중시되는 경우라면, 지연시각은 전송 시각과 응답 신호의 수신 시각(예를 들어, 표시부를 통해 수술자의 조작 결과가 표시되는 시각)간의 차이값으로 산출될 수도 있을 것이다. 이외에도 지연시간을 산출하는 방식은 다양할 수 있다.The delay
만일 지연시간이 미리 지정된 임계값(예를 들어, 150ms) 이하라면 실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치의 차이 등이 크지 않을 것이다. 이 경우, 가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 표시되지 않도록 할 수 있다. 이는, 실제 수술도구(460)와 가상 수술도구(610)가 일치 또는 매우 근접한 위치에 이중으로 표시됨으로써 수술자의 혼동을 야기할 필요가 없기 때문이다.If the delay time is less than a predetermined threshold value (for example, 150 ms), the difference in display position between the actual
그러나 만일 지연시간이 미리 지정된 임계값(예를 들어, 150ms)을 초과하면 실제 수술도구(460)와 가상 수술도구(610)간의 표시 위치의 차이 등이 클 수 있다. 이 경우, 가상 수술도구 생성부(720)는 가상 수술도구(610)가 화면 표시부(320)를 통해 표시되도록 할 수 있다. 이는, 수술자의 암 조작부(330) 조작 상황과 실제 수술도구(460)의 조작 상황이 실시간적으로 일치하지 않아 야기되는 수술자의 혼동을 제거하기 위함이며, 수술자가 가상 수술도구(610)를 참조하여 수술하더라도 실제 수술도구(460)가 가상 수술도구(610)의 조작 형태대로 후속하여 조작될 것이기 때문이다.However, if the delay time exceeds a predetermined threshold value (for example, 150 ms), a difference in display position between the actual
도 8에는 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 예시되어 있다. 순서도의 각 단계를 설명함에 있어, 설명 및 이해의 편의를 위해 마스터 로봇(1)이 각 단계를 수행하는 것으로 설명하기로 한다.FIG. 8 illustrates a flowchart showing a method of driving the
도 8을 참조하면, 단계 810에서 마스터 로봇(1)은 네트워크 통신 속도를 측정하기 위해 테스트 신호를 생성하여 유선 또는 무선 통신망을 통해 슬레이브 로봇(2)으로 전송한다.Referring to FIG. 8, in
단계 820에서 마스터 로봇(1)은 슬레이브 로봇(2)로부터 테스트 신호에 대한 응답 신호를 수신한다.In
단계 830에서 마스터 로봇(1)은 테스트 신호의 전송 시각과 응답 신호의 수신 시각을 이용하여 네트워크 통신 속도상의 지연시간을 산출한다. In
이어서, 단계 840에서 마스터 로봇(1)은 산출된 지연시간이 미리 설정된 임계값 이하인지 여부를 판단한다. 여기서, 임계값은 수술 로봇 시스템을 이용하여 수술자의 원활한 수술 진행을 위해 요구되는 네트워크 통신 속도상의 지연 시간이며, 실험적 및/또는 통계적인 방법으로 결정되어 적용될 수 있다.Then, in
만일, 산출된 지연시간이 미리 설정된 임계값 이하라면 단계 850으로 진행하여 마스터 로봇(1)은 화면 표시부(320)에 복강경(5)을 통해 입력된 영상(즉, 수술 부위와 실제 수술도구(460)를 포함하는 영상)이 표시되도록 처리한다. 이때, 가상 수술도구(610)는 표시되지 않을 수 있다. 물론, 이 경우에도 가상 수술도구(610)와 실제 수술도구(460)가 함께 표시되도록 할 수도 있을 것이다.If the calculated delay time is equal to or less than the predetermined threshold value, the process proceeds to step 850 and the
그러나, 산출된 지연시간이 미리 설정된 임계값을 초과하는 경우라면 단계 860으로 진행하여 마스터 로봇(1)은 화면 표시부(320)에 복강경(5)을 통해 입력된 영상(즉, 수술 부위와 실제 수술도구(460)를 포함하는 영상)과 함께 가상 수술도구(610)가 표시되도록 처리할 수 있다. 물론, 이 경우에도 가상 수술도구(610)가 표시되지 않도록 할 수도 있을 것이다.
However, if the calculated delay time exceeds the preset threshold, the
도 9는 본 발명의 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 10 및 도 11은 각각 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.FIG. 9 is a diagram illustrating a detailed configuration of an augmented
도 9를 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 간격 연산부(910), 영상 해석부(920)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.9, the augmented
특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 특성값은 예를 들어 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등 중 하나 이상을 포함할 수 있다. The characteristic
가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 출력될 가상 수술도구(610)를 생성한다. The virtual surgery
간격 연산부(910)는 특성값 연산부(710)를 통해 연산된 실제 수술도구(460)의 위치좌표와 암 조작부(330) 조작에 연동되는 가상 수술도구(610)의 위치좌표를 이용하여 각 수술도구간의 간격을 연산한다. 예를 들어, 가상 수술도구(610)와 실제 수술도구(460)의 위치 좌표가 각각 결정되면 두 점을 연결하는 선분의 길이로서 연산될 수 있다. 여기서, 위치 좌표는 예를 들어 x-y-z 축으로 규정되는 3차원 공간상의 한 점의 좌표값일 수 있으며, 해당 한 점은 가상 수술도구(610) 및 실제 수술도구(460)상의 특정 위치의 한 점으로 미리 지정될 수 있다. 이외에도, 각 수술도구간의 간격은 조작 방법에 의해 생성되는 경로 또는 궤적의 길이 등이 더 이용될 수 있다. 예를 들어 원(circle)을 그리는 경우 시간차가 원을 그리는 시간만큼 존재할 때 각 수술도구간의 선분의 길이는 매우 작아지지만 경로 또는 궤적상 차이는 조작 방법에 의해 생성된 원의 원주만큼 발생될 수 있기 때문이다.The
간격 연산을 위해 이용되는 실제 수술도구(460)의 위치좌표는 절대 좌표값으로 이용되거나 특정 지점을 기준으로 연산된 상대 좌표값으로 이용되거나, 화면 표시부(320)를 통해 표시되는 실제 수술도구(460)의 위치를 좌표화하여 이용할 수도 있다. 마찬가지로, 가상 수술도구(610)의 위치좌표도 가상 수술도구(610)의 초기 위치를 기준으로 암 조작부(330) 조작에 의해 이동된 가상의 위치를 절대 좌표화하여 이용하거나 특정 지점을 기준으로 연산된 상대 좌표값으로 이용되거나, 화면 표시부(320)를 통해 표시되는 가상 수술도구(610)의 위치를 좌표화하여 이용할 수도 있다. 여기서, 화면 표시부(320)를 통해 표시되는 각 수술도구의 위치를 해석하기 위해 이하에서 설명될 영상 해석부(920)에 의해 해석된 특징 정보가 이용될 수도 있다. The positional coordinates of the actual
가상 수술도구(610)와 실제 수술도구(460)간의 간격이 좁거나 0인 경우 네트워크 통신 속도가 양호한 것으로 이해될 수 있으나, 간격이 넓은 경우라면 네트워크 통신 속도가 불충분한 것으로 이해될 수 있을 것이다. If the interval between the virtual
가상 수술도구 생성부(720)는 간격 연산부(910)에 의해 연산된 간격 정보를 이용하여 가상 수술도구(610)의 표시 여부, 가상 수술도구(610) 표시 색상이나 표시 형태 등 중 하나 이상을 결정할 수 있다. 예를 들어, 가상 수술도구(610)와 실제 수술도구(460)간의 간격이 미리 설정한 임계값(threshold) 이하인 경우라면 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되지 않도록 할 수 있다. 또한 가상 수술도구(610)와 실제 수술도구(460)간의 간격이 미리 설정한 임계값(threshold)을 초과하는 경우 상호간의 간격에 비례하여 반투명도를 조절하거나 색상에 왜곡을 주거나 가상 수술도구(610)의 외곽선 두께를 변경하는 등의 처리를 통해 네트워크 통신 속도에 대한 수술자의 명확한 인식이 가능하도록 할 수도 있다. 여기서, 임계값은 예를 들어 5mm 등과 같은 거리값으로 지정될 수 있을 것이다.The virtual surgery
영상 해석부(920)는 복강경(5)에 의해 입력되어 제공되는 영상을 이용하여 미리 설정된 특징 정보(예를 들어, 픽셀별 색상값, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상)를 추출한다. 예를 들어, 영상 해석부(920)는 수술 도중 발생될 수 있는 응급 상황(예를 들어, 과다한 출혈 등)에 대한 즉각적 대응이 가능할 수 있도록, 해당 영상의 각 픽셀별 색상값을 해석한 후 피를 나타내는 색상값을 가지는 픽셀이 기준값 이상 존재하는지 여부를 판단하거나, 피를 나타내는 색상값을 가지는 픽셀들에 의해 형성되는 영역 또는 면적이 일정 크기 이상인지 여부를 판단할 수 있다. 또한, 영상 해석부(920)는 복강경(5)에 의해 입력된 영상 및 가상 수술도구(610)가 표시되는 화면 표시부(320)의 표시 화면을 캡쳐하여 각 수술도구의 위치좌표를 생성할 수도 있다. The
도 10에는 본 발명의 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 도시되어 있다.10 is a flowchart showing a method of driving the
도 10을 참조하면, 단계 1010에서 마스터 로봇(1)은 슬레이브 로봇(2)으로부터 복강경 영상(즉, 복강경(5)을 통해 입력되어 제공되는 영상)을 수신한다.10, in
단계 1020에서 마스터 로봇(1)은 실제 수술도구(460)와 가상 수술도구(610)의 좌표 정보를 연산한다. 여기서 좌표 정보는 예를 들어 특징값 연산부(710)에 의해 연산된 특징값 및 조작 정보를 이용하여 연산되거나, 영상 해석부(920)에 의해 추출된 특징 정보가 이용될 수 있다.In
단계 1030에서 마스터 로봇(1)은 단계 1020에서 연산된 각 수술도구의 좌표 정보를 이용하여 상호간의 간격을 연산한다.In
단계 1040에서 마스터 로봇(1)은 연산된 간격이 임계값 이하인지 여부를 판단한다.In
만일 연산된 간격이 임계값 이하라면, 단계 1050으로 진행하여 마스터 로봇(1)은 화면 표시부(320)를 통해 복강경 영상을 출력하되, 가상 수술도구(610)는 표시되지 않도록 한다.If the calculated interval is less than the threshold value, the
그러나 만일 연산된 간격이 임계값을 초과하는 경우라면, 단계 1060으로 진행하여 마스터 로봇(1)은 화면 표시부를 통해 복강경 영상과 가상 수술도구(610)가 함께 표시되도록 한다. 이때, 상호간의 간격에 비례하여 반투명도를 조절하거나 색상에 왜곡을 주거나 가상 수술도구(610)의 외곽선 두께를 변경하는 등의 처리가 이루어질 수도 있다.However, if the calculated interval exceeds the threshold value, the
또한, 도 11에는 본 발명의 또 다른 실시예에 따른 제2 모드에서의 마스터 로봇(1)의 구동방법을 나타낸 순서도가 도시되어 있다.11 is a flowchart showing a method of driving the
도 11을 참조하면, 단계 1110에서 마스터 로봇(1)은 복강경 영상을 수신한다. 수신된 복강경 영상은 화면 표시부(320)를 통해 출력될 것이다.Referring to FIG. 11, in
단계 1120 및 단계 1130에서 마스터 로봇(1)은 수신된 복강경 영상을 해석하여, 해당 영상의 픽셀별 색상값을 연산하고 분석한다. 픽셀별 색상값의 연산은 앞서 예시한 바와 같이 영상 해석부(920)에 의해 수행되거나 영상 인식 기술이 적용되는 특성값 연산부(710)에 의해 수행될 수도 있다. 또한, 픽셀별 색상값의 분석에 의해 예를 들어 색상값 빈도, 분석의 대상이 되는 색상값을 가지는 픽셀들에 의해 형성되는 영역 또는 면적 등 중 하나 이상이 연산될 수 있다.In
단계 1140에서 마스터 로봇(1)은 단계 1130에서 분석된 정보를 토대로 응급 상황인지 여부를 판단한다. 응급 상황의 유형(예를 들어, 과다 출혈 등)이나 분석된 정보가 어떤 경우에 응급 상황으로 인지할 것인지 등에 대해서는 사전에 정의되어 있을 수 있다.In
만일 응급 상황인 것으로 판단되면, 단계 1150으로 진행하여 마스터 로봇(1)은 경고 정보를 출력한다. 경고 정보는 예를 들어 화면 표시부(320)를 통해 출력되는 경고 메시지 등이거나 스피커부(도시되지 않음) 등을 통해 출력되는 경고 음향 등일 수 있다. 도 3에는 도시되지 않았으나, 경고 정보나 안내 멘트 등을 출력하기 위한 스피커부가 마스터 로봇(1)에 더 포함될 수 있음은 당연하다. 또한, 응급 상황으로 판단된 시점에서 화면 표시부(320)를 통해 가상 수술도구(610)가 함께 표시되고 있는 경우라면, 수술 부위에 대한 수술자의 정확한 판단이 가능할 수 있도록 가상 수술도구(610)가 표시되지 않도록 제어될 수도 있다.If it is determined as an emergency, the
그러나 만일 응급 상황이 아닌 것으로 판단되면, 단계 1110으로 다시 진행한다.
However, if it is determined that it is not an emergency situation, the flow returns to step 1110.
도 12는 본 발명의 또 다른 실시예에 따른 마스터 로봇과 슬레이브 로봇의 구성을 개략적으로 나타낸 블록 구성도이고, 도 13은 본 발명의 또 다른 실시예에 따른 수술 로봇 시스템의 정상 구동을 검증하는 방법을 나타낸 순서도이다.FIG. 12 is a block diagram schematically showing a configuration of a master robot and a slave robot according to another embodiment of the present invention, FIG. 13 is a flowchart illustrating a method of verifying normal operation of a surgical robot system according to another embodiment of the present invention Fig.
마스터 로봇(1)과 슬레이브 로봇(2)의 구성이 개략적으로 표시된 도 12를 참조하면, 마스터 로봇(1)은 영상 입력부(310), 화면 표시부(320), 암 조작부(330), 조작신호 생성부(340), 증강현실 구현부(350), 제어부(360) 및 네트워크 검증부(1210)를 포함한다. 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함한다. 12, the
영상 입력부(310)는 슬레이브 로봇(2)의 복강경(5)에 구비된 카메라를 통해 입력된 영상을 유선 또는 무선 통신망을 통해 수신한다.The
화면 표시부(320)는 영상 입력부(310)를 통해 수신된 영상 및/또는 암 조작부(330) 조작에 따른 가상 수술도구(610)에 상응하는 화상 이미지를 시각(視覺)적 정보로 출력한다. The
암 조작부(330)는 슬레이브 로봇(2)의 로봇 암(3)의 위치 및 기능을 수술자가 조작할 수 있도록 하는 수단이다. The
조작신호 생성부(340)는 로봇 암(3) 및/또는 복강경(5)의 위치 이동 또는 수술을 위한 조작을 위해 수술자가 암 조작부(330)를 조작하는 경우 이에 상응하는 조작신호를 생성하여 슬레이브 로봇(2)으로 전송한다. The
네트워크 검증부(1210)는 특성값 연산부(710)에 의해 연산된 특성값 및 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보를 이용하여 마스터 로봇(1)과 슬레이브 로봇(2)간의 네트워크 통신을 검증한다. 이를 위해, 예를 들어 특성값 중 실제 수술도구(460)의 위치정보, 방향, 깊이, 꺽인 정도 등 중 하나 이상과 가상 수술도구 정보에 따른 가상 수술도구(610)의 위치정보, 방향, 깊이, 꺽인 정도 등 중 하나 이상이 이용될 수 있으며, 특성값 및 가상수술도구 정보는 저장부(도시되지 않음)에 저장될 수 있다.The
본 발명의 실시예에 따르면, 수술자의 암 조작부(330) 조작에 의해 조작정보가 생성되면 이에 상응하도록 가상 수술도구(610)가 제어되며, 또한 조작정보에 상응하는 조작신호는 슬레이브 로봇(2)으로 전송되어 실제 수술도구(460)의 조작을 위해 이용된다. 또한 조작신호에 의해 조작 제어된 실제 수술도구(460)의 위치 이동 등은 복강경 영상을 통해 확인될 수 있다. 이 경우, 가상 수술도구(610)의 조작은 마스터 로봇(1) 내에서 이루어지므로, 네트워크 통신 속도 등을 고려할 때 일반적으로 실제 수술도구(460)의 조작보다 앞서 이루어지게 될 것이다. According to the embodiment of the present invention, when the manipulation information is generated by the operation of the
따라서, 네트워크 검증부(1210)는 실제 수술도구(460)가 시간적으로는 뒤늦으나 가상 수술도구(610)의 이동 궤적이나 조작 형태 등과 동일하게 또는 미리 설정된 오차범위 내에서 동일시될 수 있도록 조작되는지 여부를 판단함으로써 네트워크 통신이 정상적인지를 판단할 수 있다. 이를 위해, 현재 실제 수술도구(460)의 위치 등에 대한 특성값이 저장부에 저장된 가상 수술도구 정보가 이용될 수 있다. 또한, 오차 범위는 예를 들어 상호 좌표정보간의 거리값이나 일치로 인식될 때까지의 시간값 등으로 설정될 수 있으며, 이는 예를 들어 임의적, 실험적 또는/및 통계적으로 지정될 수 있을 것이다.Accordingly, the
또한, 네트워크 검증부(1210)는 영상 해석부(920)에 의해 해석된 특징 정보를 이용하여 네트워크 통신의 검증을 수행할 수도 있을 것이다.In addition, the
제어부(360)는 상술한 기능이 수행될 수 있도록 각 구성 요소들의 동작을 제어한다. 이외에도 다른 실시예들에서 예시적으로 설명한 바와 같이 제어부(360)는 추가적인 다양한 기능을 더 수행할 수도 있다.The
도 13에는 네트워크 통신을 검증함으로써 수술 로봇 시스템의 정상 구동 여부를 검증하는 방법이 예시되어 있다.13 illustrates a method for verifying whether the surgical robot system is normally operated by verifying network communication.
도 13을 참조하면, 단계 1310 및 1320에서 마스터 로봇(1)은 수술자로부터 암 조작부(330) 조작을 입력받고, 암 조작부(330) 조작에 따른 조작 정보를 해석한다. 해당 조작 정보는 예를 들어 실제 수술도구(460)의 위치 이동, 수술부위의 절개 등을 위한 암 조작부(330) 조작에 따른 정보이다.Referring to FIG. 13, in
단계 1330에서 마스터 로봇(1)은 해석된 조작 정보를 이용하여 가상 수술도구 정보를 생성하고, 생성된 가상 수술도구 정보에 따른 가상 수술도구(610)를 화면 표시부(320)에 출력한다. 이때, 생성된 가상 수술도구 정보는 저장부(도시되지 않음)에 저장될 수 있다.In
단계 1340에서 마스터 로봇(1)은 실제 수술도구(460)에 대한 특성값을 연산한다. 특성값의 연산은 예를 들어 특성값 연산부(710) 또는 영상 해석부(920)에 의해 수행될 수 있다.In
단계 1350에서 마스터 로봇(1)은 각 수술도구의 좌표값 일치점이 존재하는지 여부를 판단한다. 각 수술도구의 좌표정보가 일치 또는 오차범위 내에서 일치하는 경우 좌표값 일치점이 존재하는 것으로 판단될 수 있다. 여기서, 오차범위는 예를 들어 3차원 좌표상의 거리값 등으로 사전 설정될 수 있다. 앞서 설명한 바와 같이, 수술자의 암 조작부(330) 조작에 따른 결과가 실제 수술도구(460) 보다 가상 수술도구(610)에 대해 먼저 반영될 것이므로, 단계 1350은 실제 수술도구(460)에 대한 특성값이 저장부에 저장된 가상 수술도구 정보와 일치되는지 여부의 판단으로 수행될 수 있다. In
만일 좌표값 일치점이 존재하지 않는다면 단계 1360으로 진행하여 마스터 로봇(1)은 경고 정보를 출력한다. 경고 정보는 예를 들어 화면 표시부(320)를 통해 출력되는 경고 메시지 등이거나 스피커부(도시되지 않음) 등을 통해 출력되는 경고 음향 등일 수 있다. If there is no coordinate coincidence point, the
그러나 만일 좌표값 일치점이 존재한다면 네트워크 통신이 정상적인 것으로 판단하여 단계 1310으로 다시 진행한다.However, if there is a coordinate value coincidence point, it is determined that the network communication is normal, and the process proceeds to step 1310 again.
상술한 단계 1310 내지 단계 1360은 수술자의 수술과정에서 실시간으로 수행되도록 하거나, 주기적으로 또는 사전 설정된 시점에서 수행되도록 할 수 있을 것이다.
The above-described
도 14는 본 발명의 또 다른 실시예에 따른 증강현실 구현부(350)의 세부 구성을 나타낸 도면이고, 도 15 및 도 16은 각각 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇(1)의 구동방법을 나타낸 순서도이다.FIG. 14 is a diagram illustrating a detailed configuration of an augmented
도 14를 참조하면, 증강현실 구현부(350)는 특성값 연산부(710), 가상 수술도구 생성부(720), 영상 해석부(920), 중첩 처리부(1410), 접촉 인식부(1420)를 포함한다. 증강현실 구현부(350)의 구성 요소 중 일부 구성 요소는 생략될 수 있으며, 일부 구성 요소(예를 들어, 슬레이브 로봇(2)으로부터 수신된 생체 정보를 화면 표시부(320)를 통해 출력 가능하도록 처리하기 위한 구성 요소 등)가 더 추가될 수도 있다. 증강현실 구현부(350)에 포함된 하나 이상의 구성 요소들은 프로그램 코드들의 조합에 의한 소프트웨어 프로그램의 형태로 구현될 수도 있다.14, the augmented
특성값 연산부(710)는 슬레이브 로봇(2)의 복강경(5)에 의해 입력되어 제공되는 영상 및/또는 로봇 암(3)에 결합된 실제 수술도구의 위치에 대한 좌표정보 등을 이용하여 특성값을 연산한다. 특성값은 예를 들어 복강경(5)의 화각(FOV, Field of View), 확대율, 관점(예를 들어, 보는 방향), 보는 깊이 등과, 실제 수술도구(460)의 종류, 방향, 깊이, 꺽인 정도 등 중 하나 이상을 포함할 수 있다. The characteristic
가상 수술도구 생성부(720)는 수술자의 로봇 암(3) 조작에 따른 조작정보를 참조하여 화면 표시부(320)를 통해 가상 수술도구(610)가 출력되도록 하기 위한 가상 수술도구 정보를 생성한다. The virtual surgical
영상 해석부(920)는 복강경(5)에 의해 입력되어 제공되는 영상을 이용하여 미리 설정된 특징 정보(예를 들어, 수술 부위 내의 장기의 형상, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상)를 추출한다. 예를 들어, 영상 해석부(920)는 복강경 영상 내에서 표시되는 장기의 외곽선 추출, 장기를 나타내는 각 픽셀들의 색상값 해석 등의 영상 인식 기술을 이용하여 표시된 장기가 무엇인지를 해석할 수 있다. 이를 위해, 저장부(도시되지 않음)에 각 장기의 형상, 색상, 3차원 공간상에서 각 장기 또는/및 수술부위가 위치하는 영역의 좌표정보 등에 대한 정보가 미리 저장될 수 있다. 또는 영상 해석부(920)가 영상 해석을 통해 해당 장기가 차지하는 영역의 좌표정보(절대좌표 또는 상대좌표)를 해석할 수도 있다.The
중첩 처리부(1410)는 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보 및 영상 해석부(920)에 의해 인식된 장기 및/또는 수술부위의 영역 좌표 정보를 이용하여 상호간에 중첩이 발생하는지 여부를 판단하여 상응하도록 처리한다. 만일 장기의 아래쪽이나 측면 뒤쪽으로 가상 수술도구의 일부 또는 전체가 위치하게 된다면 해당 부분만큼 상호간에 중첩(즉, 가리어짐)이 발생하는 것으로 판단할 수 있으며, 가상 수술도구(610) 표시상의 사실성을 증대시키기 위해 중첩 부분에 해당되는 가상 수술도구(610)의 영역은 은폐되도록(즉, 화면 표시부(320)를 통해 표시되지 않도록) 처리한다. 해당 중첩 부분을 은폐 처리하는 방법은 예를 들어 가상 수술도구(610)의 형상 중 중첩 부분에 해당하는 영역은 투명 처리되도록 하는 등의 방법이 이용될 수 있다. The
또는, 중첩 처리부(1410)가 장기와 가상 수술도구(610)간에 중첩이 존재하는 것으로 판단한 경우, 장기의 영역 좌표 정보를 가상 수술도구 생성부(720)로 제공하거나 가상 수술도구 생성부(720)가 저장부로부터 해당 정보를 독출하도록 요청함으로써 가상 수술도구 생성부(720)가 중첩 부분에 대한 가상 수술도구 정보를 생성하지 않도록 할 수도 있다.Or, if the
접촉 인식부(1420)는 가상 수술도구 생성부(720)에 의해 생성된 가상 수술도구 정보 및 영상 해석부(920)에 의해 인식된 장기의 영역 좌표 정보를 이용하여 상호간에 접촉이 발생하는지 여부를 판단하여 상응하도록 처리한다. 만일 장기의 영역 좌표 정보 중 표면 좌표 정보와 가상 수술도구의 일부 또는 전체의 좌표정보가 일치하게 된다면 해당 부분에서 접촉이 있는 것으로 판단할 수 있다. 접촉 인식부(1420)에 의해 접촉이 있는 것으로 판단되면, 마스터 로봇(1)은 예를 들어 암 조작부(330)가 더 이상 조작되지 않도록 처리하거나 암 조작부(330)를 통해 포스 피드백(force feedback)이 발생되도록 처리하거나 경고 정보(예를 들어 경고 메시지 또는/및 경고 음향 등)가 출력되도록 처리할 수 있다. 포스 피드백을 처리하거나 경고 정보를 출력하기 위한 구성요소는 마스터 로봇(1)의 구성요소로서 포함될 수 있다.The
도 15에는 본 발명의 또 다른 실시예에 따른 가상 수술도구를 출력하기 위한 마스터 로봇(1)의 구동방법이 예시되어 있다.FIG. 15 illustrates a driving method of the
도 15를 참조하면, 단계 1510에서 마스터 로봇(1)은 수술자로부터 암 조작부(330) 조작을 입력받는다.Referring to FIG. 15, in
이어서, 단계 1520 및 단계 1530에서 마스터 로봇(1)은 암 조작부(330) 조작에 따른 수술자의 조작 정보를 해석하여 가상 수술도구 정보를 생성한다. 가상 수술도구 정보는 예를 들어 화면 표시부(320)를 통해 가상 수술도구(610)를 출력하기 위한 가상 수술도구(610)의 외곽선 또는 영역에 대한 좌표정보를 포함할 수 있다.Then, in
또한, 단계 1540 및 단계 1550에서 마스터 로봇(1)은 슬레이브 로봇(2)으로부터 복강경 영상을 수신하고, 수신된 영상을 해석한다. 수신된 영상의 해석은 예를 들어 영상 해석부(920)에 의해 수행될 수 있으며, 영상 해석부(920)는 복강경 영상에 포함된 장기가 어떤 것인지를 인식할 수 있다.Further, in
단계 1560에서 마스터 로봇(1)은 복강경 영상을 통해 인식한 장기에 대한 영역 좌표 정보를 저장부에서 독출한다.In
마스터 로봇(1)은 단계 1570에서 가상 수술도구(610)의 좌표 정보 및 장기의 영역 좌표 정보를 이용하여 상호간에 중첩 부분이 존재하는지 여부를 판단한다. In
만일 중첩 부분이 존재하는 경우, 단계 1580에서 마스터 로봇(1)은 중첩 부분이 은폐 처리된 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 처리한다.If there is an overlapping portion, the
그러나 만일 중첩 부분이 존재하지 않는 경우, 마스터 로봇(1)은 단계 1590에서 모든 부분이 정상적으로 표시되는 가상 수술도구(610)가 화면 표시부(320)를 통해 출력되도록 처리한다.However, if there is no overlapping part, the
도 16에는 가상 수술도구(610)가 환자의 장기와 접촉된 경우 이를 수술자에게 알리기 위한 실시예가 도시되어 있다. 도 16의 단계 1510 내지 단계 1560은 앞서 도 15를 참조하여 이미 설명하였으므로 이에 대한 설명은 생략한다.FIG. 16 shows an embodiment for notifying the operator of the virtual
도 16을 참조하면, 단계 1610에서 마스터 로봇(1)은 가상 수술도구(610)의 일부 또는 전체가 장기와 접촉되었는지 여부를 판단한다. 장기와 가상 수술도구(610)간의 접촉 여부는 예를 들어 각각의 영역에 대한 좌표 정보를 이용하여 판단될 수 있다.Referring to FIG. 16, in
만일 가상 수술도구(610)와 장기가 접촉되었다면 단계 1620으로 진행하여, 마스터 로봇(1)은 수술자에게 이를 알리기 위해 포스 피드백 처리를 수행한다. 앞서 설명한 바와 같이, 예를 들어 암 조작부(330)가 더 이상 조작되지 않도록 처리하거나 경고 정보(예를 들어 경고 메시지 또는/및 경고 음향 등)가 출력되도록 처리될 수도 있다. If the organ has been in contact with the virtual
그러나 만일 가상 수술도구(610)와 장기가 접촉되지 않았다면 단계 1610에서 대기한다.However, if the organ is not in contact with the virtual
상술한 과정을 통해, 수술자는 실제 수술도구(460)가 장기와 접촉될 것인지 여부를 사전에 예측할 수 있어 보다 안전하고 정교한 수술 진행이 가능해질 수 있다.
Through the above-described process, the operator can predict whether or not the actual
도 17은 본 발명의 또 다른 실시예에 따른 참조 이미지 제공 방법을 나타낸 순서도이다.17 is a flowchart illustrating a method of providing a reference image according to another embodiment of the present invention.
일반적으로 환자는 수술 이전에 X-ray, CT 또는/및 MRI 등의 다양한 참조 영상을 촬영하게 된다. 이러한 참조 영상이 수술시 복강경 영상과 함께 또는 모니터부(6)의 임의의 모니터에 수술자에게 제시될 수 있다면 수술자의 수술이 보다 원활해질 수 있을 것이다. 해당 참조 영상은 예를 들어 마스터 로봇(1)에 포함된 저장부에 미리 저장되어 있거나, 마스터 로봇(1)이 통신망을 통해 접속 가능한 데이터베이스에 저장될 수 있다.Generally, the patient will take a variety of reference images such as X-ray, CT, and / or MRI prior to surgery. If the reference image can be presented to the surgeon along with the laparoscopic image at the time of surgery or on any monitor of the
도 17을 참조하면, 단계 1710에서 마스터 로봇(1)은 슬레이브 로봇(2)의 복강경(5)으로부터 복강경 영상을 수신한다.17, in
단계 1720에서 마스터 로봇(1)은 복강경 영상을 이용하여 미리 설정된 특징 정보를 추출한다. 여기서, 특징 정보는 예를 들어 수술 부위 내의 장기의 형상, 실제 수술도구(460)의 위치좌표, 조작 형상 등 중 하나 이상일 수 있다. 특징 정보의 추출은 예를 들어 영상 해석부(920)에 의해 수행될 수도 있다.In
단계 1730에서 마스터 로봇(1)은 단계 1720에서 추출한 특징 정보 및 저장부에 미리 저장된 정보들을 이용하여 해당 복강경 영상에 포함되어 표시되는 장기가 무엇인지를 인식한다.In
이어서, 단계 1740에서 마스터 로봇(1)은 단계 1730에서 인식한 장기에 해당하는 영상을 포함하는 참조 영상을 저장부 또는 통신망을 통해 접속 가능한 데이터베이스에서 독출한 후, 해당 참조 영상 중 어느 부위가 모니터부(6)를 통해 표시되어야 하는지를 결정한다. 모니터부(6)를 통해 출력될 참조 영상은 해당 장기의 모습이 촬영된 영상으로, 예를 들어 X-ray, CT 및/또는 MRI 영상일 수 있다. 또한 참조 영상의 어느 부위(예를 들어, 해당 환자에 대한 전신 영상 중 어느 부위)가 참조를 위해 출력될 것인지는 예를 들어 인식된 장기의 명칭 또는 실제 수술도구(460)의 좌표 정보 등에 의해 결정될 수 있다. 이를 위해, 참조 영상의 각 부위에 대한 좌표 정보나 명칭 또는 순차적인 프레임의 참조 영상들 중 몇 번째 프레임이 무엇에 관한 것인지가 미리 특정될 수도 있다. 모니터부(6)를 통해 어느 하나의 참조 영상이 출력될 수도 있으며, 성질을 달리하는 둘 이상의 참조 영상(예를 들어, X-ray 영상과 CT 영상)이 함께 표시될 수도 있다.Then, in
단계 1750에서 마스터 로봇(1)은 모니터부(6)를 통해 복강경 영상과 참조 영상이 각각 출력되도록 한다. 이때, 참조 영상이 복강경 영상의 입력 각도(예를 들어, 카메라 각도)와 유사한 방향에서 표시되도록 처리함으로써, 수술자의 직관성을 극대화할 수도 있다. 예를 들어 참조 영상이 특정 방향에서 촬상된 평면적인 영상인 경우, 특성값 연산부(710)에 의해 연산된 카메라 각도 등에 따라 실시간 MPR(Multi Planner Reformat)을 이용한 3차원 영상이 출력되도록 할 수도 있다. 참고로, MPR은 단면 영상에서 하나 또는 여러 개의 슬라이스 단위로, 필요한 임의의 부위만을 선택적으로 도시(drawing)하여 부분적으로 3차원 영상으로 구성하는 기법으로, 초기의 한 슬라이스씩 ROI(region of interest)를 그려내는 기법을 발전시킨 기법이다.
In
이제까지 마스터 로봇(1)이 실제 모드인 제1 모드, 비교 모드인 제2 모드 및/또는 가상 모드인 제3 모드에서 기능하는 경우를 중심으로 설명하였다. 이하, 마스터 로봇(1)이 교육 모드인 제4 모드 또는 시뮬레이션 모드인 제5 모드에서 기능하는 경우를 중심으로 설명한다. 다만, 이제까지 관련 도면을 참조하여 설명한 가상 수술도구(610)의 표시 등에 관한 다양한 실시예들은 특정 구동모드에서 제한적으로 적용되는 기술적 사상은 아니며, 가상 수술도구(610)가 표시될 필요가 있는 구동모드라면 별도의 설명이 없더라도 제한없이 적용될 수 있다.
The case where the
도 18은 본 발명의 또 다른 실시예에 따른 수술용 로봇의 전체구조를 나타낸 평면도이다. 18 is a plan view showing the entire structure of a surgical robot according to another embodiment of the present invention.
도 18을 참조하면, 복강경 수술용 로봇 시스템은 둘 이상의 마스터 로봇(1)과 슬레이브 로봇(2)을 포함한다. 둘 이상의 마스터 로봇(1) 중 제1 마스터 로봇(1a)은 학습자(예를 들어, 실습 학생)에 의해 이용되는 학생 마스터 로봇일 수 있고, 제2 마스터 로봇(1b)은 교육자(예를 들어, 실습 교사)에 의해 이용되는 교사 마스터 로봇일 수 있다. 마스터 로봇(1) 및 슬레이브 로봇(2)의 구성은 앞서 설명한 바와 같으므로 이에 대해서는 간략히 설명하기로 한다.Referring to FIG. 18, the robot system for laparoscopic surgery includes two or
앞서 도 1을 참조하여 설명한 바와 같이, 마스터 로봇(1)의 마스터 인터페이스(4)는 모니터부(6) 및 마스터 조종기를 포함하고, 슬레이브 로봇(2)은 로봇 암(3) 및 복강경(5)을 포함할 수 있다. 마스터 인터페이스(4)는 복수의 구동모드 중 어느 하나를 선택할 수 있도록 하기 위한 모드전환 제어버튼을 더 포함할 수 있다. 마스터 조종기는 예를 들어 수술자가 양손에 각각 파지되어 조작할 수 있는 형태(예를 들어 핸들)로 구현될 수 있다. 모니터부(6)에는 복강경 영상 뿐 아니라 복수의 생체 정보나 참조 영상이 더 출력될 수 있다.1, the
도 18에 예시된 두 개의 마스터 로봇(1)은 상호간에 통신망을 통해 결합되어 있으며, 각각 슬레이브 로봇(2)과 통신망을 통해 결합될 수 있다. 통신망을 통해 상호 결합되는 마스터 로봇(1)은 필요에 따라 다양한 수량으로 구비될 수 있다. 또한, 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)의 용도, 실습 교사와 실습 학생은 사전에 미리 결정될 수도 있으나, 상호간에 그 역할이 요구나 필요에 따라 교환될 수도 있을 것이다.The two
일 예로, 학습자를 위한 제1 마스터 로봇(1a)은 실습 교사를 위한 제2 마스터 로봇(1b)과만 통신망을 통해 결합되고, 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a) 및 슬레이브 로봇(2)과 통신망을 통해 결합될 수도 있다. 즉, 실습 학생이 제1 마스터 로봇(1a)에 구비된 마스터 조종기를 조작하면 가상 수술도구(610)만이 조작되어 화면 표시부(320)를 통해 출력되도록 할 수 있다. 이때, 제1 마스터 로봇(1a)으로부터 조작신호가 제2 마스터 로봇(1b)으로 제공되고, 이에 따른 가상 수술도구(610)의 조작 상태가 제2 마스터 로봇(1b)의 모니터부(6b)를 통해 출력됨으로써 실습 교사는 실습 학생이 정상적인 과정으로 수술을 진행하는지 확인할 수 있다.For example, the
다른 예로, 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)이 통신망을 통해 결합되고 또한 각각이 슬레이브 로봇(2)과 통신망을 통해 결합될 수도 있다. 이 경우, 실습 학생이 제1 마스터 로봇(1a)에 구비된 마스터 조종기를 조작하면 실제 수술도구(460)가 조작되고, 이에 상응하는 조작신호가 제2 마스터 로봇(1b)으로도 제공되어 실습 교사는 실습 학생이 정상적인 과정으로 수술을 진행하는지 확인할 수 있다. As another example, the
이 경우, 실습 교사는 자신의 마스터 로봇을 조작하여 실습 학생의 마스터 로봇이 어떤 모드에서 기능하도록 할 것인지 제어할 수도 있다. 이를 위해, 임의의 마스터 로봇은 다른 마스터 로봇으로부터 수신되는 제어 신호에 의해 구동모드가 결정되어 실제 수술도구(460) 및/또는 가상 수술도구(610)의 조작이 가능해지도록 미리 설정될 수도 있을 것이다.
In this case, the practical teacher can control his / her master robot to control the mode of the master robot of the practical student. For this purpose, any master robot may be preset to enable the operation mode of the actual
도 19는 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면이다.FIG. 19 is a diagram illustrating a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.
도 19에는 제1 마스터 로봇(1a)에서의 암 조작부(330) 조작이 가상 수술도구(610)의 조작을 위해서만 기능되고, 제1 마스터 로봇(1a)으로부터 조작신호가 제2 마스터 로봇(1b)으로 제공되는 경우의 수술 로봇 시스템의 동작 방법이 예시되어 있다. 이는, 실습 학생 또는 실습 교사 중 1인에 의한 제1 마스터 로봇(1a) 조작 상황을 실습 교사 또는 실습 학생 중 다른 1인이 제2 마스터 로봇(1b)을 이용하여 확인하는 등의 용도로 이용될 수 있다.19 shows that the operation of the
도 19를 참조하면, 단계 1905에서 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)간에 통신 접속 설정이 수행된다. 통신 접속 설정은 예를 들어 상호간에 조작신호, 권한 명령 등 중 하나 이상을 송수신하기 위한 것일 수 있다. 통신 접속 설정은 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b) 중 하나 이상의 요청에 의해 이루어지거나, 각 마스터 로봇이 전원 온(on)되면 즉시 이루어질 수도 있다.Referring to Fig. 19, in
단계 1910에서 제1 마스터 로봇(1a)은 암 조작부(330)의 조작에 따른 사용자 조작을 입력받는다. 여기서, 사용자는 예를 들어 실습 학생 또는 실습 교사 중 어느 일방일 수 있다.In
단계 1920 및 단계 1930에서 제1 마스터 로봇(1a)은 단계 1910의 사용자 조작에 따른 조작신호를 생성하고, 생성된 조작신호에 상응하는 가상 수술도구 정보를 생성한다. 앞서 설명한 바와 같이, 암 조작부(330) 조작에 따른 조작 정보를 이용하여 가상 수술도구 정보가 생성될 수도 있다.In
단계 1940에서 제1 마스터 로봇(1a)은 생성된 가상 수술도구 정보에 의할 때 장기와의 중첩 또는 접촉 부분이 존재하는지 여부를 판단한다. 가상 수술도구와 장기간의 중첩 또는 접촉 부분의 존재 여부를 판단하는 방법은 앞서 도 15 및/또는 도 16을 참조하여 설명하였으므로 이에 대한 설명은 생략한다.In
만일 중첩 또는 접촉 부분이 존재하는 경우라면 단계 1950으로 진행하여 중첩 또는 접촉에 따른 처리 정보를 생성한다. 처리 정보는 앞서 도 15 및/또는 도 16에서 예시적으로 설명된 바와 같이 중첩 부분에 대한 투명 처리, 접촉에 따른 포스 피드백 수행 등일 수 있다.If overlap or contact portions are present, proceed to step 1950 to generate processing information according to the overlap or contact. The processing information may be transparency processing for the overlapping portion, performing force feedback according to the contact, and the like, as exemplified in Figs. 15 and / or 16 above.
단계 1960에서 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)으로 가상 수술도구 정보 및/또는 처리 정보를 전송한다. 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)으로 조작신호를 전송할 수도 있으며, 제2 마스터 로봇(1b)이 수신한 조작신호를 이용하여 가상 수술도구 정보를 생성한 후 중첩 또는 접촉 여부를 판단할 수도 있다.In
단계 1970 및 단계 1980에서 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)은 가상 수술도구 정보를 이용하여 화면 표시부(320)에 가상 수술도구(610)를 출력한다. 이때, 처리 정보에 해당하는 사항이 함께 처리될 수도 있다.In
이제까지 도 19를 참조하여 제1 마스터 로봇(1a)이 가상 수술도구(610)만을 제어하고 이에 따른 조작신호 등이 제2 마스터 로봇(1b)으로 제공되는 경우를 설명하였다. 그러나, 제1 마스터 로봇(1a)이 구동모드 선택에 따라 실제 수술도구(460)를 제어하고 이에 따른 조작신호 등이 제2 마스터 로봇(1b)으로 제공될 수도 있을 것이다.
19, a case has been described in which the
도 20은 본 발명의 또 다른 실시예에 따른 교육 모드에서의 수술 로봇 시스템의 동작 방법을 나타낸 도면이다. 20 is a diagram illustrating a method of operating a surgical robot system in a training mode according to another embodiment of the present invention.
도 20을 참조하여 수술 로봇 시스템의 동작 방법을 설명함에 있어, 제1 마스터 로봇(1a)에 대한 제어 권한을 제2 마스터 로봇(1b)이 가지는 경우를 가정하여 설명한다.Referring to FIG. 20, a description will be given of a method of operating the surgical robot system, assuming that the
도 20을 참조하면, 단계 2010에서 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b)간에 통신 접속 설정이 수행된다. 통신 접속 설정은 예를 들어 상호간에 조작신호, 권한 명령 등 중 하나 이상을 송수신하기 위한 것일 수 있다. 통신 접속 설정은 제1 마스터 로봇(1a)과 제2 마스터 로봇(1b) 중 하나 이상의 요청에 의해 이루어지거나, 각 마스터 로봇이 전원 온(on)되면 즉시 이루어질 수도 있다.Referring to Fig. 20, in
단계 2020에서 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a)으로 수술권한 부여 명령을 전송한다. 수술권한 부여명령에 의해 제1 마스터 로봇(1a)은 슬레이브 로봇(2)에 구비된 로봇 암(3)을 실제적으로 제어할 수 있는 권한을 가지게 된다. 수술권한 부여명령은 예를 들어 마스터 로봇들간에 사전 규정된 신호 형태 및 정보 형태로 구성되도록 제2 마스터 로봇(1b)에 의해 생성될 수 있다.In
단계 2030에서 제1 마스터 로봇(1a)은 암 조작부(330)의 조작에 따른 사용자 조작을 입력받는다. 여기서, 사용자는 예를 들어 실습 학생일 수 있다.In
단계 2040에서 제1 마스터 로봇(1a)은 단계 1910의 사용자 조작에 따른 조작신호를 생성하여 통신망을 통해 슬레이브 로봇(2)으로 전송한다. 제1 마스터 로봇(1a)은 생성된 조작신호 또는 암 조작부(330) 조작에 따른 조작 정보에 상응하는 가상 수술도구 정보를 생성하여 모니터부(6)를 통해 가상 수술도구(610)가 표시될 수 있도록 한다. In
또한, 제1 마스터 로봇(1a)은 실제 수술도구(460) 조작 상황을 확인할 수 있도록 하기 위해 조작신호 또는/및 가상 수술도구 정보를 제2 마스터 로봇(1b)으로 전송할 수 있다. 단계 2050에서 제2 마스터 로봇(1b)은 조작신호 또는/및 가상 수술도구 정보를 수신한다.In addition, the
단계 2060 및 단계 2070에서 제1 마스터 로봇(1a) 및 제2 마스터 로봇(1b)은 각각 슬레이브 로봇(2)으로부터 수신되는 복강경 영상 및 제1 마스터 로봇(1a)의 암 조작부(330) 조작에 따른 가상 수술도구(610)를 화면 표시부(320)를 통해 출력한다. In
만일 제2 마스터 로봇(1b)이 제1 마스터 로봇(1a)의 암 조작부(330) 조작에 따른 가상 수술도구(610)를 화면 표시부(320)에 출력하지 않고, 슬레이브 로봇(2)으로부터 수신되는 복강경 영상을 통해 실제 수술도구(460) 조작 상황을 확인하도록 하는 경우라면, 단계 2050은 생략될 수 있고, 단계 2070에서는 수신된 복강경 영상만이 출력될 것이다.If the
단계 2080에서 제2 마스터 로봇(1b)은 사용자로부터 제1 마스터 로봇(1a)에 부여한 수술권한의 회수 요청이 입력되는지 여부를 판단한다. 여기서, 사용자는 예를 들어 실습 학생일 수 있으며, 제1 마스터 로봇(1a)의 사용자에 의해 정상적인 수술이 이루어지지 못하는 경우 등에 수술권한을 회수할 수 있다.In
만일 수술권한 회수 요청이 입력되지 않은 경우라면 단계 2050으로 다시 진행하여 사용자가 제1 마스터 로봇(1a)에 의한 실제 수술도구(460) 조작 상황을 관찰할 수 있도록 한다.If the operation right withdrawal request is not input, the process returns to step 2050 to allow the user to observe the operation state of the
그러나, 만일 수술권환 회수 요청이 입력된 경우라면 단계 2090에서 제2 마스터 로봇(1b)은 제1 마스터 로봇(1a)으로 통신망을 통해 수술권한 종료명령을 전송한다. However, if it is determined that the request for surgical removal is input, in
수술권한 종료명령의 전송에 의해 제1 마스터 로봇(1a)은 제2 마스터 로봇(1b)에 의한 실제 수술도구(460)의 조작 상황을 관찰할 수 있는 교육 모드로 전환할 수 있다(단계 2095).The
이제까지 도 20을 참조하여 제1 마스터 로봇(1a)에 대한 제어 권한을 제2 마스터 로봇(1b)이 가지는 경우를 중심으로 설명하였다. 그러나, 이와 반대의 경우로서, 제1 마스터 로봇(1a)이 제2 마스터 로봇(1b)으로 수술권한 종료요청을 전송할 수도 있을 것이다. 이는, 제2 마스터 로봇(1b)의 사용자에 의해 실제 수술도구(460) 조작이 이루어질 수 있도록 권한을 이전하기 위한 것으로서, 예를 들어 해당 수술부위의 수술이 쉽지 않거나 해당 수술부위의 수술이 매우 용이한 경우로서 교육상 필요한 경우 등에서 이용될 수 있을 것이다.20, the case where the
이외에도 복수의 마스터 로봇간에 수술권한이나 제어권한을 상호간에 이전하거나 하나의 마스터 로봇이 주도적인 권한 부여/회수가 가능하도록 하는 다양한 방안이 제한없이 고려 및 적용될 수 있다.
In addition, various methods for transferring operation authority or control authority among a plurality of master robots to each other, or for allowing a single master robot to grant / revoke authority can be considered and applied without limitation.
이제까지 관련도면을 참조하여 본 발명의 다양한 실시예들에 대해 설명하였다. 그러나 본 발명이 상술한 실시예들에 의해 제한되지 않으며, 보다 다양한 실시예들이 추가적으로 제시될 수 있다.Various embodiments of the present invention have been described above with reference to the related drawings. However, the present invention is not limited by the above-described embodiments, and a more various embodiments can be additionally suggested.
일 실시예로, 복수의 마스터 로봇이 통신망을 통해 연결되고, 교육 모드인 제4 모드에서 기능하는 경우, 학습자의 마스터 로봇(1) 제어 능력 또는 수술 능력에 대한 평가 기능이 수행될 수도 있다.In one embodiment, when a plurality of master robots are connected through a communication network and function in the fourth mode which is an education mode, the learner's ability to control the
교육 모드의 평가 기능은 실습 교사가 제1 마스터 로봇(1a)을 이용하여 수술을 진행하는 동안, 실습 학생은 제2 마스터 로봇(1b)의 암 조작부(330)를 조작하여 가상 수술도구(610)를 제어하는 과정에서 실행된다. 제2 마스터 로봇(1b)은 슬레이브 로봇(2)으로부터 복강경 영상을 수신하여 실제 수술도구(460)에 관한 특성값이나 특징 정보를 해석하고, 또한 실습 학생의 암 조작부(330) 조작에 따른 가상 수술도구(610)의 제어 과정을 해석한다. 이어서, 제2 마스터 로봇(1b)은 복강경 영상에 포함된 실제 수술도구(460)의 이동궤적 및 조작 형태와 실습 학생에 의한 가상 수술도구(610)의 이동 궤적 및 조작 형태의 유사성을 분석함으로써 실습 학생에 대한 평가 점수를 산출할 수 있다. The training mode evaluating function is a function that the practitioner manipulates the
다른 실시예로서, 가상 모드를 보다 개량한 시뮬레이션 모드인 제5 모드에서 마스터 로봇(1)은 입체내시경을 이용하여 얻은 3차원 형상에 장기의 특성을 결합하여 수술 시뮬레이터로 동작할 수도 있다. In another embodiment, the
예를 들어, 화면 표시부(320)를 통해 출력되는 복강경 영상 또는 가상 화면상에 간이 포함된 경우, 마스터 로봇(1)은 저장부에 저장된 간의 특성 정보를 추출하여 화면 표시부(320)에 출력된 간과 매칭시킴으로써 수술 도중 또는 수술과 별개로 가상 모드에서 수술 시뮬레이션이 수행되도록 할 수도 있다. 복강경 영상 등에 어떤 장기가 포함되었는지 여부는 예를 들어 통상의 영상 처리 및 인식 기술을 이용하여 해당 장기의 색상, 형상 등을 인식하고, 인식된 정보를 미리 저장된 장기의 특성 정보들과 비교함으로써 해석될 수 있다. 물론, 어떤 장기가 포함되었는지 및/또는 어떤 장기에 대한 수술 시뮬레이션을 수행할 것인지는 수술자에 의해 선택될 수도 있을 것이다.For example, when the laparoscopic image or the virtual screen output through the
이를 이용하여, 수술자는 실제로 간을 절제 또는 절단하기 전에 특성 정보와 매칭된 간의 형상을 이용하여 어떤 방향에서 어떻게 간을 절제하여야 하는지에 대한 사전수술 시뮬레이션을 진행할 수 있다. 수술 시뮬레이션 과정에서 마스터 로봇(1)은 특성 정보(예를 들어 수학적 모델링 정보 등)를 바탕으로 수술조작(예를 들어, 절제, 절단, 꿰맴, 당김, 누름 등 중 하나 이상)이 이루어지는 부분이 단단한지 또는 연한지 등에 대한 촉감이 수술자에게 전달되도록 할 수도 있다. Using this, the operator can perform pre-surgery simulation of how the liver should be resected in any direction using the characteristic information and the matching liver shape before actually cutting or cutting the liver. In the course of the surgical simulation, the
해당 촉감을 전달하는 방법으로는 예를 들어 포스 피드백 처리를 수행하거나 암 조작부(330)의 조작 민감도나 조작시 저항력(예를 들어 암 조작부(330)를 앞쪽으로 밀고자 할 때 이를 저지하는 저항력 등)을 조정하는 방법 등이 있다. As a method of transmitting the tactile sensation, for example, there is a method of performing force feedback processing, or the operation sensitivity of the
또한, 수술자의 조작에 의해 가상으로 절제 또는 절단된 장기의 단면이 화면 표시부(320)를 통해 출력되도록 함으로써 수술자에게 실제적인 절제 또는 절단의 결과를 예측하도록 할 수도 있다.In addition, a section of the organ virtually resected or cut by the operation of the operator can be output through the
또한, 마스터 로봇(1)은 수술 시뮬레이터로 기능함에 있어 화면 표시부(320)를 통해 입체 내시경을 이용하여 3차원적으로 얻은 장기의 표면 형상 정보와 CT, MRI 등의 참조 영상으로부터 재구성한 장기 표면의 3차원 형상과 정합하고, 참조 영상으로부터 재구성한 장기 내부의 3차원 형상과 특성 정보(예를 들어 수학적 모델링 정보)를 정합함으로써, 수술자에게 보다 사실적인 수술 시뮬레이션이 가능하도록 할 수도 있을 것이다. 상기 특성 정보는 해당 환자에 특화된 특성 정보일 수도 있으며, 범용으로 이용하기 위해 생성된 특성 정보일 수도 있다.
The
상술한 증강현실을 이용한 수술 로봇 시스템의 제어 방법은 소프트웨어 프로그램 등으로 구현될 수도 있다. 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.The control method of the surgical robot system using the augmented reality may be implemented by a software program or the like. The code and code segments that make up the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium, readable and executed by a computer, and implements the method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.
1, 1a, 1b: 마스터 로봇 2: 슬레이브 로봇
3: 로봇 암 4: 마스터 인터페이스
5: 복강경 6: 모니터부
10: 핸들 14: 클러치 버튼
310: 영상 입력부 320: 화면 표시부
330: 암 조작부 340: 조작신호 생성부
350: 증강현실 구현부 360: 제어부
710: 특성값 연산부 720: 가상 수술도구 생성부
730: 테스트 신호 처리부 740: 지연시간 산출부
910: 간격 연산부 920: 영상 해석부
1210: 네트워크 검증부 1410: 중첩 처리부
1420: 접촉 인식부1, 1a, 1b: master robot 2: slave robot
3: Robot arm 4: Master interface
5: Laparoscope 6: Monitor section
10: Handle 14: Clutch button
310: image input unit 320:
330: Cancer control unit 340: Operation signal generation unit
350: augmented reality realization part 360: control part
710: characteristic value calculating unit 720: virtual surgery tool generating unit
730: test signal processing unit 740: delay time calculating unit
910: interval calculating unit 920:
1210: Network verification unit 1410: Overlay processing unit
1420:
Claims (16)
상호간에 통신망을 통해 결합된 둘 이상의 마스터(master) 로봇; 및
임의의 마스터 로봇으로부터 수신되는 조작신호에 따라 제어되는 하나 이상의 로봇 암을 포함하는 슬레이브(slave) 로봇을 포함하되,
상기 마스터 로봇 각각은,
수술용 내시경으로부터 제공되는 영상 신호에 상응하는 내시경 영상을 디스플레이하는 화면 표시부;
하나 이상의 로봇 암을 각각 제어하기 위해 구비되는 하나 이상의 암 조작부; 및
상기 화면 표시부를 통해 가상 수술도구가 디스플레이되도록 하기 위해 상기 암 조작부를 이용한 사용자 조작에 따른 가상 수술도구 정보를 생성하는 증강현실 구현부를 포함하는 것을 특징으로 하는 수술 로봇 시스템.
As a surgical robot system,
Two or more master robots coupled to each other through a communication network; And
And a slave robot including at least one robot arm controlled in accordance with an operation signal received from an arbitrary master robot,
Wherein each of the master robots comprises:
A screen display unit for displaying an endoscopic image corresponding to a video signal provided from a surgical endoscope;
At least one arm operating section provided for respectively controlling at least one robot arm; And
And an augmented reality implementation unit for generating virtual surgery tool information according to a user operation using the dark operation unit to display a virtual surgery tool through the screen display unit.
상기 둘 이상의 마스터 로봇 중 어느 하나인 제1 마스터 로봇의 암 조작부 조작은 상기 가상 수술도구 정보의 생성을 위해서 기능하고, 상기 둘 이상의 마스터 로봇 중 다른 하나인 제2 마스터 로봇의 암 조작부 조작은 상기 로봇 암의 제어를 위해 기능하는 것을 특징으로 하는 수술 로봇 시스템.
The method according to claim 1,
Wherein the operation of the arm manipulation part of the first master robot, which is one of the two or more master robots, functions to generate the virtual surgical tool information, and the operation of the arm manipulation part of the second master robot, which is another one of the two or more master robots, Wherein the surgical robot system functions to control the cancer.
상기 제1 마스터 로봇의 암 조작부 조작에 따른 가상 수술도구 정보에 상응하는 가상 수술도구가 상기 제2 마스터 로봇의 화면 표시부를 통해 디스플레이되는 것을 특징으로 하는 수술 로봇 시스템.
The method of claim 3,
Wherein a virtual surgical tool corresponding to virtual surgical tool information according to an operation of a dark operation unit of the first master robot is displayed through a screen display unit of the second master robot.
장기(臟器) 선택 정보를 인식하는 단계; 및
미리 저장된 장기 모델링 정보를 이용하여 상기 장기 선택 정보에 상응하는 3차원 장기 이미지를 디스플레이하는 단계를 포함하되,
상기 장기 모델링 정보는 상응하는 장기의 내부 및 외부 각 지점의 형상, 색상 및 촉감 중 하나 이상을 포함하는 특성 정보를 가지는 것을 특징으로 하는 수술 시뮬레이션 방법.
1. A surgical simulation method performed by a master robot for controlling a slave robot including a robot arm,
Recognizing the organ selection information; And
Displaying the three-dimensional organ image corresponding to the organ selection information using previously stored long-term modeling information,
Wherein the long term modeling information has characteristic information including at least one of a shape, a hue, and a touch of each of internal and external points of a corresponding organ.
상기 장기 선택 정보를 인식하기 위하여,
수술용 내시경으로부터 입력되는 영상 신호를 이용하여 수술 부위 내에 포함된 장기의 색상 및 외형 중 하나 이상에 대한 정보를 해석하는 단계; 및
미리 저장된 장기 모델링 정보 중 상기 해석된 정보에 매치되는 장기를 인식하는 단계를 수행하는 것을 특징으로 하는 수술 시뮬레이션 방법.
9. The method of claim 8,
To recognize the organ selection information,
Analyzing information on at least one of a color and an appearance of an organ included in a surgical site using a video signal input from a surgical endoscope; And
And recognizing an organ matched with the interpreted information among the previously stored long term modeling information.
상기 장기 선택 정보는 하나 이상의 장기로서 수술자에 의해 선택 입력되는 것을 특징으로 하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Wherein the organ selection information is selected by one or more organs as an operator.
암 조작부 조작에 따른 상기 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계; 및
상기 장기 모델링 정보를 이용하여 상기 수술조작 명령에 따른 촉감 정보를 출력하는 단계를 더 포함하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Receiving a surgical operation command for the three-dimensional organ image in accordance with the operation of the dark operation unit; And
Further comprising the step of outputting tactile information according to the operation command using the long term modeling information.
상기 촉감 정보는 상기 암 조작부 조작에 따른 조작 민감도 및 조작 저항감 중 하나 이상을 제어하기 위한 제어 정보이거나 포스 피드백 처리를 위한 제어 정보인 것을 특징으로 하는 수술 시뮬레이션 방법.
12. The method of claim 11,
Wherein the tactile information is control information for controlling at least one of an operation sensitivity and an operation resistance according to the operation of the arm operation unit, or control information for a force feedback process.
암 조작부 조작에 따른 상기 3차원 장기 이미지에 대한 수술조작 명령을 입력받는 단계; 및
상기 장기 모델링 정보를 이용하여 상기 수술조작 명령에 따른 조작 결과 이미지를 디스플레이하는 단계를 더 포함하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Receiving a surgical operation command for the three-dimensional organ image in accordance with the operation of the dark operation unit; And
Further comprising the step of displaying an operation result image according to the surgical operation command using the long term modeling information.
상기 수술조작 명령은 절단, 꿰맴, 당김, 누름, 접촉에 따른 장기 변형, 전기수술에 의한 장기 손상, 혈관에서의 출혈 중 하나 이상인 것을 특징으로 하는 수술 시뮬레이션 방법.
The method according to any one of claims 11 to 13,
Wherein the surgical operation command is at least one of cutting, stitching, pulling, pushing, long-term deformation due to contact, organ damage due to electrosurgery, and bleeding in a blood vessel.
상기 장기 선택 정보에 따른 장기를 인식하는 단계; 및
미리 저장된 참조 영상에서 상기 인식된 장기의 명칭에 상응하는 위치의 참조 영상을 추출하여 디스플레이하는 단계를 더 포함하되,
상기 참조 영상은 엑스-레이(X-Ray) 영상, 컴퓨터단층촬영(CT) 영상 및 자기공명영상촬영(MRI) 영상 중 하나 이상인 것을 특징으로 하는 수술 시뮬레이션 방법.
9. The method of claim 8,
Recognizing an organ according to the organ selection information; And
Extracting and displaying a reference image at a position corresponding to a name of the recognized organ in a previously stored reference image,
Wherein the reference image is at least one of an X-ray image, a computed tomography (CT) image, and a magnetic resonance imaging (MRI) image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110033649A KR101447931B1 (en) | 2011-04-12 | 2011-04-12 | Surgical robot system using augmented reality and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110033649A KR101447931B1 (en) | 2011-04-12 | 2011-04-12 | Surgical robot system using augmented reality and control method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090025067A Division KR101108927B1 (en) | 2009-03-24 | 2009-03-24 | Surgical Robot System Using Augmented Reality and Its Control Method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110042277A KR20110042277A (en) | 2011-04-26 |
KR101447931B1 true KR101447931B1 (en) | 2014-10-13 |
Family
ID=44047798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110033649A KR101447931B1 (en) | 2011-04-12 | 2011-04-12 | Surgical robot system using augmented reality and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101447931B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019036456A3 (en) * | 2017-08-16 | 2019-03-28 | Intuitive Surgical Operations, Inc. | Systems and methods for monitoring patient motion during a medical procedure |
WO2019166829A3 (en) * | 2018-03-01 | 2019-11-28 | Cmr Surgical Limited | Electrosurgical connection unit |
WO2021112312A1 (en) * | 2019-12-06 | 2021-06-10 | 서울대학교산학협력단 | Augmented reality tool for implant surgery and implant surgery information visualization method |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101978740B1 (en) | 2012-02-15 | 2019-05-15 | 삼성전자주식회사 | Tele-operation system and control method thereof |
KR101711358B1 (en) * | 2012-05-02 | 2017-02-28 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | Four dimensional image registration using dynamical model for augmented reality in medical applications |
KR101448278B1 (en) * | 2013-02-18 | 2014-10-07 | 주식회사 케이티 | Method for matching control command about robot and video of robot, control apparatus |
KR20140112207A (en) | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | Augmented reality imaging display system and surgical robot system comprising the same |
WO2018132336A1 (en) | 2017-01-11 | 2018-07-19 | Magic Leap, Inc. | Medical assistant |
JP7342676B2 (en) * | 2019-12-13 | 2023-09-12 | トヨタ自動車株式会社 | Remote control system and remote control method |
KR102531400B1 (en) | 2021-03-19 | 2023-05-12 | 주식회사 인피니트헬스케어 | Artificial intelligence-based colonoscopy diagnosis supporting system and method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020120188A1 (en) * | 2000-12-21 | 2002-08-29 | Brock David L. | Medical mapping system |
US20030144649A1 (en) * | 2002-01-16 | 2003-07-31 | Modjtaba Ghodoussi | Tele-medicine system that transmits an entire state of a subsystem |
-
2011
- 2011-04-12 KR KR1020110033649A patent/KR101447931B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020120188A1 (en) * | 2000-12-21 | 2002-08-29 | Brock David L. | Medical mapping system |
US20030144649A1 (en) * | 2002-01-16 | 2003-07-31 | Modjtaba Ghodoussi | Tele-medicine system that transmits an entire state of a subsystem |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019036456A3 (en) * | 2017-08-16 | 2019-03-28 | Intuitive Surgical Operations, Inc. | Systems and methods for monitoring patient motion during a medical procedure |
US12004830B2 (en) | 2017-08-16 | 2024-06-11 | Intuitive Surgical Operations , Inc. | Systems and methods for monitoring patient motion during a medical procedure |
WO2019166829A3 (en) * | 2018-03-01 | 2019-11-28 | Cmr Surgical Limited | Electrosurgical connection unit |
EP3795106A1 (en) * | 2018-03-01 | 2021-03-24 | CMR Surgical Limited | Token-based electrosurgical instrument activation |
JP2021118844A (en) * | 2018-03-01 | 2021-08-12 | シーエムアール・サージカル・リミテッドCmr Surgical Limited | Galvanosurgery connection unit |
AU2020267153B2 (en) * | 2018-03-01 | 2022-05-19 | Cmr Surgical Limited | Electrosurgical connection unit |
JP7157124B2 (en) | 2018-03-01 | 2022-10-19 | シーエムアール・サージカル・リミテッド | electrosurgical connection unit |
US11857147B2 (en) | 2018-03-01 | 2024-01-02 | Cmr Surgical Limited | Token-based electrosurgical instrument activation |
US11882989B2 (en) | 2018-03-01 | 2024-01-30 | Cmr Surgical Limited | Electrosurgical connection unit |
WO2021112312A1 (en) * | 2019-12-06 | 2021-06-10 | 서울대학교산학협력단 | Augmented reality tool for implant surgery and implant surgery information visualization method |
Also Published As
Publication number | Publication date |
---|---|
KR20110042277A (en) | 2011-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101447931B1 (en) | Surgical robot system using augmented reality and control method thereof | |
KR101108927B1 (en) | Surgical Robot System Using Augmented Reality and Its Control Method | |
JP7195385B2 (en) | Simulator system for medical procedure training | |
US20110306986A1 (en) | Surgical robot system using augmented reality, and method for controlling same | |
CN102448680B (en) | The synthesis characterization of surgical operation robot | |
KR100957470B1 (en) | Surgical robot system using augmented reality and control method thereof | |
KR101598774B1 (en) | Apparatus and Method for processing surgical image | |
EP2405822A2 (en) | Method and system for minimally-invasive surgery training | |
EP3917428A1 (en) | Systems and methods for facilitating insertion of a surgical instrument into a surgical space | |
KR101114232B1 (en) | Surgical robot system and motion restriction control method thereof | |
KR100956762B1 (en) | Surgical robot system using history information and control method thereof | |
KR101114226B1 (en) | Surgical robot system using history information and control method thereof | |
KR101683057B1 (en) | Surgical robot system and motion restriction control method thereof | |
KR20110114421A (en) | Sensory Surgical Image Processing Apparatus and Method | |
KR101715026B1 (en) | Surgical robot system and motion restriction control method thereof | |
KR20150007517A (en) | Control method of surgical action using realistic visual information | |
KR101713836B1 (en) | Apparatus and Method for processing surgical image based on motion | |
KR101114237B1 (en) | Apparatus and method for processing surgical image based on motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20110412 Patent event code: PA01071R01D |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20140210 Comment text: Request for Examination of Application Patent event code: PA02011R04I Patent event date: 20110412 Comment text: Divisional Application of Patent |
|
PN2301 | Change of applicant |
Patent event date: 20140210 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20140310 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20140929 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20140930 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20140930 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20180831 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20180831 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190902 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20190902 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20200928 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20210330 Start annual number: 8 End annual number: 9 |
|
PR1001 | Payment of annual fee |
Payment date: 20230314 Start annual number: 10 End annual number: 12 |