[go: up one dir, main page]

CN115066209A - 用于缝合引导的系统和方法 - Google Patents

用于缝合引导的系统和方法 Download PDF

Info

Publication number
CN115066209A
CN115066209A CN202180012243.5A CN202180012243A CN115066209A CN 115066209 A CN115066209 A CN 115066209A CN 202180012243 A CN202180012243 A CN 202180012243A CN 115066209 A CN115066209 A CN 115066209A
Authority
CN
China
Prior art keywords
suture
tissue
site
configuration
guidance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180012243.5A
Other languages
English (en)
Inventor
德怀特·梅格兰
阿尔温德·K·拉马多雷
迈尔·罗森贝格
乔舒亚·R·斯诺
威廉·J·派纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Covidien LP
Original Assignee
Covidien LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Covidien LP filed Critical Covidien LP
Publication of CN115066209A publication Critical patent/CN115066209A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B17/04Surgical instruments, devices or methods for suturing wounds; Holders or packages for needles or suture materials
    • A61B17/0469Suturing instruments for use in minimally invasive surgery, e.g. endoscopic surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B17/04Surgical instruments, devices or methods for suturing wounds; Holders or packages for needles or suture materials
    • A61B17/06Needles ; Sutures; Needle-suture combinations; Holders or packages for needles or suture materials
    • A61B17/062Needle manipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00057Light
    • A61B2017/00061Light spectrum
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Surgical Instruments (AREA)

Abstract

一种组织缝合引导系统包含图像捕获装置、显示器和与所述图像捕获装置和所述显示器通信的处理器。所述图像捕获装置被配置成捕获缝合线部位。所述显示器被配置成显示所述缝合线部位的图像。所述处理器被配置成:基于所述缝合线部位的所述图像,确定所述缝合线部位的几何组织表示;获取所述缝合线部位的测量性质;基于所述缝合线部位的所述测量性质,确定所述缝合线部位的生物力学组织表示;以及基于所述缝合线部位的所述几何组织表示和生物力学组织表示,生成所述缝合线部位的缝合配置。

Description

用于缝合引导的系统和方法
技术领域
本公开总体上涉及一种手术系统,并且更具体地,涉及一种用于执行缝合引导的手术系统。
背景技术
手术缝合是在创伤或来自微创手术的手术切口等之后修复组织的组成部分。通常,缝合是手动过程,其中临床医生根据他们对情况的判断和/或经验来确定缝合过程的各个方面以实现组织的适当缝合。
手术缝合仍然是机器人辅助手术中最具挑战性的任务之一。手术缝合包含许多对外科医生或临床医生来说是认知挑战的子任务。这些子任务包含(1)定位适当的针刺入点;(2)垂直于一对夹爪抓住针;(3)针轨迹的设想;(4)使消融组织接近设想的针出口位点;(5)将针的尖端(例如,弯针)插入期望位置;(6)使针沿遵循针曲率的轨迹旋转;(7)抓住突出的针或针的尖端;(8)沿着遵循针曲率的路径将针拉出;以及(9)重复或打结附在针上的缝合线。
上述子任务中的每一个在认知上都是具有挑战性的。在工具运动学难以设想(弯曲或柔性工具)的情况下或针不垂直于工具或器械的一对夹爪的情况下尤其如此。
因此,所关注的是,通过视觉传达提议的针轨迹并在外科医生的监督下自动执行期望的路径来减少与上述子任务2-8相关联的认知负荷。
所关注的是,补充临床医生的判断或经验并提高缝合结果的功效。
发明内容
本公开提供了组织缝合引导系统。所述组织缝合引导系统包含图像捕获装置、显示器和与所述图像捕获装置和所述显示器通信的处理器。所述图像捕获装置被配置成捕获缝合线部位的图像。所述显示器被配置成显示所述缝合线部位的所述图像。所述处理器被配置成:基于所述缝合线部位的所述图像,确定所述缝合线部位的几何组织表示;获取所述缝合线部位的测量性质;基于所述缝合线部位的所述测量性质,确定所述缝合线部位的生物力学组织表示;以及基于所述缝合线部位的所述几何组织表示和生物力学组织表示,生成所述缝合线部位的缝合配置。
在所述系统的各个实施例中,所述图像捕获装置是提供立体图像的立体内窥镜。
在所述系统的各个实施例中,在确定所述几何组织表示时,所述处理器被配置成基于所述立体图像执行三维表面重建以确定所述缝合线部位的所述几何组织表示。
在所述系统的各个实施例中,所述图像捕获装置被进一步配置成执行所述缝合线部位的多光谱成像以提供所述缝合线部位的所述测量性质。
在所述系统的各个实施例中,所述组织缝合引导系统包含存储组织类型和分布的存储器,其中所述处理器被配置成基于所述存储的组织类型和分布来确定所述缝合线部位的所述测量性质。
在所述系统的各个实施例中,在生成所述缝合配置时,所述处理器被配置成基于所述缝合线部位的所述几何和生物力学组织表示来模拟缝合线在目标位置的放置,以生成所述缝合线部位的所述缝合配置。
在所述系统的各个实施例中,在生成所述缝合配置时,所述处理器被配置成基于模拟得出的跨所述缝合线部位的组织到组织界面的压力(如通过所述缝合部位的基于生物力学的模拟计算的)是否在促进组织再生的压力的预定范围内来确定所述缝合配置的有效性。
在所述系统的各个实施例中,基于所述缝合线部位的几何组织模型,所述组织到组织界面对应于所述缝合线部位的组织面。
在所述系统的各个实施例中,所述处理器被配置成接收期望的缝合线放置的输入,并且在生成所述缝合配置时,所述处理器被配置成基于所述期望的缝合线放置来生成所述缝合配置。
在所述系统的各个实施例中,所述处理器被配置成在缝合线程序的进展期间更新所述缝合配置。
在所述系统的各个实施例中,所述缝合配置包含缝合线类型、缝合线张力、缝合线环频率、针、缝合线放置或缝合线路径中的至少一者。
在所述系统的各个实施例中,所述进展包含执行所述缝合线程序的临床医生或机器人手术系统中之一者。
在所述系统的各个实施例中,所述显示器被配置成将所述缝合配置覆盖在所述缝合线部位的所述图像上。
在另一方面,本公开提供一种组织缝合引导的方法。所述方法包含:通过图像捕获装置捕获缝合线部位;通过显示器显示所述缝合线部位的图像;基于所述缝合线部位的所述图像,确定所述缝合线部位的几何组织表示;获取所述缝合线部位的测量性质;基于所述缝合线部位的所述测量性质,确定所述缝合线部位的生物力学组织表示;以及基于所述缝合线部位的所述几何组织表示和生物力学组织表示,生成所述缝合线部位的缝合配置。
在所述方法的各个实施例中,确定所述缝合线部位的所述几何组织表示包含执行三维表面重建以确定所述缝合线部位的所述几何组织表示。
在所述方法的各个实施例中,所述方法包含对所述缝合线部位执行多光谱成像以提供所述缝合线部位的所述测量性质。
在所述方法的各个实施例中,生成所述缝合配置包含基于所述缝合线部位的所述几何和生物力学组织表示来模拟缝合线在目标位置的放置。
在所述方法的各个实施例中,所述方法包含接收期望的缝合线放置的输入,以及基于模拟得出的跨所述缝合线部位的组织到组织界面的压力(如通过所述缝合部位的基于生物力学的模拟计算的)是否在促进组织再生的压力的预定范围内来确定所述缝合配置的有效性。
在所述方法的各个实施例中,所述方法包含在缝合线程序的进展期间更新所述缝合配置。
在所述方法的各个实施例中,所述方法包含将所述缝合配置覆盖在所述缝合线部位的所述图像上。
附图说明
图1是根据本公开的方面提供的示例性组织缝合引导系统的框图;
图2A是显示器的框图,所述显示器显示根据本公开的方面在外科缝合程序之前的示例性缝合线部位;
图2B是显示器的框图,所述显示器显示在手术缝合程序期间的图2A的示例性缝合线部位;并且
图3是根据本公开的方面的为缝合线部位生成缝合线配置的示例性操作的流程图。
在以下附图和描述中阐述了本公开的一个或多个方面的细节。本公开中所描述的技术的其它特征、目的和优点将根据描述和附图以及权利要求变得显而易见。
具体实施方式
参考附图详细描述当前公开的组织缝合引导系统的实施例,在附图中,相似的附图标记在若干视图中的每个视图中表示相同或对应的元件。
如本文所使用的,术语“临床医生”指代医生、护士或其它医护人员,并且可以包含辅助人员。在以下描述中,未详细描述熟知功能或构造以避免以不必要的细节混淆本公开。
本公开总体上涉及一种组织缝合引导系统,所述组织缝合引导系统被配置成评估缝合线部位并基于对所述缝合线部位的评估为所述缝合线部位生成有效的缝合线配置。本文所公开的特定说明和实施例仅是示例性的,并不限制所公开技术的范围或适用性。
参考图1,根据本公开的方面提供了示例性组织缝合引导系统10。组织缝合引导系统10通常包含控制器100、图像捕获装置200、显示器300和一个或多个传感器400。组织缝合引导系统10在本文中详细描述为用于人的组织缝合的引导系统,然而,其它应用也被考虑。将结合缝合线部位描述组织缝合引导系统10的方面。
控制器100包含处理器105和存储器110。处理器105可以是执行机器指令的任何可编程装置,如以下一者或多者:中央处理单元、微控制器、数字信号处理器、图形处理单元、现场可编程门阵列和/或可编程逻辑器件等。存储器110可以包含易失性存储器,如随机存取存储器,和/或非易失性存储器,如闪存和/或磁存储器。如以下更详细解释的,存储器110包含软件指令,其实施图像处理和组织相关计算以确定特定缝合线部位的缝合线放置。软件指令由处理器105执行以执行处理和计算,这将在下文更详细地描述。
在各个实施例中,缝合线部位可以在人的身体上或身体内。图像捕获装置200可以是一种类型并且可以具有适合于缝合线部位的位置。例如,在缝合线部位在人体内的情况下,图像捕获装置200可以是定位在人的体腔内的立体内窥镜。如下文更详细讨论的,立体内窥镜可以实施表面扫描技术,从而可以构建缝合线部位的三维表示。在缝合线部位在人的身体上的情况下,图像捕获装置200可以是定位在人体外的手术室设备上的立体相机。图像捕获装置及其定位的其它变型被考虑在本公开的范围内。
在图1的图示中,图像捕获装置200通信地耦接到控制器100,所述控制器通信地耦接到显示器300。在各个实施例中,显示器300可以是平板显示器,如LED显示器,并且可以是独立的显示器或者可以是与其它装置/设备集成的显示器。在各个实施例中,显示器300可以是耳机显示器,如增强现实耳机的显示器。显示器300的其它变型被考虑在本公开的范围内。
下面将更详细地描述组织缝合引导系统10的传感器400。现在,注意到传感器400可以包含多光谱成像装置和/或光学相干断层扫描装置就足够了,并且可以测量待缝合的组织的性质,如但不限于组织水分或密度。控制器100可以使用此类组织性质测量结果来确定缝合线部位的组织的生物力学表示。
图2A和2B示出了由图像捕获装置200捕获的示例性缝合线部位602的图像或视频的显示。如上所述,缝合线部位602可以在人的身体上或在人的身体内。临床医生通常依靠自己的判断和经验来放置缝合线以重新接近组织。目的是以允许尽可能多的组织面604接触的方式彼此接近地放置那些组织面604,以及在整个组织界面上施加并维持适当的压力。实现该目标的参数包含:选择缝合线“S”及其附接的针头“N”的类型、放置位置/路径、缝合线环的频率和/或在结创建过程中产生的缝合线“S”的张力,以及其它参数。根据本公开的方面,组织缝合引导系统可以评估缝合线部位602以向临床医生提供关于这些参数的建议。
作为实例,缝合线部位的图像/视频可以被实时增强以包含指示缝合线/针放置位置和/或用于重新接近缝合线部位602的组织的路径的标志物610。如下所述,标志物610的位置等可以由组织缝合引导系统实时确定,并且可以在缝合程序之前和期间动态更新和显示。因此,如果临床医生偏离所指示的位置和/或路径,则标志物610的位置可以基于临床医生执行的实际针/缝合线“N/S”放置而动态改变。例如,当位置和/或路径可接受/部分可接受/不可接受时,标志物610可以从绿色/黄色/红色或在绿色/黄色/红色之间改变颜色,或者标志物610可以开始脉动、改变形状等以用于任何预定条件。
参考图3,示出了用于为缝合线部位提供缝合线配置的示例性操作的流程图。一般来说,图3的操作实时获取缝合部位的图像和测量结果,以确定缝合线部位的几何表示并确定缝合线部位的生物力学表示。这些表示然后用于确定允许尽可能多的组织面接触并且允许在整个组织界面上施加和维持适当压力的缝合参数。所公开程序的方面由处理器执行的机器指令实施。
在步骤505处,并且还参考图1,组织引导系统10的处理器105被配置成确定缝合线部位的几何组织表示。在确定缝合线部位的几何组织表示时,组织缝合引导系统10的图像捕获装置200实时捕获缝合线部位的立体图像和/或视频。为方便起见,以下描述将使用图像,但应理解,所公开的实施例和技术也适用于视频。处理器105访问捕获的图像以基于所述捕获的图像执行实时三维表面重建。处理器105基于捕获的图像和三维表面重建生成缝合线部位的实时几何组织表示。本领域技术人员将认识到用于执行三维表面重建的技术,包含有限元建模、边界元技术和/或无网格技术等。
在步骤510处,组织缝合引导系统10获取缝合线部位的一种或多种性质。为了从缝合线部位获得一种或多种测量性质,例如缝合线部位周围的组织的类型,组织缝合引导系统10可以执行缝合线部位的多光谱成像和/或光学相干断层扫描等。用于使用多光谱成像来确定各种组织性质的技术在例如美国专利第8,961,504号中进行了描述,所述专利通过引用整体并入本文。用于执行光学相干断层扫描的技术在例如美国专利第9,572,529号中进行了描述,所述专利通过引用整体并入本文。在一些实施例中,多光谱成像和/或光学相干断层扫描可以由图像捕获装置200或由独立的图像捕获装置执行。
在步骤515中,基于缝合线部位的一种或多种测量性质,如基于组织水分、组织水分的分布和/或组织密度,确定缝合线部位的生物力学组织表示。考虑了各种技术来确定生物力学组织表示,如例如组织的实时计算物理建模和/或手术模拟技术。例如,各种技术由以下文献描述:例如,Zhang等人,“用于手术模拟的可变形模型:一项调查(DeformableModels for Surgical Simulation:A Survey)”,《IEEE生物医学工程评论)》,第11卷,第143–164页(2017年11月14日);以及Cueto等人,“用于计算性手术的实时模拟:回顾(Realtime simulation for computational surgery:a review)”,《工程科学高级建模与仿真(Adv.Model.and Simul.in Eng.Sci.)》1,11(2014年4月29日),两者的全部内容均通过引用并入本文。
在步骤520处,基于缝合线部位的几何组织表示和生物力学组织表示来生成缝合线部位的缝合配置。几何组织表示提供关于缝合线部位的形状的信息,而生物力学组织表示提供关于缝合线部位的组织行为的信息。在生成缝合线配置时,对缝合线的各种选择、缝合线在目标位置处的放置以及缝合线张力等进行模拟,以确定各种缝合配置的有效性。缝合线配置可以包含缝合线类型、缝合线张力、缝合线环频率、缝合线放置和/或缝合线路径等。各种缝合配置的有效性是基于模拟得出的跨缝合线部位的组织到组织界面(例如,缝合线部位的组织面相通的地方)的压力是否基本一以及是否在适合组织再生或重新连接的预定范围内来确定的。换言之,可以基于组织近似来确定有效性,所述组织近似允许尽可能多的组织面彼此接触,其中适当的压力放置在组织面上并维持在整个组织面上。可以基于几何组织表示和生物力学组织表示来确定跨组织到组织界面的组织近似和压力的确定。
在各个实施例中,预定的或适当的压力可以基于来自临床医生和/或机器人手术系统的输入。
在各个实施例中,预定的或适当的压力可以基于伤口愈合研究,所述伤口愈合研究针对实现适当的组织接触压力,包含最小压力和最大压力阈值,以避免由于对组织界面的压力不足或过大而引起的不利影响(例如,组织重塑和/或组织衰竭)。
在各个实施例中,对缝合线配置模拟进行比较,以识别出比其它缝合线配置执行得更好的特定缝合线配置。例如,如图2A和2B所示,处理器105通过将缝合线配置覆盖在缝合线部位的图像上和/或将标志物610覆盖在手术部位的图像上,并通过显示缝合线配置参数,如缝合线类型和缝合线张力(未示出),使显示器300实时显示识别出的缝合线配置。
在一些实施例中,组织缝合引导系统10的处理器105被进一步配置成从临床医生或机器人手术系统接收关于针“N”和/或缝合线“S”在缝合线部位的期望放置的输入。在实践中,临床医生或机器人手术系统操纵手术器械10的夹爪12以改变针“N”的位置和姿势,并将缝合线“S”拉过组织。基于期望的放置,处理器105通过基于缝合线部位的几何和生物力学组织表示模拟期望的放置来调整缝合配置。鉴于期望的放置,调整缝合线配置以增加缝合线配置的有效性。处理器105通过将缝合线配置覆盖在缝合线部位的图像上,使显示器300实时显示缝合线配置。
在一些实施例中,组织缝合引导系统10的处理器105被进一步配置成在临床医生或机器人手术系统进行缝合线程序期间更新缝合线配置。当在缝合线程序的进展期间更新缝合线配置时,处理器105在几何和生物力学组织表示中使用已经放置的缝合线“S”并确定缝合线部位的其余部分的缝合线配置。处理器105通过将更新的缝合线配置覆盖在缝合线部位的图像上,使显示器300实时显示更新的缝合线配置。
此外,在实施例中,组织缝合引导系统10可以被配置成在缝合线程序的进展期间提供评估和反馈,并且在显示器300上显示缝合线程序进展的评估和反馈。缝合线程序进展的反馈可以包含,例如,对跨组织到组织界面和缝合线-组织接触的压力的实时模拟导出的估计,以确定组织界面上的压力是否不足或过大。在这种情况下,由组织缝合引导系统10提供的评估和反馈估计组织界面上的压力不足或过大,组织缝合引导系统10可以提供警报和/或补救措施以调整跨组织到组织界面的压力。
根据本公开的实施例,组织缝合引导系统10和/或处理器105被配置成并且能够:(1)实时地使用图像处理来评估针“N”相对于夹爪12的位置和姿势;以及(2)建立组合的工具-针运动学。一旦已经建立了工具-针运动学,组织缝合引导系统10和/或处理器105就能够以类似于这些轨迹的方式模拟期望的工具/针轨迹。以这种方式,现在可以根据临床医生的选择自动或手动执行子任务2-8(上文详述)。具体来说,这些子任务至少包含:(2)垂直于一对夹爪抓针;(3)针轨迹的设想;(4)使消融组织接近设想的针出口位点;(5)将针的尖端(例如,弯针)插入期望位置;(6)使针沿遵循针曲率的轨迹旋转;(7)抓住突出的针或针的尖端;(8)沿着遵循针曲率的路径将针拉出。
根据本公开进一步考虑,组织缝合引导系统10和/或处理器105能够:监测和识别适当的针刺入点(标志物610),并通过将针“N”的尖端“指向”该刺入点进行虚拟地标记;使用图像处理来识别针“N”在夹爪12中的位置、定向和姿势;生成在3D中模拟针轨迹的路径(在弯曲针的情况下为圆或弧);使临床医生能够将消融组织带到预期的针出口点;使临床医生能够命令系统执行缝合任务;以及使临床医生能够抓住突出的针“N”并命令组织缝合引导系统10和/或处理器105。
如上所述,本公开涉及使用视觉来识别针“N”相对于夹爪12的定向,然后更新运动学控制器以允许用户,并允许自动运动规划,放置针“N”的尖端并遵循由针“N”的曲线定义的曲率路径。
在另外的实施例中,根据本公开,组织缝合引导系统10和/或处理器105能够评估作为缝合目标的底层组织(例如,缝合线部位602和/或组织面604)的性质。组织性质可以包含并且不限于组织完整性(如识别烧灼热损伤的程度);组织密度和硬度(以确保选择的针“N”被适当测量以能够穿透组织而不会断裂);和组织瘢痕的存在(其中可以使用带刺的缝合线“S”来帮助穿透组织)。组织缝合引导系统10和/或处理器105可能能够识别提议的针刺入点(例如,标志物610)与组织边缘(例如,组织面604)之间的距离和/或组织分离或切口开始/结束的位置。
如上所述,组织缝合引导系统10和/或处理器105能够识别针“N”的性质和/或缝合线“S”的材料,例如并且不限于针“N”的厚度或规格、针“N”的曲率半径、缝合线“S”的直径和/或缝合线“S”的表面特征(例如,带刺的或无刺/光滑的)。
如果/当提议的针刺入点(例如,标志物610)和上述信息(例如,关于组织、针“N”和/或缝合线“S”的性质)的组合可能导致对组织等的不期望的影响时,组织缝合引导系统10和/或处理器105可能能够向临床医生的外科医生发出警告。
此外,组织缝合引导系统10和/或处理器105能够在外科缝合程序之前或期间提供对针“N”的移动方向和/或定向的引导,由此组织缝合缝合引导系统10和/或处理器105向机器人手术系统提供信息以调整机器人手术臂及其部件,从而对手术缝合程序进行调整以确保手术缝合程序可在机器人手术系统的运动学关节范围内完成。
然而,根据本公开的另一方面,组织缝合引导系统10和/或处理器105能够、可以被修改或配置为用于识别和跟踪电子辐射源(未示出)的视觉引导系统,所述电子辐射源用于术中放射治疗程序并在肿瘤等被切除后应用于潜在的癌症部位。例如,辐射源可以被机器人工具的夹爪12抓住。视觉引导系统可以识别辐射源相对于夹爪12的定向,然后将“夹爪工具”组合件视为新的末端执行器。然后,视觉引导系统可以在目标组织上以预定路径扫描辐射源,以使用均匀且已知剂量的辐射覆盖整个区域。然后,机器人手术系统可以改变机器人手术臂运动的运动学方程,以调整“夹爪工具”组合件。虽然这可以通过使用夹具等将工具与夹爪12以预定配置对齐来通过机械方式实现,但通过使用视觉引导系统来确定辐射源和夹爪12之间的相对位置,一种更灵活的方法是可能的,并且可以使用夹爪12对辐射源的任何抓握定向。
根据本公开进一步设想和考虑的是,视觉引导系统可用于识别手术工具以及由工具的夹爪12抓握的物品相对于夹爪12和/或工具的定向;在手术任务或手术程序期间监测的抓握定向,并主动调整工具和/或手术机器人臂等的移动的运动学和动力学;跟踪目标组织并相应地调整工具和/或手术机器人臂的运动;测量工具的缺陷并相应地调整末端执行器的运动学/动力学(例如,对于非刚性工具,如裸激光光纤等);识别工具相对于夹爪12的三维(“3D”)位置;和/或向机器人手术系统提供信息,使得机器人手术系统可以调整机器人手术臂的运动学和动力学,以控制作为其末端执行器的一部分的夹爪/工具组合件。
根据本公开,还考虑了该工具可以是触觉探针,由此机器人手术系统然后可以将来自该工具的任何触觉反馈结合到用于手术机器人臂的调整后的运动学中。
根据本公开,进一步考虑的是,组织缝合引导系统10和/或处理器105也可以被调整或配置成识别和跟踪缝合线“S”。具体地说,组织缝合引导系统10和/或处理器105可以识别和跟踪缝合线“S”上的定向和长度。在一个实施例中,经考虑的是,缝合线“S”可以沿着其整个长度设置有度量标记,并且其中组织缝合引导系统10和/或处理器105可以被配置成识别和跟踪缝合线“S”的这些度量标记,以确定和计算缝合线“S”的长度在手术程序期间随时间增加或拉伸。以这种方式,组织缝合引导系统10和/或处理器105可以向机器人手术系统提供反馈,由此机器人手术系统和/或其控制器/处理器105可以对手术机器人臂和/或工具进行实时主动调整,以适应缝合线“S”长度的任何变化。
根据本公开的方面,组织缝合引导系统10可以包含实施机器学习的人工智能学习机器。人工智能学习机的训练可以基于例如由临床医生或机器人手术系统执行的缝合线程序的图像,这些图像根据模拟得出的跨组织到组织界面的压力、缝合调整、建议的补救措施和/或结果的成功进行标记。临床医生或机器人手术系统执行的缝合线程序的图像或视频可用于机器学习,以在模拟之前改进缝合线在目标位置的初始放置。在缝合配置的模拟期间,跨组织到组织界面的压力可以由训练有素的人工智能学习机器确定,以帮助更准确和快速地确定最有效的缝合配置。在各个实施例中,训练有素的人工智能学习机可能能够分析缝合部位的图像/视频,并在不需要模拟的情况下为缝合线部位提供缝合配置。
术语“人工智能”、“学习机”和“机器学习”可以包含但不限于神经网络、深度神经网络、贝叶斯回归(Bayesian Regression)、朴素贝叶斯(Naive Bayes)、蒙特卡罗方法(Monte Carlo Method)、最近邻、最小二乘、均值和支持向量回归,以及其它数据科学和人工科学技术。如上所述,人工智能学习机的示例性实施可以识别模式并做出与适当缝合线放置相关的预测。
应当理解,本文公开的各个方面可以与说明书和附图中具体呈现的组合不同的组合进行组合。还应理解的是,依据示例,本文所描述的过程或方法中的任一个的某些动作或事件可以以不同顺序执行,可以被添加、合并或完全省略(例如,所有描述的动作或事件对于执行技术可能不是必需的)。另外,尽管出于清楚的目的,将本公开的某些方面描述为由单个模块或单元来执行,但应理解,本公开的技术可以通过与,例如,医疗装置相关联的单元或模块的组合来执行。
在一个或多个实例中,所描述的技术可以在硬件、软件、固件或其任何组合中实施。如果以软件实现,则功能可以作为一个或多个指令或代码存储在计算机可读介质上,并由基于硬件的处理单元执行。计算机可读介质可以包含非暂时性计算机可读介质,其对应于有形介质,诸如数据存储介质(例如,RAM、ROM、EEPROM、闪存或可用于存储呈指令或数据结构形式的期望程序代码并可由计算机访问的任何其它介质)。
指令可以由一个或多个处理器执行,诸如一个或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)或其它等效的集成或离散逻辑电路系统。因此,如本文中所使用的术语“处理器”可以指任何前述结构或适合于实施所描述技术的任何其它物理结构。而且,所述技术可完全实施于一个或多个电路或逻辑元件中。

Claims (20)

1.一种组织缝合引导系统,其包括:
图像捕获装置,所述图像捕获装置被配置成捕获缝合线部位的图像;
显示器,所述显示器被配置成显示所述缝合线部位的所述图像;以及
与所述图像捕获装置和所述显示器通信的处理器,所述处理器被配置成:
基于所述缝合线部位的所述图像,确定所述缝合线部位的几何组织表示;
获取所述缝合线部位的测量性质;
基于所述缝合线部位的所述测量性质,确定所述缝合线部位的生物力学组织表示;以及
基于所述缝合线部位的所述几何组织表示和所述生物力学组织表示,生成所述缝合线部位的缝合配置。
2.根据权利要求1所述的组织缝合引导系统,其中所述图像捕获装置是提供立体图像的立体内窥镜。
3.根据权利要求2所述的组织缝合引导系统,其中在确定所述几何组织表示时,所述处理器被配置成基于所述立体图像执行三维表面重建以确定所述缝合线部位的所述几何组织表示。
4.根据权利要求1所述的组织缝合引导系统,其中所述图像捕获装置被进一步配置成执行所述缝合线部位的多光谱成像以提供所述缝合线部位的所述测量性质。
5.根据权利要求1所述的组织缝合引导系统,其进一步包括存储组织类型和分布的存储器,其中所述处理器被进一步配置成基于所述存储的组织类型和分布来确定所述缝合线部位的所述测量性质。
6.根据权利要求1所述的组织缝合引导系统,其中在生成所述缝合配置时,所述处理器被配置成基于所述缝合线部位的所述几何和生物力学组织表示来模拟缝合线在目标位置的放置,以生成所述缝合线部位的所述缝合配置。
7.根据权利要求6所述的组织缝合引导系统,其中在生成所述缝合配置时,所述处理器被配置成基于模拟得出的跨所述缝合线部位的组织到组织界面的压力(如通过所述缝合部位的基于生物力学的模拟计算的)是否在促进组织再生的压力的预定范围内来确定所述缝合配置的有效性。
8.根据权利要求7所述的组织缝合引导系统,其中基于所述缝合线部位的几何组织模型,所述组织到组织界面对应于所述缝合线部位的组织面。
9.根据权利要求6所述的组织缝合引导系统,其中所述处理器被进一步配置成接收期望的缝合线放置的输入,并且其中在生成所述缝合配置时,所述处理器被配置成基于所述期望的缝合线放置来生成所述缝合配置。
10.根据权利要求1所述的组织缝合引导系统,其中所述处理器被进一步配置成在缝合线程序的进展期间更新所述缝合配置。
11.根据权利要求10所述的组织缝合引导系统,其中所述缝合配置包含缝合线类型、缝合线张力、缝合线环频率、针类型、缝合线放置或缝合线路径中的至少一者。
12.根据权利要求10所述的组织缝合引导系统,其中所述进展包含执行所述缝合线程序的临床医生或机器人手术系统中之一者。
13.根据权利要求10所述的组织缝合引导系统,其中所述显示器被进一步配置成将所述缝合配置覆盖在所述缝合线部位的所述图像上。
14.一种组织缝合引导的方法,所述方法包括:
通过图像捕获装置捕获缝合线部位;
通过显示器显示所述缝合线部位的图像;
基于所述缝合线部位的所述图像,确定所述缝合线部位的几何组织表示;
获取所述缝合线部位的测量性质;
基于所述缝合线部位的所述测量性质,确定所述缝合线部位的生物力学组织表示;以及
基于所述缝合线部位的所述几何组织表示和生物力学组织表示,生成所述缝合线部位的缝合配置。
15.根据权利要求14所述的方法,其中确定所述缝合线部位的所述几何组织表示包含执行三维表面重建以确定所述缝合线部位的所述几何组织表示。
16.根据权利要求14所述的方法,其进一步包括对所述缝合线部位执行多光谱成像以提供所述缝合线部位的所述测量性质。
17.根据权利要求14所述的方法,其中生成所述缝合配置包含基于所述缝合线部位的所述几何和生物力学组织表示来模拟缝合线在目标位置的放置。
18.根据权利要求17所述的方法,其进一步包括
接收期望的缝合线放置的输入;以及
基于模拟得出的跨所述缝合线部位的组织到组织界面的压力(如通过所述缝合部位的基于生物力学的模拟计算的)是否在促进组织再生的压力的预定范围内来确定所述缝合配置的有效性。
19.根据权利要求14所述的方法,其进一步包括在缝合线程序的进展期间更新所述缝合配置。
20.根据权利要求19所述的方法,其进一步包括将所述缝合配置覆盖在所述缝合线部位的所述图像上。
CN202180012243.5A 2020-02-06 2021-01-08 用于缝合引导的系统和方法 Pending CN115066209A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062970808P 2020-02-06 2020-02-06
US62/970,808 2020-02-06
PCT/US2021/012578 WO2021158328A1 (en) 2020-02-06 2021-01-08 System and methods for suturing guidance

Publications (1)

Publication Number Publication Date
CN115066209A true CN115066209A (zh) 2022-09-16

Family

ID=74495097

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180012243.5A Pending CN115066209A (zh) 2020-02-06 2021-01-08 用于缝合引导的系统和方法

Country Status (4)

Country Link
US (1) US20230015516A1 (zh)
EP (1) EP4099915A1 (zh)
CN (1) CN115066209A (zh)
WO (1) WO2021158328A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116458945A (zh) * 2023-04-25 2023-07-21 杭州整形医院有限公司 一种儿童面部美容缝合路线的智能引导系统及方法
CN116672011A (zh) * 2023-06-25 2023-09-01 广州医科大学附属第四医院(广州市增城区人民医院) 一种智能化打结系统
CN118823540A (zh) * 2024-09-13 2024-10-22 浙江华诺康科技有限公司 缝合质量评估方法、系统、计算机设备和存储介质
TWI875496B (zh) * 2024-02-29 2025-03-01 奇美醫療財團法人奇美醫院 縫合手術手部姿勢比對裝置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220047339A1 (en) * 2020-08-13 2022-02-17 Covidien Lp Endoluminal robotic (elr) systems and methods
US20220265361A1 (en) * 2021-02-23 2022-08-25 Asensus Surgical Us, Inc. Generating suture path guidance overlays on real-time surgical images
US20220265372A1 (en) * 2021-02-23 2022-08-25 Asensus Surgical Us, Inc. Displaying Suture Force Information in Surgery
EP4322861A1 (en) * 2021-04-15 2024-02-21 Covidien LP Systems, methods and programs for estimating needle pose

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003232063A1 (en) * 2002-05-06 2003-11-11 Institute For Infocomm Research Simulation system for medical procedures
US8961504B2 (en) 2010-04-09 2015-02-24 Covidien Lp Optical hydrology arrays and system and method for monitoring water displacement during treatment of patient tissue
US8693730B2 (en) * 2011-11-15 2014-04-08 Macdonald Dettwiler & Associates Inc. Method of real-time tracking of moving/flexible surfaces
US9220570B2 (en) * 2012-06-29 2015-12-29 Children's National Medical Center Automated surgical and interventional procedures
US9572529B2 (en) 2012-10-31 2017-02-21 Covidien Lp Surgical devices and methods utilizing optical coherence tomography (OCT) to monitor and control tissue sealing
WO2018225132A1 (ja) * 2017-06-05 2018-12-13 オリンパス株式会社 医療システムおよび医療システムの作動方法
US20190069957A1 (en) * 2017-09-06 2019-03-07 Verily Life Sciences Llc Surgical recognition system
CA3088004A1 (en) * 2018-01-10 2019-07-18 Covidien Lp Guidance for positioning a patient and surgical robot
EP3745982A1 (en) * 2018-04-27 2020-12-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US11571205B2 (en) * 2018-07-16 2023-02-07 Cilag Gmbh International Surgical visualization feedback system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116458945A (zh) * 2023-04-25 2023-07-21 杭州整形医院有限公司 一种儿童面部美容缝合路线的智能引导系统及方法
CN116458945B (zh) * 2023-04-25 2024-01-16 杭州整形医院有限公司 一种儿童面部美容缝合路线的智能引导系统及方法
CN116672011A (zh) * 2023-06-25 2023-09-01 广州医科大学附属第四医院(广州市增城区人民医院) 一种智能化打结系统
CN116672011B (zh) * 2023-06-25 2023-11-28 广州医科大学附属第四医院(广州市增城区人民医院) 一种智能化打结系统
TWI875496B (zh) * 2024-02-29 2025-03-01 奇美醫療財團法人奇美醫院 縫合手術手部姿勢比對裝置
CN118823540A (zh) * 2024-09-13 2024-10-22 浙江华诺康科技有限公司 缝合质量评估方法、系统、计算机设备和存储介质

Also Published As

Publication number Publication date
US20230015516A1 (en) 2023-01-19
WO2021158328A1 (en) 2021-08-12
EP4099915A1 (en) 2022-12-14

Similar Documents

Publication Publication Date Title
US20230015516A1 (en) System and methods for suturing guidance
US12256923B2 (en) Endoluminal robotic systems and methods for suturing
US12364555B2 (en) Medical devices, systems, and methods using eye gaze tracking
CN111343941B (zh) 机器人工具控制
US12193750B2 (en) Multi-arm robotic system for spine surgery with imaging guidance
US20230000565A1 (en) Systems and methods for autonomous suturing
Saeidi et al. Autonomous laparoscopic robotic suturing with a novel actuated suturing tool and 3D endoscope
KR102231488B1 (ko) 자동화된 외과적 및 중재적 처치
AU2022206752A1 (en) Method for augmenting a representation of a surgical site
CN220655593U (zh) 超声成像系统
US20200188044A1 (en) Guidance of Robotically Controlled Instruments Along Paths Defined with Reference to Auxiliary Instruments
US11625825B2 (en) Method for displaying tumor location within endoscopic images
WO2022199650A1 (zh) 计算机可读存储介质、电子设备及手术机器人系统
WO2017098506A9 (en) Autonomic goals-based training and assessment system for laparoscopic surgery
CN114502092A (zh) 物理医疗元件尺寸确定系统和方法
Marahrens et al. An ultrasound-guided system for autonomous marking of tumor boundaries during robot-assisted surgery
US20240164765A1 (en) Systems and methods for estimating needle pose
US20220143366A1 (en) Systems and methods for determining buckling and patient movement during a medical procedure
Ma et al. A novel laser scalpel system for computer-assisted laser surgery
US20230145790A1 (en) Device, computer program and method
US11413096B2 (en) System for the reconstruction of symmetrical body parts
WO2023034123A1 (en) Ultrasonic sensor superposition
Portolés et al. Force control for tissue tensioning in precise robotic laser surgery
Looi et al. Image Guidance Framework with Endoscopic Video for Automated Robotic Anastomosis in a Paediatric Setting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20220916