JP6878435B2 - Medical device tracking - Google Patents
Medical device tracking Download PDFInfo
- Publication number
- JP6878435B2 JP6878435B2 JP2018531406A JP2018531406A JP6878435B2 JP 6878435 B2 JP6878435 B2 JP 6878435B2 JP 2018531406 A JP2018531406 A JP 2018531406A JP 2018531406 A JP2018531406 A JP 2018531406A JP 6878435 B2 JP6878435 B2 JP 6878435B2
- Authority
- JP
- Japan
- Prior art keywords
- marker
- medical device
- tracking
- tip
- medical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/92—Identification means for patients or instruments, e.g. tags coded with colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00725—Calibration or performance testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
- A61B2090/3941—Photoluminescent markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/94—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
- A61B90/96—Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Ophthalmology & Optometry (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
Description
本発明は、医療機器の追跡の分野に関し、具体的には、医療機器の追跡システム、医療機器の追跡方法、コンピュータプログラム要素及びコンピュータ可読媒体に関する。 The present invention relates to the field of medical device tracking, specifically to medical device tracking systems, medical device tracking methods, computer program elements and computer readable media.
可動型デバイス、フレキシブルカテーテル又はより硬いアーム若しくはシャフトといった医療機器は、病状の診断及び治療の低侵襲的処置に使用される。幾つかの応用及び状況では、画像支援外科的介入において、例えば動脈及び神経といった重要な周囲構造を損傷することなく繊細な処置を行うために、医療機器の位置及び向きを把握することが重要である。例えば国際特許公開WO2015/032676A1は、介入デバイスの位置及び形状を決定する電磁追跡センサについて説明している。 Medical devices such as mobile devices, flexible catheters or stiffer arms or shafts are used for minimally invasive procedures in the diagnosis and treatment of medical conditions. In some applications and situations, it is important to know the location and orientation of the medical device in imaging-assisted surgical interventions in order to perform delicate procedures without damaging important surrounding structures such as arteries and nerves. is there. For example, International Patent Publication WO2015 / 032676A1 describes an electromagnetic tracking sensor that determines the position and shape of an intervention device.
幾つかの追跡方法は、データベースに記憶される医療機器の寸法に関する情報を必要とする。例えば米国特許出願公開第2012/0259204A1号は、機器に軸に沿って可視性要素を提供することについて説明している。これにより、特定の機器を特徴付ける要素の位置がデータベースに記憶される。 Some tracking methods require information about the dimensions of the medical device stored in the database. For example, U.S. Patent Application Publication No. 2012/0259204A1 describes providing a device with an axial visibility element. As a result, the positions of the elements that characterize a specific device are stored in the database.
したがって、限られた数の既知の医療機器しか追跡できない。 Therefore, only a limited number of known medical devices can be tracked.
医療機器の追跡を容易にする必要がある。 Medical devices need to be tracked easily.
本発明の目的は、独立請求項の主題によって解決される。更なる実施形態は、従属請求項に組み込まれる。なお、以下に説明される本発明の態様は、医療機器の追跡システム、医療機器の追跡方法、コンピュータプログラム要素及びコンピュータ可読媒体に等しく適用される。 An object of the present invention is solved by the subject matter of the independent claims. Further embodiments are incorporated into the dependent claims. It should be noted that the aspects of the invention described below apply equally to medical device tracking systems, medical device tracking methods, computer program elements and computer readable media.
本発明の第1の態様によれば、関心フィールド内の細長い医療機器を追跡するシステムが提供される。システムは、追跡装置と処理ユニットとを含む。 According to the first aspect of the present invention, there is provided a system for tracking an elongated medical device within a field of interest. The system includes a tracking device and a processing unit.
追跡装置は、医療機器の画像を取得し、当該画像は、医療機器の先端から離れたマーカ位置で医療機器上に置かれた機器マーカを含む。 The tracking device acquires an image of the medical device, which image includes a device marker placed on the medical device at a marker position away from the tip of the medical device.
処理ユニットは、i)取得された画像内で少なくとも1つの線セグメント及び機器マーカを検出し、ii)検出された少なくとも1つの線セグメントから、検出された機器マーカに対応する線セグメントを選択することによって医療機器を特定し、iii)基準マーカに接触する医療機器に基づいて、医療機器の先端の位置のオフセットを決定する。 The processing unit i) detects at least one line segment and device marker in the acquired image, and ii) selects the line segment corresponding to the detected device marker from at least one detected line segment. Identify the medical device by iii) Determine the offset of the position of the tip of the medical device based on the medical device in contact with the reference marker.
一例では、真っすぐで細長い医療機器が使用される。医療機器が追跡される医療処置中、機器マーカが基準として使用される。医療機器の一部が被験者の中にあっても医療機器の先端位置を示すために、マーカと先端位置とのオフセットが決定される。このために、医療機器を被験者に挿入する前に、被験者上の基準マーカが医療機器先端によって接触される。 In one example, a straight, elongated medical device is used. The device marker is used as a reference during the medical procedure in which the medical device is tracked. The offset between the marker and the tip position is determined to indicate the tip position of the medical device even if part of the medical device is inside the subject. For this purpose, a reference marker on the subject is contacted by the medical device tip before inserting the medical device into the subject.
機器先端による基準マーカの接触は、追跡装置によって検出される。例えば基準マーカが追跡装置によって提供される画像内で可視である場合、機器先端と医療器具との接触は、提供された画像から検出される。この応用のコンテキストにおいて、「接触」とは、物理的な接触とだけでなく、仮想的な接触(つまり、医療機器を基準マーカの十分に近くにして、したがって、追跡画像のうちの1つ以上の追跡画像では、機器表現とマーカ表現とは重なる)とも理解される。 The contact of the reference marker by the tip of the device is detected by the tracking device. For example, if the reference marker is visible in the image provided by the tracking device, contact between the device tip and the medical device is detected in the provided image. In the context of this application, "contact" is not only a physical contact, but also a virtual contact (ie, the medical device is close enough to the reference marker, and thus one or more of the tracking images. In the tracking image of, the device representation and the marker representation overlap).
したがって、接触は、機器の先端自体の位置が、十分な信頼性で追跡画像内に確立されていなくても検出される。 Therefore, contact is detected even if the position of the tip of the device itself is not sufficiently reliable and established in the tracking image.
一例では、少なくとも1つの基準マーカが被験者上に提供される。例えば基準マーカのセットが患者の外部上に提供されてもよい。この場合、追跡装置は、機器位置の追跡に加えて、患者の動きも追跡する。 In one example, at least one reference marker is provided on the subject. For example, a set of reference markers may be provided externally to the patient. In this case, the tracking device tracks the patient's movements in addition to tracking the device position.
このようにすると、複数の医療機器の幾何学的情報を記憶するデータベースを作成する必要がない。(データベース内の既知の医療機器とは対照的に)未知のデバイスでも、ユーザは、医療機器上の機器マーカを単に使用して、医療機器の一部が被験者内であっても医療機器を追跡することができる。したがって、多様な医療機器を追跡することができる。 In this way, it is not necessary to create a database that stores geometric information of a plurality of medical devices. Even with unknown devices (as opposed to known medical devices in the database), users simply use the device markers on the medical device to track the medical device even if some of the medical device is within the subject. can do. Therefore, a variety of medical devices can be tracked.
「医療機器上に置かれた機器マーカ」との表現は、当該機器マーカが医療機器に取り付けられた別箇のマーカであることと、当該機器マーカが医療機器の一体部分であることとを含む。 The expression "device marker placed on a medical device" includes that the device marker is another marker attached to the medical device and that the device marker is an integral part of the medical device. ..
一実施形態では、医療機器を追跡するのに単一の機器マーカで十分である。単一のマーカと機器先端とのオフセットは、機器先端と基準マーカとの接触インタラクションによって確実に決定される。 In one embodiment, a single device marker is sufficient to track the medical device. The offset between a single marker and the tip of the device is reliably determined by the contact interaction between the tip of the device and the reference marker.
一例によれば、機器マーカは、生体適合反射性塗料、蛍光塗料、固有の反射反応を有し、医療機器を形成する材料及び粘着テープの群のうちの少なくとも1つを含む。 According to one example, the device marker comprises at least one of a group of biocompatible reflective paints, fluorescent paints, materials having a unique reflex reaction and forming medical devices and adhesive tapes.
機器マーカは、医療機器に取り付けられる又は噴霧されてよい。 The device marker may be attached to or sprayed on the medical device.
一例によれば、生体適合反射性塗料及び/又は蛍光塗料は、帯域幅選択的である発光を持つ。 According to one example, biocompatible reflective paints and / or fluorescent paints have bandwidth-selective luminescence.
このようにすると、反射性塗料又は蛍光塗料の励起/発光は、フィルタリングされた光源及び/又はカメラが位置決定に使用される一方で、シーンのビデオ画像は乱されないままであるように帯域幅選択的である。 In this way, the excitation / emission of the reflective or fluorescent paint is bandwidth-selected so that the video image of the scene remains undisturbed while the filtered light source and / or camera is used for positioning. Is the target.
或いは又は更に、機器のランドマーク自体が機器マーカとして使用されてもよい。一例では、医療機器の2つの部分間の境界が機器マーカとして使用される。例えば機器のシャフトとハンドル部との境界(境界はシャフト方向に垂直である)が、機器追跡を可能とするように追跡画像内で十分にはっきりと可視である。このような移行部を検出することによって、デバイスに別箇(人工)のマーカを取り付けることなく、機器を追跡することが可能となる。 Alternatively, or in addition, the equipment landmark itself may be used as the equipment marker. In one example, the boundary between two parts of a medical device is used as a device marker. For example, the boundary between the shaft and the handle of the device (the boundary is perpendicular to the shaft direction) is sufficiently clearly visible in the tracking image to allow device tracking. By detecting such a transition part, it becomes possible to track the device without attaching a separate (artificial) marker to the device.
医療機器を追跡するには、一例では、少なくとも1つのカメラを有する光学追跡装置が使用される。したがって、少なくとも1つのカメラからの画像を使用することによって、医療機器の3次元位置が決定される。一例では、正確な3次元追跡を可能とするために、少なくとも2つの光学カメラが使用される。代案として又は更に、3次元追跡のための入力として、奥行き測定値で向上された光学画像を生成する単一の奥行き分解カメラが使用されてもよい。 To track a medical device, in one example, an optical tracking device with at least one camera is used. Therefore, by using images from at least one camera, the three-dimensional position of the medical device is determined. In one example, at least two optical cameras are used to allow accurate 3D tracking. As an alternative, or as an input for 3D tracking, a single depth resolution camera may be used to produce an improved optical image with depth measurements.
或いは、少なくとも2つのカメラと光源とを使用することによって、医療機器の3次元モデルを生成することができる。例えばカメラシステムの前で医療機器を回転させて、一連の画像から3次元モデルを計算することができる。カメラ及び光源は、使用される反射性材料の種類に適した特定の波長フィルタを有してよい。様々な反射性材料及び特定波長のフィルタセットを使用することによって、手術に使用される1つ以上の機器を特定することができる。 Alternatively, by using at least two cameras and a light source, a three-dimensional model of the medical device can be generated. For example, a medical device can be rotated in front of a camera system to calculate a 3D model from a series of images. Cameras and light sources may have specific wavelength filters suitable for the type of reflective material used. By using a variety of reflective materials and a set of filters of a particular wavelength, one or more instruments used in surgery can be identified.
本発明の第2の態様によれば、関心フィールド内の医療機器を追跡する方法が提供される。当該方法は、
a)医療機器の先端から離れたマーカ位置で医療機器上に置かれた機器マーカを含む医療機器の画像を取得するステップと、
b)画像内で、関心フィールド内の少なくとも1つの線セグメントを検出するステップと、
c)機器マーカを検出するステップと、
d)検出された少なくとも1つの線セグメントから、検出された機器マーカに対応する線セグメントを選択することによって医療機器を特定するステップと、
f)医療機器を用いて基準マーカに接触することによって、医療機器先端の位置のオフセットを決定するステップとを含む。
A second aspect of the invention provides a method of tracking a medical device within a field of interest. The method is
a) A step of acquiring an image of a medical device including a device marker placed on the medical device at a marker position away from the tip of the medical device,
b) In the image, the step of detecting at least one line segment in the field of interest, and
c) Steps to detect device markers and
d) A step of identifying a medical device by selecting a line segment corresponding to the detected device marker from at least one detected line segment.
f) Includes the step of determining the offset of the position of the tip of the medical device by contacting the reference marker with the medical device.
本発明のこれら及び他の態様は、以下に説明される実施形態から明らかとなり、また、当該実施形態を参照して説明される。 These and other aspects of the invention will become apparent from the embodiments described below and will be described with reference to those embodiments.
本発明の例示的な実施形態は、次の図面を参照して以下に説明される。 An exemplary embodiment of the present invention will be described below with reference to the following drawings.
図面は模式的に説明されているに過ぎず、正確な縮尺ではない。同じ参照符号は、図面全体を通して同じ又は同様の特徴を指す。 The drawings are only schematically illustrated and are not at exact scale. The same reference numerals refer to the same or similar features throughout the drawing.
図1は、関心フィールド12内の医療機器10を追跡するシステム100を概略的に示す。
FIG. 1 schematically shows a
システム100は、追跡装置16と、処理ユニット18とを含む。機器マーカ14の追跡を可能とするために、機器マーカ14は、マーカ位置20において医療機器10上に置かれる。
The
「関心フィールド」との用語は、外科フィールド、手術フィールド等といった医療機器がその中で使用されるフィールドに関する。 The term "field of interest" refers to fields in which medical devices are used, such as surgical fields, surgical fields and the like.
「医療機器」との用語は、生物組織を変更するといった外科処置又は手術中に所望の効果を実行する特定の動作を行う特別にデザインされたツール又はデバイスに関する。 The term "medical device" refers to a specially designed tool or device that performs a surgical procedure, such as altering biological tissue, or a specific action that performs a desired effect during surgery.
図1に示される例では、医療機器10は、真っすぐで細長い機器シャフト30と、ハンドル38とを含む。機器マーカ14は、医療機器先端28から離れて機器シャフト30上に取り付けられる。或いは又は更に、シャフト30とハンドル38との境界が、機器マーカ14’として使用されてもよい。
In the example shown in FIG. 1, the
したがって、例えば被験者内に挿入された場合に医療機器先端28が遮られても、機器マーカ14、14’が、医療機器先端28の位置を示す基準を提供することができる。
Therefore, even if the
一例では、機器マーカ14は、生体適合反射性塗料、蛍光塗料、固有反射反応を有し、医療機器の一部を形成する材料及び粘着テープの群のうちの少なくとも1つを含む。
In one example, the
腫瘍手術に使用される蛍光染料と同様の蛍光染料を蛍光塗料として使用してもよい。当該蛍光塗料は生体適合性があるべきである。蛍光染料の例としては、インドシアニングリーン(ICG)、フルオレセイン、フォトフリン、5−アミノレブリン酸(ALA)、パテントブルー、メチレンブルー等が挙げられる。 A fluorescent dye similar to the fluorescent dye used in tumor surgery may be used as the fluorescent paint. The fluorescent paint should be biocompatible. Examples of fluorescent dyes include indocyanine green (ICG), fluorescein, photofurin, 5-aminolevulinic acid (ALA), patent blue, methylene blue and the like.
生体適合反射性塗料又は蛍光塗料は、例えば低侵襲外科処置中に、使用される外科又は腹腔鏡機器といった医療機器上に被覆又は噴霧される。 The biocompatible reflective or fluorescent paint is coated or sprayed onto a medical device such as a surgical or laparoscopic device used, for example during a minimally invasive surgical procedure.
反射性コーティング又は蛍光染料コーティングは、染料又はコーティング材料の効率に基づいて、何回か使用後に再塗布される。コーティング材料は、反復使用のために、高圧滅菌可能又は消毒可能である。 The reflective coating or optical brightener coating is reapplied after several uses, based on the efficiency of the dye or coating material. The coating material can be pressure sterilized or disinfected for repeated use.
或いは、医療機器の一部、例えばシャフト30の一部が、固有の反射反応又は蛍光反応を有する材料で作られてもよい。つまり、医療機器の一部が、医療機器先端28の位置を示す機器マーカとして使用されてもよい。
Alternatively, a portion of the medical device, such as a portion of the
更なる例では、機器マーカ14は、例えば医療機器の中心軸の周りに、しっかりと留められるまで巻き付けられる1片の粘着テープである。
In a further example, the
粘着テープは、例えば医療機器シャフト上を摺動する例えばシリコーンゴムスリーブ、熱収縮チューブ又は永久的に塗られた、エッチングされた若しくは彫刻されたマーカを含む材料から作られる。 Adhesive tapes are made from materials that include, for example, silicone rubber sleeves, heat shrinkable tubes or permanently painted, etched or engraved markers that slide on medical device shafts.
上記機器マーカは、医療機器を取り囲む方向に延在するパターンを任意選択的に有してもよい。 The device marker may optionally have a pattern extending in a direction surrounding the medical device.
図1に示される例では、機器マーカ14は、線のパターンを有する。線の本数及び/又は線の太さといった線のパターンは、様々な医療機器を区別するために変えられる。更なる例では、同じパターンがある医療機器は、例えば医療機器のシャフトの太さを利用して区別される。
In the example shown in FIG. 1, the
パターンの他の例としては、例えば2次元バーコード、色コード等が挙げられる。このようにすると、医療機器は全方向において検出又は追跡される。 Other examples of the pattern include, for example, a two-dimensional bar code, a color code, and the like. In this way, the medical device is detected or tracked in all directions.
医療機器10は追跡装置16によって追跡される。追跡装置16は、応用及び状況に応じて、光学追跡装置、超音波追跡装置又は任意の他の適切な追跡装置であってよい。
The
図1に示される例では、追跡装置16は、図1に示される2つのカメラといった少なくとも2つの光学センサ32を含む光学追跡装置であり、複数の医療機器を同時に追跡することができる。互いに対する光学センサ32の位置及び向きが、例えば剛性機械的構成を介して分かる。これに代えて又は加えて、光学追跡装置は、光学画像を奥行き測定値と共に提供する奥行き分解カメラを含む。
In the example shown in FIG. 1, the
国際特許公開WO2010/067281A1に説明されるように、例えば光学センサは、医用撮像システム内のX線デバイスに対して決定された空間関係で支えられる。 As described in International Patent Publication WO2010 / 067281A1, for example, an optical sensor is supported by a determined spatial relationship to an X-ray device in a medical imaging system.
反射性材料又は蛍光材料が使用される場合、光学センサ32は、使用される反射性材料又は蛍光材料の種類に適した波長フィルタを含む。手術に使用される1つ以上の医療機器は、様々な反射性材料と、特定波長のフィルタセットとを使用することによって特定される。
When a reflective or fluorescent material is used, the
追跡システム16は、医用撮像システム(例えば上記CアームX線システム)の一部として又は別箇の追跡ユニットとして手術セットアップに組み込まれる。
The
以下、本技術の説明を容易とするために、一般に本明細書では光学追跡装置について説明するが、当然ながら、他の追跡装置も本技術の範囲内である。 Hereinafter, for the sake of facilitating the description of the present technology, the optical tracking device will be generally described in the present specification, but of course, other tracking devices are also within the scope of the present technology.
図2は、医療機器10が中にある関心フィールド12の一例を概略的に示す。
FIG. 2 schematically shows an example of a field of
追跡システム100は、関心フィールド12内の線セグメント22(実線で示される)を検出し、図1に示される機器マーカ14又はマーカ14’を検出する。処理ユニット18は、検出された機器マーカに対応する線セグメント24(破線で示される)を、医療機器10として選択し、マーカ位置20を、医療機器先端28の先端位置のオフセット26を決定するための基準として使用する。
The
「オフセット」との用語は、空間的距離に関する。 The term "offset" refers to spatial distance.
医療機器の先端位置は、例えばスクリュードライバに取り付けられた椎弓根スクリューである(堅く)接続された部分の長さといった医療機器の可能な延長部を含む。 The tip position of the medical device includes a possible extension of the medical device, for example the length of the (tightly) connected portion of the vertebral pedicle screw attached to the screwdriver.
次に、図1及び図2の両方を参照するに、手術中、追跡システム16は、関心フィールド12を撮像し、関心フィールド12の画像データを取得する。画像は、現実世界における直線が、画像において直線に見えるようにレンズ歪について補正される。しかし、低歪レンズが使用される場合、このステップは省略される。
Next, referring to both FIGS. 1 and 2, during surgery, the
処理ユニット18は、例えばハフ(Hough)変換を介して、取得した画像データ内の直線を検出する。
The
処理ユニット18は更に、検出された各直線の端点を決定する。検出された各直線について、線の端点間に広がる平面及びカメラ中心が記憶される。
The
処理ユニット18は更に、検出された各直線について、各平面対の交差点を決定する。これは、開始点及び終了点を有する3次元線記述をもたらす。
The
検出された直線に沿って(又はその延長部上で)、機器マーカ14は、例えばパターン認識によって、少なくとも1つのカメラ画像上で検出される。直線上で取り付けられた機器マーカ14が検出される当該直線は、医療機器として特定され、追跡される。
Along the detected straight line (or on its extension), the
例えば追跡画像において、追跡される医療機器10と基準マーカ34とのオーバーラップ又は交差が検出されると、つまり、機器10が、基準マーカ34まで、所定閾値未満の距離を有すると、オペレータは、先端位置を初期化することができる。基準マーカ34は、通常、関心フィールド内又は関心フィールドに近いマーカであり、患者の動きを追跡するように使用される。
For example, when an overlap or intersection between the tracked
基準マーカ34は、医療機器先端28によって接触されるように設けられ、追跡装置によって得られた画像内に可視である。基準マーカ34は、例えば円形であるが、医療機器先端28によるマーカ34の接触をより確実に確立するために、他の形状が使用されてもよい。例えば図1に示されるマーカ34は、円形の本体を有し、そこから、機器10がマーカに隣接するときに、追跡画像におけるマーカ34の可視性を更に向上させるために、テール部が延在する。
The
処理ユニットは更に、選択した線セグメント24に沿った機器マーカ14と接触した基準マーカ34との距離を検出し、検出した距離を、マーカ14と先端位置28とのオフセット26を決定するための入力として使用する。
The processing unit further detects the distance between the
或いは、追跡装置16は、関心フィールド12の画像データを取得する。処理ユニット18は、取得した画像データから3次元モデルを生成し、マーカ位置20に基づいて、先端位置までのオフセット26を計算する。
Alternatively, the
一実施形態(図示せず)では、追跡画像は、ディスプレイの画面上でユーザの目に見える形にされる。この場合、機器先端28と基準マーカ34との接触インタラクションに関するフィードバックが拡張現実ビューで与えられる。これにより、ユーザは、機器較正がうまく行われたこと、つまり、先端オフセットが決定されたことの視覚的フィードバックが与えられる。ユーザは、これに基づいて、次に、機器先端が被験者に挿入される介入手順を開始する。
In one embodiment (not shown), the tracking image is made visible to the user on the screen of the display. In this case, feedback on the contact interaction between the
更に、先端オフセットが初期化されると、線セグメントに沿った機器マーカ14と先端位置28との間の保存された距離を使用して、仮想機器(図示せず)が患者データ上に表示される。患者データは、低侵襲介入の前に登録される3次元断層撮影データセットであってよい。3次元断層撮影データセットは、例えばCT/MR(コンピュータ断層撮影/磁気共鳴)データセット又はXperCT/VasoCT/アンギオグラフィデータセットであってよい。
Further, when the tip offset is initialized, a virtual device (not shown) is displayed on the patient data using the stored distance between the
或いは、患者データは、追跡カメラ画像のうちの1つ以上の追跡カメラ画像に加えてユーザに示されるライブX線データであってよい。 Alternatively, the patient data may be live X-ray data presented to the user in addition to one or more tracking camera images of the tracking camera images.
図3は、機器追跡方法200の一例の基本ステップを示す。方法は次のステップを含む。
FIG. 3 shows the basic steps of an example of the
第1のステップ202(ステップa)とも呼ぶ)において、医療機器の先端から離れたマーカ位置で医療機器上に置かれた機器マーカを含む医療機器画像が取得される。 In the first step 202 (also referred to as step a)), a medical device image including a device marker placed on the medical device at a marker position away from the tip of the medical device is acquired.
第2のステップ204(ステップb)とも呼ぶ)において、画像内で、関心フィールド内の少なくとも1つの線セグメントが検出される。 In the second step 204 (also referred to as step b)), at least one line segment in the field of interest is detected in the image.
第3のステップ206(ステップc)とも呼ぶ)において、機器マーカが検出される。 In the third step 206 (also referred to as step c)), the device marker is detected.
第4のステップ208(ステップd)とも呼ぶ)において、検出された少なくとも1つの線セグメントから、検出された機器マーカに対応する線セグメントを選択することによって医療機器が検出される。 In the fourth step 208 (also referred to as step d)), the medical device is detected by selecting the line segment corresponding to the detected device marker from at least one detected line segment.
オプションのステップ210(ステップe)とも呼ぶ)において、選択された線セグメントの向きに基づいて医療機器の向きが決定される。 In optional step 210 (also referred to as step e)), the orientation of the medical device is determined based on the orientation of the selected line segment.
第5のステップ212(ステップf)とも呼ぶ)において、医療機器を用いて基準マーカを接触することによって、医療機器先端の位置のオフセットが決定される。 In the fifth step 212 (also referred to as step f)), the offset of the position of the tip of the medical device is determined by touching the reference marker with the medical device.
図4は、方法200のステップf)が更に、次のサブステップ:f1)基準マーカを提供するステップ222、f2)基準マーカに接触するように医療機器先端を使用するステップ224、f3)選択された線セグメントに沿った機器マーカと接触された基準マーカとの距離を検出するステップ226と、f4)検出した距離をオフセットとして使用するステップ228を含む更なる例を示す。
FIG. 4 shows that step f) of
本発明の別の例示的な実施形態では、上記実施形態のうちの1つによる方法のステップを適切なシステム上で実行するように適応されていることによって特徴付けられるコンピュータプログラム又はコンピュータプログラム要素が提供される。 In another exemplary embodiment of the invention, a computer program or computer program element characterized by being adapted to perform the steps of the method according to one of the above embodiments on a suitable system. Provided.
したがって、コンピュータプログラム要素は、コンピュータユニットに記憶されていてもよい。当該コンピュータユニットも、本発明の一実施形態の一部であってよい。当該コンピュータユニットは、上記方法のステップを行うか又はステップの実行を誘導する。更に、コンピュータユニットは、上記装置のコンポーネントを動作させる。コンピュータユニットは、自動的に動作するか及び/又はユーザの命令を実行する。コンピュータプログラムが、データプロセッサの作業メモリにロードされてよい。したがって、データプロセッサは、本発明の方法を実行する能力を備えている。 Therefore, computer program elements may be stored in the computer unit. The computer unit may also be part of an embodiment of the present invention. The computer unit performs the steps of the above method or guides the execution of the steps. Further, the computer unit operates the components of the above device. The computer unit operates automatically and / or executes the user's instructions. The computer program may be loaded into the working memory of the data processor. Therefore, the data processor has the ability to carry out the methods of the invention.
本発明のこの例示的な実施形態は、最初から本発明を使用するコンピュータプログラムと、アップデートによって、既存のプログラムを、本発明を使用するプログラムに変えるコンピュータプログラムとの両方を対象とする。 This exemplary embodiment of the invention covers both a computer program that uses the invention from the beginning and a computer program that, by updating, transforms an existing program into a program that uses the invention.
更に、コンピュータプログラム要素は、上記方法の例示的な実施形態の手順を満たすすべての必要なステップを提供することができる。 In addition, the computer program element can provide all the necessary steps to meet the procedures of the exemplary embodiments of the above method.
本発明の更なる例示的な実施形態によれば、CD−ROMといったコンピュータ可読媒体が提示される。コンピュータ可読媒体に、コンピュータプログラム要素が記憶され、コンピュータプログラム要素は上記セクションに説明されている。 According to a further exemplary embodiment of the invention, a computer readable medium such as a CD-ROM is presented. Computer program elements are stored on a computer-readable medium, which are described in the section above.
コンピュータプログラムは、他のハードウェアと共に又は他のハードウェアの一部として供給される光学記憶媒体又は固体媒体といった適切な媒体(具体的には、必ずしもそうである必要はないが、非一時的媒体)上に記憶される及び/又は分散配置されるが、インターネット又は他の有線若しくは無線通信システムを介した形態といった他の形態で分配されてもよい。 The computer program is a suitable medium (specifically, but not necessarily, a non-temporary medium) such as an optical storage medium or a solid medium supplied with or as part of other hardware. ) Are stored and / or distributed, but may be distributed in other forms, such as via the Internet or other wired or wireless communication systems.
しかし、コンピュータプログラムは、ワールドワイドウェブといったネットワークを介して提示され、当該ネットワークからデータプロセッサの作業メモリにダウンロードされてもよい。本発明の更なる例示的な実施形態によれば、ダウンロード用にコンピュータプログラム要素を利用可能にする媒体が提供され、当該コンピュータプログラム要素は、本発明の上記実施形態のうちの1つによる方法を行うように構成される。 However, the computer program may be presented via a network such as the World Wide Web and downloaded from the network into the working memory of the data processor. A further exemplary embodiment of the invention provides a medium that makes a computer program element available for download, the computer program element being a method according to one of the above embodiments of the invention. Configured to do.
なお、本発明の実施形態は、様々な主題を参照して説明されている。具体的には、方法タイプのクレームを参照して説明される実施形態もあれば、デバイスタイプのクレームを参照して説明される実施形態もある。しかし、当業者であれば、上記及び下記の説明から、特に明記されない限り、1つのタイプの主題に属する特徴の任意の組み合わせに加えて、様々な主題に関連する特徴の任意の組み合わせも、本願によって開示されていると見なされると理解できるであろう。しかし、すべての特徴は、特徴の単なる足し合わせ以上の相乗効果を提供する限り、組み合わされることが可能である。 The embodiments of the present invention are described with reference to various subjects. Specifically, some embodiments are described with reference to method type claims, while others are described with reference to device type claims. However, one of ordinary skill in the art will appreciate any combination of features related to various subjects, in addition to any combination of features belonging to one type of subject, from the above and below description, unless otherwise specified. It can be understood that it is considered to be disclosed by. However, all features can be combined as long as they provide a synergistic effect that goes beyond the mere addition of features.
本発明は、図面及び上記説明において詳細に例示され、説明されたが、当該例示及び説明は、例示的に見なされるべきであり、限定的に見なされるべきではない。本発明は、開示される実施形態に限定されない。開示された実施形態の他の変形態様は、図面、開示内容及び従属請求項の検討から、請求項に係る発明を実施する当業者によって理解され、実施される。 Although the present invention has been exemplified and described in detail in the drawings and the above description, the examples and description should be viewed as exemplary and not limited. The present invention is not limited to the disclosed embodiments. Other variations of the disclosed embodiments will be understood and implemented by those skilled in the art who will practice the claimed invention from the drawings, disclosure content and examination of the dependent claims.
請求項において、「含む」との用語は、他の要素又はステップを排除するものではなく、また、「a」又は「an」との不定冠詞も、複数形を排除するものではない。単一のプロセッサ又は他のユニットが、請求項に引用される幾つかのアイテムの機能を果たしてもよい。特定の手段が相互に異なる従属請求項に記載されることだけで、これらの手段の組み合わせを有利に使用することができないことを示すものではない。請求項における任意の参照符号は、範囲を限定するものと解釈されるべきではない。 In the claims, the term "contains" does not exclude other elements or steps, nor does the indefinite definite article "a" or "an" exclude the plural. A single processor or other unit may perform the function of some of the items cited in the claims. The fact that specific means are described in different dependent claims does not indicate that the combination of these means cannot be used in an advantageous manner. Any reference code in the claims should not be construed as limiting the scope.
Claims (13)
追跡装置と、
処理ユニットと、
を含み、
前記追跡装置は、前記医療機器の画像を取得し、前記画像は、前記医療機器の先端から離れたマーカ位置で前記医療機器上に置かれた機器マーカを含み、
前記処理ユニットは、i)取得された前記画像内で複数の線セグメント及び前記機器マーカを検出し、ii)検出された前記複数の線セグメントから、検出された前記機器マーカに対応する線セグメントを選択することによって前記医療機器を特定し、iii)基準マーカに接触する前記医療機器に基づいて、前記医療機器の前記先端の位置のオフセットを決定する、システム。 A system that tracks elongated medical devices within a field of interest,
Tracking device and
With the processing unit
Including
The tracking device acquires an image of the medical device, the image comprising a device marker placed on the medical device at a marker position away from the tip of the medical device.
The processing unit i) detects a plurality of line segments and the device marker in the acquired image, and ii) from the detected plurality of line segments, a line segment corresponding to the detected device marker is obtained. A system that identifies the medical device by selection and determines the offset of the position of the tip of the medical device based on the medical device in contact with the iii) reference marker.
生体適合反射性塗料、
蛍光塗料、
固有の反射反応を有し、前記医療機器を形成する材料、及び、
粘着テープの群のうちの少なくとも1つを含む、請求項1又は2に記載のシステム。 The device marker is
Biocompatible reflective paint,
Fluorescent paint,
Materials that have a unique reflex reaction and form the medical device, and
The system of claim 1 or 2, comprising at least one of a group of adhesive tapes.
前記処理ユニットは、取得された前記画像データから3次元モデルを生成し、前記マーカ位置に基づいて前記先端の位置までの前記オフセットを計算する、請求項1から7の何れか一項に記載のシステム。 The tracking device acquires image data of the field of interest and
The processing unit according to any one of claims 1 to 7, wherein the processing unit generates a three-dimensional model from the acquired image data, and calculates the offset to the position of the tip based on the marker position. system.
a)前記医療機器の先端から離れたマーカ位置で前記医療機器上に置かれた機器マーカを含む前記医療機器の画像を取得するステップと、
b)前記画像内で、前記関心フィールド内の複数の線セグメントを検出するステップと、
c)前記機器マーカを検出するステップと、
d)検出された前記複数の線セグメントから、検出された前記機器マーカに対応する線セグメントを選択することによって前記医療機器を特定するステップと、
f)前記医療機器を用いて基準マーカに接触することによって、医療機器先端の位置のオフセットを決定するステップと、
を含む、方法。 A way to track medical devices in a field of interest,
a) A step of acquiring an image of the medical device including a device marker placed on the medical device at a marker position away from the tip of the medical device.
b) In the image, a step of detecting a plurality of line segments in the field of interest, and
c) The step of detecting the device marker and
d) A step of identifying the medical device by selecting a line segment corresponding to the detected device marker from the plurality of detected line segments.
f) A step of determining the offset of the position of the tip of the medical device by contacting the reference marker using the medical device, and
Including methods.
f1)基準マーカを提供するステップと、
f2)前記基準マーカに接触するように前記医療機器先端を使用するステップと、
f3)選択された前記線セグメントに沿った前記機器マーカと接触された前記基準マーカとの間の距離を検出するステップと、
f4)検出された前記距離を前記オフセットとして使用するステップと、
を含む、請求項10に記載の方法。 Step f) further
f1) The step of providing the reference marker and
f2) The step of using the tip of the medical device so as to come into contact with the reference marker, and
f3) A step of detecting the distance between the device marker and the contacted reference marker along the selected line segment, and
f4) A step of using the detected distance as the offset, and
10. The method of claim 10.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15201029 | 2015-12-18 | ||
EP15201029.4 | 2015-12-18 | ||
PCT/EP2016/081346 WO2017103046A2 (en) | 2015-12-18 | 2016-12-16 | Medical instrument tracking |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019501704A JP2019501704A (en) | 2019-01-24 |
JP2019501704A5 JP2019501704A5 (en) | 2020-01-30 |
JP6878435B2 true JP6878435B2 (en) | 2021-05-26 |
Family
ID=55023932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018531406A Active JP6878435B2 (en) | 2015-12-18 | 2016-12-16 | Medical device tracking |
Country Status (5)
Country | Link |
---|---|
US (1) | US11007014B2 (en) |
EP (1) | EP3389538B1 (en) |
JP (1) | JP6878435B2 (en) |
CN (1) | CN108778178B (en) |
WO (1) | WO2017103046A2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018235255A1 (en) * | 2017-06-23 | 2018-12-27 | オリンパス株式会社 | Medical system and operation method thereof |
SG10201807900SA (en) * | 2018-09-12 | 2020-04-29 | Techssisted Surgical Pte Ltd | System and method for monitoring a device |
WO2020226693A1 (en) * | 2019-05-03 | 2020-11-12 | Neil Glossop | Systems, methods, and devices for registering and tracking organs during interventional procedures |
US20210298837A1 (en) * | 2020-03-30 | 2021-09-30 | TrackX Technology, Inc. | Tracking Elements for Use in Systems and Methods for Image Localization of Effecters During a Medical Procedure |
EP3970640A1 (en) * | 2020-09-18 | 2022-03-23 | Stryker European Operations Limited | Surgical device with a movable tracker |
KR102443385B1 (en) * | 2020-10-13 | 2022-09-16 | 주식회사 고영테크놀러지 | Medical 3 dimensional image measuring device and medical image matching system |
KR102478842B1 (en) * | 2020-10-13 | 2022-12-20 | 주식회사 고영테크놀러지 | Portable 3 dimensional image measuring device, 3 dimensional image measuring method using same, and medical image matching system |
EP4026510A1 (en) | 2021-01-08 | 2022-07-13 | Koninklijke Philips N.V. | Navigation support |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1415609A1 (en) * | 1998-01-28 | 2004-05-06 | Sherwood Services AG | Optical object tracking system |
US6856826B2 (en) * | 2000-04-28 | 2005-02-15 | Ge Medical Systems Global Technology Company, Llc | Fluoroscopic tracking and visualization system |
US20030076980A1 (en) * | 2001-10-04 | 2003-04-24 | Siemens Corporate Research, Inc.. | Coded visual markers for tracking and camera calibration in mobile computing systems |
GB0204549D0 (en) | 2002-02-27 | 2002-04-10 | Depuy Int Ltd | A surgical instrument system |
US7993353B2 (en) * | 2002-06-04 | 2011-08-09 | Brainlab Ag | Medical tracking system with universal interface |
US7166114B2 (en) | 2002-09-18 | 2007-01-23 | Stryker Leibinger Gmbh & Co Kg | Method and system for calibrating a surgical tool and adapter thereof |
JP2005046200A (en) * | 2003-07-29 | 2005-02-24 | Olympus Corp | Endoscopic operation system |
US7809184B2 (en) | 2005-05-04 | 2010-10-05 | Brainlab Ag | Devices and methods for automatically verifying, calibrating and surveying instruments for computer-assisted surgery |
US9867669B2 (en) * | 2008-12-31 | 2018-01-16 | Intuitive Surgical Operations, Inc. | Configuration marker design and detection for instrument tracking |
US8170302B1 (en) * | 2005-09-30 | 2012-05-01 | Ut-Battelle, Llc | System and method for generating motion corrected tomographic images |
RU2434600C2 (en) * | 2006-03-31 | 2011-11-27 | Конинклейке Филипс Электроникс, Н.В. | Surgical system controlled by images |
EP1952779B1 (en) | 2007-02-01 | 2012-04-04 | BrainLAB AG | Method and system for Identification of medical instruments |
JP5604442B2 (en) | 2008-12-11 | 2014-10-08 | コーニンクレッカ フィリップス エヌ ヴェ | System for generating images of internal and external surfaces of a patient and method of operating the same |
EP2429398A1 (en) | 2009-05-13 | 2012-03-21 | Koninklijke Philips Electronics N.V. | System for detecting global patient movement during imaging procedures |
EP2440130A4 (en) * | 2009-06-08 | 2015-06-03 | Mri Interventions Inc | Mri-guided surgical systems with proximity alerts |
WO2011030260A2 (en) | 2009-09-08 | 2011-03-17 | Koninklijke Philips Electronics N.V. | Sterilization coat |
WO2011047467A1 (en) | 2009-10-20 | 2011-04-28 | Imris Inc. | Imaging system using markers |
US8848977B2 (en) * | 2010-01-04 | 2014-09-30 | The Board Of Trustees Of The Leland Stanford Junior University | Method for optical pose detection |
US9572539B2 (en) * | 2011-04-08 | 2017-02-21 | Imactis | Device and method for determining the position of an instrument in relation to medical images |
US10842409B2 (en) * | 2012-01-03 | 2020-11-24 | Koninklijke Philips N.V. | Position determining apparatus and associated method |
NL2008205C2 (en) | 2012-01-31 | 2013-08-01 | Umc Utrecht Holding Bv | Tracking of an endoscopic device. |
US8750568B2 (en) | 2012-05-22 | 2014-06-10 | Covidien Lp | System and method for conformal ablation planning |
WO2013190409A2 (en) * | 2012-06-20 | 2013-12-27 | Koninklijke Philips N.V. | Multicamera device tracking |
CN105377174A (en) | 2013-02-11 | 2016-03-02 | 尼奥梅德兹有限责任公司 | Tracking apparatus for tracking an object with respect to a body |
US20150032676A1 (en) * | 2013-07-23 | 2015-01-29 | Twenty-Ten, Inc. | System and method for segmenting social media participants by attitudinal segment |
WO2015032676A1 (en) * | 2013-09-06 | 2015-03-12 | Koninklijke Philips N.V. | Navigation system |
IL236003A (en) * | 2014-11-30 | 2016-02-29 | Ben-Yishai Rani | Model registration system and method |
-
2016
- 2016-12-16 US US16/062,636 patent/US11007014B2/en active Active
- 2016-12-16 JP JP2018531406A patent/JP6878435B2/en active Active
- 2016-12-16 CN CN201680079296.8A patent/CN108778178B/en active Active
- 2016-12-16 EP EP16816652.8A patent/EP3389538B1/en active Active
- 2016-12-16 WO PCT/EP2016/081346 patent/WO2017103046A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN108778178A (en) | 2018-11-09 |
CN108778178B (en) | 2021-10-01 |
WO2017103046A2 (en) | 2017-06-22 |
US20200281660A1 (en) | 2020-09-10 |
EP3389538A2 (en) | 2018-10-24 |
US11007014B2 (en) | 2021-05-18 |
EP3389538B1 (en) | 2022-11-02 |
WO2017103046A3 (en) | 2017-07-27 |
JP2019501704A (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6878435B2 (en) | Medical device tracking | |
US11883118B2 (en) | Using augmented reality in surgical navigation | |
JP7093801B2 (en) | A system that facilitates position adjustment and guidance during surgery | |
US7680528B2 (en) | Method for the graphical representation of a medical instrument inserted at least partially into an object under examination | |
JP6243533B2 (en) | Radiation-free registration of optical shape detection systems to imaging systems | |
WO2016152042A1 (en) | Endoscopic examination support device, method, and program | |
BR102018077046A2 (en) | USE OF INCREASED REALITY TO HELP NAVIGATION DURING MEDICAL PROCEDURES | |
CN104688258B (en) | It is filtered using the dynamic mapping point of pre-acquisition image | |
WO2018012080A1 (en) | Image processing device, image processing method, program, and surgery navigation system | |
JP6559532B2 (en) | Real-time simulation of fluoroscopic images | |
CN106901719B (en) | Registration between coordinate systems used to visualize tools | |
EP3184035B1 (en) | Ascertaining a position and orientation for visualizing a tool | |
JP2016539713A5 (en) | Radiation-free registration of optical shape detection systems to imaging systems | |
CN108113693B (en) | Computed tomography image correction | |
JP7330685B2 (en) | Calibration of ENT rigid tools | |
US20230005135A1 (en) | Image enhancement based on fiber optic shape-sensing | |
US20220096165A1 (en) | Interventional device tracking | |
US20200155235A1 (en) | Modeling anatomical structures using an anatomical measurement wire | |
CN113597289A (en) | Assisting movement of an insertion element within an object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210401 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6878435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |