DE19529950C1 - Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie - Google Patents
Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven ChirurgieInfo
- Publication number
- DE19529950C1 DE19529950C1 DE19529950A DE19529950A DE19529950C1 DE 19529950 C1 DE19529950 C1 DE 19529950C1 DE 19529950 A DE19529950 A DE 19529950A DE 19529950 A DE19529950 A DE 19529950A DE 19529950 C1 DE19529950 C1 DE 19529950C1
- Authority
- DE
- Germany
- Prior art keywords
- color
- laparoscope
- robot
- cameras
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 26
- 238000001356 surgical procedure Methods 0.000 title description 2
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000001276 controlling effect Effects 0.000 claims abstract 2
- 230000001105 regulatory effect Effects 0.000 claims abstract 2
- 230000033001 locomotion Effects 0.000 claims description 5
- 238000002324 minimally invasive surgery Methods 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- 239000003550 marker Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 230000033764 rhythmic process Effects 0.000 claims description 2
- 238000010972 statistical evaluation Methods 0.000 claims description 2
- 238000012937 correction Methods 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 claims 1
- 239000003086 colorant Substances 0.000 description 18
- 230000000694 effects Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010061258 Joint lock Diseases 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 241000153282 Theope Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 239000000499 gel Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/00234—Surgical instruments, devices or methods for minimally invasive surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Robotics (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein Verfahren zum Nachführen eines Ste
reo-Laparoskops in der minimalinvasiven Chirurgie nach dem
Oberbegriff des Anspruchs 1.
Aus WO 87/06353 A1 ist ein Verfahren zum Führen von Operatio
nen bekannt, bei welchem mittels zweier Kameras ein in einem
überwachten Raum vorhandenes, bewegliches Objekt erfaßt wird,
das mit Markierungen versehen ist. Das Verfahren dient somit
lediglich dazu, die Raumkoordinaten der markierten Punkte zu
ermitteln.
Da die minimalinvasive Chirurgie als Alternative zur offenen
Chirurgie zunehmende Bedeutung gewinnt, wird sie heute schon
in vielen Krankenhäusern bei Routineoperationen, wie bei
spielsweise einer Resektion der Gallenblase eingesetzt. Wenn
hierbei ein Eingriff laparoskopisch in Verbindung mit einer
elektronischen Bildübertragung auf einem Monitor erfolgt, wird
bis heute die Kameraführung von einem Assistenzarzt übernom
men.
Eine solche Kameraassistenz ist jedoch mit einer Reihe von
Problemen behaftet. Durch Ermüdung kommt es zu einer unruhigen
Kameraführung und ebenso läßt aufgrund der Übermüdung die Kon
zentration nach. Ferner werden immer wieder Anweisungen des
operierenden Chirurgen fehlerhaft interpretiert. Darüber hin
aus können Eigenmächtigkeiten des Assistensarztes, welche den
Operationsverlauf stören, nicht selten zu atmosphärischen Stö
rungen zwischen dem operierenden Chirurgen und dem Assistenten
führen. Darüber hinaus kann sich der Chirurg physisch behin
dert fühlen. Auch entspricht die Tätigkeit einer Kameraassi
stenz nicht der hochwertigen, medizinischen Ausbildung eines As
sistenzarztes, weshalb sie im Grunde genommen dadurch viel zu
teuer bezahlt wird und von jungen Ärzten verständlicherweise
oftmals ungern ausgeführt wird.
Bei bisher eingesetzten Führungssystemen werden Halteeinrich
tungen verwendet, die schnell gelöst und fixiert werden kön
nen. Beispiele hierfür sind mehrgliedrige Arme mit Kugelgelen
ken und Gelenksperren sowie der sogenannte "C-Bogen" und ein
"Scherengelenk" des KFK-Karlsruhe. Ferner wird von der Fa.
Computer-Motion einen speziell für laparoskopischen Einsatz
entwickelten Roboter mit sechs Freiheitsgraden vertrieben, der
zur Betätigungssteuerung sowohl mit einem Handbediengerät als
auch mit einer Fußschaltung ausgerüstet ist.
Obwohl die bekannten Halteeinrichtungen den Assistenzarzt von
körperlichen Anstrengungen entlasten, ist bei ihnen dennoch
als nachteilig anzusehen, daß sie eine Kameraassistenz nicht
überflüssig machen. Analoges gilt auch für den manuell zu be
dienenden Roboter. Obwohl die Robotersteuerung per Fußschal
tung vom Chirurgen selbst bedient werden kann, lenkt dessen
Bedienung den Chirurgen von seiner eigentlichen operativen Tä
tigkeit ab.
Aufgabe der Erfindung ist es daher, ein Verfahren zum Nachfüh
ren eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
zu schaffen, bei welchem einerseits eine Kamera durch einen
Assistenzarzt nicht mehr nachgeführt zu werden braucht und an
dererseits auch der operierende Chirurg von zusätzlichen Be
dienungstätigkeiten, wie dem Steuern eines Roboters, befreit
ist. Gemäß der Erfindung ist dies bei einem Verfahren zum
Nachführen eines Stereo-Laparoskops in der minimalinvasiven
Chirurgie nach dem Oberbegriff des Anspruchs 1 durch die Merk
male in dessen kennzeichnenden Teil erreicht. Vorteilhafte
Weiterbildungen sind Gegenstand der auf den Anspruch 1 unmit
telbar oder mittelbar rückbezogenen Ansprüche.
Gemäß einer bevorzugten Ausführungsform der Erfindung wird das
Operationsbesteck farblich markiert, so daß es in mindestens
einem von einer von zwei Laparoskop-Kameras gelieferten Bild
identifiziert werden kann. Gemäß der Erfindung werden dann aus
der Lage des farblich markierten Operationsbestecks in von den
beiden Laparoskop-Kameras erzeugten Bildern Signale zum Steu
ern des Roboters abgeleitet. Durch Auswerten dieser Signale
ist dann der Roboter in der Lage, das Laparoskop selbsttätig
in eine solche Position zu bringen, daß das farblich markierte
Operationsbesteck ständig im Zentralbereich des Überwachungs
monitors abgebildet wird.
Bei Einsatz des erfindungsgemäßen Verfahrens ist somit ein
entsprechend angesteuerter Roboter in die Lage versetzt, die
Kameras eines Stereo-Laparoskops selbstständig am Operations
besteck auszurichten, sobald der operierende Chirurg hierzu
ein Kommando erteilt.
Gemäß der Erfindung wird somit die Lage der Kamera relativ zu
dem Operationsbesteck bestimmt und bei einer gegebenenfalls
vorhandenen Ablage wird (werden) dann die Kamera(s) mit Hilfe
des Roboters automatisch nachgeführt. Hierzu werden die ohne
hin vorhandenen Kamerasignale verwendet und mit ihnen dann das
Operationsbesteck bzw. die Markierung auf dem Operationsbe
steck anhand der aufgebrachten Farbe identifiziert.
Bei der Erfindung ist somit die Signalquelle mindestens eine
Marke oder Markierung geeigneter Farbe, die in der Nähe oder
auf einer Instrumentenspitze aufgebracht bzw. vorgesehen ist.
Die Realisierung dieser Signalquelle ist somit ausgesprochen
einfach und deren Kosten sind vernachlässigbar. Obendrein kann
jedes vorhandene Operationsbesteck auch noch nachträglich mit
entsprechenden farbigen Marken versehen werden, so daß die er
findungsgemäße Lösung auch im Hinblick auf vorhandene, hoch
wertige Operationsbestecke ausgesprochen wirtschaftlich einge
setzt werden kann.
Darüber hinaus ist es auch möglich, einen Instrumentenschaft,
der bisher üblicherweise schwarz ist, in einer geeigneten Far
be auszuführen, in diesem Fall würde sich dann das Aufbringen
einer Marke erübrigen.
Obendrein benötigt eine solche Signalquelle keinen Platz und
sie beeinflußt somit auch in keinerlei Weise die mechanische
Konstruktion bzw. den Aufbau der Instrumente. Ebenso wirkt
sich eine aufgebrachte Markierung bzw. angebrachte Marke auch
hinsichtlich der Handhabung der Operationsinstrumente nicht
störend aus.
Diese Art Signalquelle in Form einer farbigen Markierung benö
tig auch keine eigene Energiequelle, was allein schon deswegen
schon besonders vorteilhaft ist, da von außen zugeführtes
Licht ohnehin von dem operierenden Chirurgen dringend benötigt
wird.
Durch Vorsehen unterschiedlicher Farben ist auch eine Codie
rung der Instrumente durchführbar, so daß es möglich ist, das
erfindungsgemäße Verfahren wahlweise auf unterschiedliche In
strumente anzuwenden. Eine Farbunterscheidung in Videobildern
ist mit modernen Bildverarbeitungseinrichtungen schnell und
kostengünstig realisierbar.
Ferner ist das erfindungsgemäße Verfahren so ausgelegt, daß es
mit Hilfe handelsüblicher Geräte und Baugruppen realisiert
werden kann. Das erfindungsgemäße Verfahren arbeitet in Echt
zeitbetrieb und bei ihm ist auch in realistischen Situationen
eine hohe Sicherheit zuverlässig gewährleistet.
Durch das erfindungsgemäße Verfahren ist somit einem operie
renden Chirurgen eine sehr bequeme und zuverlässige Möglich
keit zur Hand gegeben, das Laparoskop zu führen, ohne das Ope
rationsbesteck aus der Hand legen zu müssen. Gemäß einer be
vorzugten Auslegung des erfindungsgemäßen Verfahrens folgt das
Laparoskop dem farbig markierten Operationsbesteck ständig im
sogenannten "Continuous-Mode". Hierbei ist die Regelung so
ausgelegt, daß sie im zentralen Bildbereich nur schwach und in
dessen Randbereich stark wirkt. Hierdurch ist auch sicherge
stellt, daß bei Arbeiten im Operationsbereich, beispielsweise
bei einem Schneiden am Gewebe, keine störenden Bildbewegungen
entstehen. Andererseits ist sichergestellt, daß auch bei grö
ßeren Bewegungen das Operationsbesteck im Monitorbild nicht
verloren geht.
Nachfolgend wird die Erfindung anhand von bevorzugten Ausfüh
rungsformen unter Bezugnahme auf die anliegenden Zeichnungen
im einzelnen erläutert. Es zeigen:
Fig. 1 eine schematisch in Blöcken wiedergegebene Einrichtung
zur Durchführung des erfindungsgemäßen Verfahrens;
Fig. 2 ein Blockschaltbild eines in der Einrichtung der Fig. 1
verwendeten Klassifikators und
Fig. 3a bis 3e Darstellungen, anhand welcher die in Verbindung
mit dem erfindungsgemäßen Verfahren durchzuführende
Farbklassifizierung in Verbindung mit einer Opera
tionsszene vorgenommen wird.
Zuerst werden die zur Durchführung des erfindungsgemäßen Ver
fahrens verwendeten Komponenten beschrieben. Handelsübliche
Stereo-Laparoskope weisen ein starres Rohr mit einem Durchmes
ser in der Größenordnung von 10mm auf, an dessen in den Opera
tionsbereich einzubringendem Ende zwei Objektive und an dessen
anderen Ende ein Kamerakopf vorgesehen sind, in welchem zwei
CCD-Kameras integriert sind. Die von den beiden Kameras gelie
ferten zwei Bilder liegen als Videosignale beispielsweise
in dem Signalformat RGB vor.
Ein Roboter mit einer entsprechenden Robotersteuerung, bei
spielsweise der Firma Computer-Motion, Goleta, CA/USA, hat
sechs Freiheitsgrade, von welchen zwei passiv sind. Damit wird
die Verletzungefahr für einen Patienten durch laterale Kräfte,
d. h. Kräfte, welche quer zur Laparoskop-Achse verlaufen, ver
mieden. Zur Ansteuerung eines solchen Roboters steht eine Bi
bliothek zur Verfügung, die vorgegebenen Kommandos Move-
Left (speed), MoveRight (speed), MoveUp (speed), MoveDown (speed),
ZoomIn(speed) und ZoomOut(speed) beziehen sich hierbei auf
Bewegungen eines Bildes auf einem Monitor und generieren die
erforderlichen Steuerfolgen für die Robotergelenke.
Ferner wird ein handelsüblicher Video-Farb-Digitalisierer,
beispielsweise der Firma Datacube, Inc. Danvers MA/USA zur Di
gitalisierung der aufgenommenen analogen Videosignale verwen
det. Ein solcher Digitalisierer weist auf der Analogseite
einen Multiplexer, mit welchem wahlweise zwischen zwei Kameras
umgeschaltet werden kann, und digitalseitig ein Modul zur
Farbraumkonversion auf.
Ferner ist ein sogenannter Pipeline-Prozessor zur Echtzeit-
Bildverarbeitung, wie er beispielsweise von der Firma Datacube
angeboten wird, mit einem Digitalisierer, wie beispielsweise
demjenigen der Firma Datacube über einen 10 MHz Datenbus ver
bunden. In einem solchen Prozessor sind beispielsweise eine
LookUp-Tabelle (LUT), Stabilisierungsprozessoren, ein Fal
tungsmodul und weitere Module enthalten. Ein solcher Prozessor
hat die erforderlichen Bausteine für eine Bildspeicherung und
Verarbeitung; eine anwender- bzw. anwendungsspezifische Initi
alisierung dieses Prozessors und dessen Verschaltung sind pro
grammierbar. Eine Zentraleinheit (CPU) wird gleichzeitig zur
Verwaltung der Bildverarbeitungs-Hardware und als Schnittstel
le zur Robotersteuerung verwendet.
Wie aus Fig. 1 zu ersehen ist, ist die Grundstruktur zur Durch
führung des erfindungsgemäßen Verfahrens eine Regelschleife.
Ein Roboter 1 hält ein Laparoskop, von welchem in Fig. 1 nur
dessen beiden CCD-Kameras 2₁ und 2₂ dargestellt sind. Die mit
tels der Kamera 2₁ und 2₂ aufgenommenen Bilder werden im RGB-
(Rot-Grün-Blau)Format an eine Bildverarbeitungseinheit 3 über
tragen. Die im RGB-Format vorliegenden Bilder werden an einen
Multiplexer 30 der Bildverarbeitungseinheit 3 angelegt, der
zwischen den beiden Kameras 2₁ und 2₂ in einem vorgegebenen
Rhythmus von beispielsweise von 25Hz umschaltet, so daß mit
nur einer Bildverarbeitungseinheit Stereobilder ausgewertet
werden können.
Durch eine solche Bildverarbeitung sollen jedoch Pixel, welche
von einer farbigen Marke oder Markierung eines - in Fig. 1
nicht dargestellten - Laparoskops stammen, von allen anderen
zu unterscheiden sein. Ferner eignet sich für eine Klas
sifikation der HSV- [Hue (Farbton) -Saturation (Farbsättigung)
Value(Lumminanz)]Farbraum erheblich besser als der RGB-Farb
raum, weil im HSV-Farbraum die Farbe durch die zwei intensi
tätsunabhängigen Komponenten "H" und "S" sowie die Intensität
durch die farbunabhängige Komponente "V" dargestellt werden.
Aus diesem Grund erfolgt in einem dem Multiplexer 20 nachge
ordneten Konverter 31 eine RGB/HSV-Farbraum-Konvertierung.
Dem Konverter 31 ist ein Klassifikator 32 nachgeordnet, dessen
spezieller Aufbau nachstehend anhand von Fig. 2 beschrieben
wird. In Fig. 2 ist die zentrale Komponente des Klassifikators
32 eine (16 × 16) Bit Look-Up-(LU-)Tabelle 32. Aus jeweils 8
Bit der Farbkomponenten "H" und "S" wird ein 16 Bit Wort ge
bildet, welches als Adresse für die LU-Tabelle 32-1 dient.
Hierbei ist die LU-Tabelle 32-1 so vorbelegt, daß Farbwerte,
welche zu einer Marke gehören, den Wert 255 (logisch "1") er
halten, während alle anderen den Wert Null (logisch "0") er
halten. Die LU-Tabelle 32-1 kann mit einer Rate von 20 MHz ge
lesen werden.
Aufgrund von Kamerarauschen und Sättigungseffekten kann es zu
Fehlklassifikationen kommen. Insbesondere bei einem niedrigen
Signalpegel ist diese Gefahr groß. Daher erfolgt eine Nachbe
handlung des mittels der LU-Tabelle erhaltenen Klassifika
tionsergebnisses mit dem Ziel, alle fälschlich mit dem Wert
255 markierten Pixel zu korrigieren. Hierbei wird in Kauf ge
nommen, daß auch Pixel, welche zu einer farbigen Marke oder
Markierung gehören, den Wert Null erhalten.
Mit Hilfe der Signal-Komponente "V" werden alle die Pixel auf
Null gesetzt, welche aufgrund von Rauschen einem sehr niedri
gen Signalpegel oder wegen Sättigung einem sehr hohen Signal
pegel zugeordnet sind. Hierzu wird die Signal-Komponente "V"
über den zweiseitigen Schwellenwertgeber 32-2 geleitet und in
einer Multipliziereinheit 32-3 mit dem Ausgangssignal der LU-
Tabelle 32-1 multipliziert.
Die verbleibenden Restfehler sind einzelne Pixel oder kleine
Pixelgruppen an rasch wechselnden Orten. Das Bild der Marke
(Nutzsignal) ist dagegen ein ausgedehntes Gebiet, das sich
sehr langsam bewegt. Aufgrund dieser Unterschiede im örtlichen
und zeitlichen Verhalten können somit Restfehler sehr effi
zient durch eine zeitliche und anschließende örtliche Tiefpaß-
Filterung in einem zeitlichen Tiefpaß 32-4 und einem diesem
nachgeordneten örtlichen Tiefpaß 32-5 drastisch reduziert wer
den. Anschließend wird in einem einseitigen Schwellenwertgeber
36-2 eine entsprechende Schwellenwertoperation durchgeführt,
wodurch eine effiziente nicht-lineare Filterung realisiert
wird.
Wird die Filterung durch Addition aufeinanderfolgender Frames
und einer Faltung mit einer gleichförmig belegten Maske, bei
spielsweise der Größe (7 × 7) durchgeführt, so wird eine Feh
lerreduktion um Faktoren von 50 bis 100 pro Klassifikations
fehler erreicht.
Eine anschließende statistische Auswertung in einem dem Klas
sifikator nachgeordneten Statistik-Prozessor 33₁ liefert als
Ergebnis den Schwerpunkt (SP) und in einem weiteren, parallel
dazu vorgesehenen Statistik-Prozessor 33₂ das sogenannte um
schreibende Rechteck BB (Bounding Box) eines Bildes der Marke
oder Markierung. Auch wenn ein erheblicher Prozentsatz der Pi
xel der Marke oder Markierung fehlen, stört dies das Ergebnis
im Gegensatz zu fehlerhaft als Marken-Pixel klassifizierte
Hintergrundpixel nur wenig.
Die in Fig. 1 in Form von Blockbildern wiedergegebenen Regel
schleife 3 ist schließlich nach dem Klassifikator 32 über
einen Statistik-Prozessor 33₁ abgeschlossen. Dem Prozessor 33₁
sind ein Regler 34 sowie eine Robotersteuerung 35 nachgeord
net.
Aus den Bildschwerpunkten SP der Marken bzw. Markierungen in
zwei aufeinanderfolgenden Bildern von den Kameras 2₁ und 2₂
werden dann der Mittelpunkt und die Disparität bestimmt. Eine
Abweichung des Mittelpunkts von seiner Sollposition im Zen
tralbereich des Monitorbildes wird zu einer Lateralsteuerung
(MoveUp-Down-Left-Right) und die Abweichung der Disparität von
jedem Sollwert wird zu einer Transversalsteuerung (ZoomIn-Out)
verwendet. In allen Fällen ist die Rückstellgeschwindigkeit
proportional zu einer Ablage.
Damit ist die Stabilität des geregelten Systems sicherge
stellt. Obendrein verhält sich das System in der Umgebung des
Arbeitspunktes ruhig, was für den Chirurgen sehr wichtig ist;
auch wird das gesamte System bei großen Ablagen rasch zurück
geführt.
Zur Erhöhung der Systemsicherheit wird eine Konfidenz der Mes
sungen fortlaufend in einer Konfidenztests sowie eine Pro
grammsteuerung durchführenden Einheit 36 geprüft. Zu den bei
den dem Klassifikator 32 nachgeordneten Statistik-Prozessoren
33₁ und 33₂ ist hierzu ein Konturdaten-Prozessor 35 parallel
geschaltet. In der Konfidenztests und eine Programmsteuerung
durchführenden Einheit 36 werden mit Hilfe der vom Statistik-
Prozessor 33₂ abgegebenen, umschreibenden Rechtecke BB und der
vom Prozessor 35 gebildeten Kontur sogenannte interessierende
Regionen ROI (Region Of Interest) in welchen das Bild einer
Marke oder Markierung erwartet wird, bestimmt und von dieser
aus sowohl an den Regler 34 als auch an die beiden Statistik-
Prozessoren 33₁ und 33₂ sowie den Konturdaten-Prozessor 35 an
gelegt. Außerhalb der interessierenden Regionen ROI liegende
Pixel werden nicht ausgewertet.
Für eine praxisbezogene Anwendung des erfindungsgemäßen Ver
fahrens muß ferner auch noch bestimmt werden, welche Farben
die Marken bzw. Markierungen erhalten sollen und wie bei einer
gegebenen farbigen Marke oder Markierung der Klassifikator
ausgelegt werden muß. Dazu muß insbesondere festgelegt werden,
wie die LU-Tabelle belegt werden muß.
Zur Lösung dieser Probleme ist von der Anmelderin ein Farbaus
wahlverfahren nach dem Prinzip "Überwachtes Lernen an Beispie
len" mit Hilfe eines graphischen Interfaces entwickelt worden.
Zur Anwendung dieses Verfahrens sind lediglich ein Computer
mit der Möglichkeit, Farbbilder in Echtfarbe darzustellen, und
ein Maus-Interface erforderlich, um Polygone auf dem Monitor
zu zeichnen.
Das Kernstück des von der Anmelderin entwickelten Farbauswahl-
Verfahrens ist eine Berechnung von zweidimensionalen Histo
grammen in polygonalen Gebieten und eine graphische Ergebnis
darstellung. In der Ergebnisdarstellung sind ähnliche Farben
auf nahe beieinanderliegende Punkte, sogenannte kompakte Clu
ster, und unähnliche Farben auf weit entfernte Punkte, soge
nannte disjunkte Cluster, abzubilden.
Hierzu werden von Videobändern, die von tatsächlichen Opera
tionen aufgenommen worden sind, eine Anzahl Farbbilder typi
scher Szenen genommen, in welchen sich alle möglichen, bei
solchen Operationen vorkommenden Farben befinden. Jedes dieser
Bilder wird im RGB-Format gespeichert, d. h. jedes Pixel der
Bilder hat einen RGB-Wert, welcher eine Farbe repräsentiert.
Da es ausreicht, jede Farbe mit zwei Werten darzustellen, wird
jeder RGB-Wert auf eine zweidimensionale Ebene, d. h. die HS-
Ebene, projiziert, die den Farbton (Hue) und die Farbsättigung
(Saturation) enthält. Hierbei wird in jeder Position der HS-
Ebene die Anzahl der Pixel aufsummiert, welche auf die gleiche
HS-Position projiziert werden. Dadurch wird ein zweidimensio
nales Farbhistogramm erhalten, in dem alle in den Szenen vor
kommenden Farben mit ihrer Häufigkeit dargestellt werden.
Um Anwendern einen anschaulichen, visuellen Eindruck der Far
ben zu geben, wird ein Farbhistogramm dargestellt; hierbei hat
die Farbe jeder HS-Stelle eine durchschnittliche Farbintensi
tät von allen an dieser Stelle registrierten Pixel. Dadurch
kann ein Anwender unmittelbar vorhandene Farblücken finden,
die zur Farbmarkierung des Operationsbestecks verwendet werden
können. Damit kann der Anwender dem Hersteller objektive Farb
maße (H, S) angeben.
Sicherheitshalber wird das markierte Instrument bzw. Opera
tionsbesteck bei einer später erfolgenden Klassifikator-Ausle
gung in einer Hardware-Implementierung wegen einer eventuellen
Farbänderung der ausgewählten Farbe durch die Kamera noch ein
mal farblich analysiert.
Anhand von Fig. 3A bis 3E wird ein Beispiel einer Farbklassifi
zierung erläutert. In der Schwarz-Weiß-Darstellung der Fig. 3A
ist eine "Farbpalette" für den Farbraum wiedergegeben, in wel
chem die Klassifizierung später erfolgt. Um den Verlauf des
Farbspektrums anzudeuten, sind markante Farben, nämlich gelb,
rot, violett, blau und grün, eingetragen. Alle Farben, die auf
einem vom Zentrum ausgehenden Strahl liegen, haben einen Farb
ton (H) und alle Farben, die auf dem konzentrischen Kreis lie
gen, haben eine Farbsättigung (S).
In Fig. 3B ist eine Szene wiedergegeben, bei welcher der etwa
in der Mitte liegende pfeilspitzen-artige Bereich eine bräun
liche Farbe hat und der ihn umgebende Bereich im wesentlichen
eine grünlich-graue Farbe hat. In der daneben angeordneten
Fig. 3C sind innerhalb der kreisförmigen Fläche durch ein amor
phes Gebilde die Einträge in den Farbraum für die Farben ein
getragen, welche in der Szene vorkommen; d. h. das amorphe Ge
bilde ist in dem oberen, in Fig. 3C dunkleren Bereich gräulich
grün und in dem rechts darunter liegenden, etwas helleren Be
reich bräunlich ausgelegt.
Um die visuelle Zuordnung zu der in Fig. 3B wiedergegebenen
Szene zu erleichtern, werden jedoch nicht die Farben aus dem
normierten Farbraum der Fig. 3A eingetragen, sondern zu jeder
Farbe wird die mittlere Intensität ermittelt, mit dieser auf
den RGB-Farbraum zurücktransformiert, und das entsprechende
Ergebnis eingetragen. In dem amorphen Bereich ist daher deut
lich ein Farbgebiet zu erkennen, das von der Szene belegt
wird, und wie vorstehend ausgeführt, in der oberen etwas dun
kleren Bereich die Farbe grünlich grau und in dem unteren in
Fig. 3C etwas helleren Bereich die bräunliche Farbe wiedergibt.
Innerhalb dieses amorphen Gebiets ist deutlich das entspre
chende Subcluster, nämlich bräunlich und grünlich-grau zu er
kennen. Auf dem kreisförmigen Rand des Farbraumes liegen die
einzelnen Farben bei 100%, wobei in der Schwarz-Weiß-Darstel
lung der Fig. 3C wiederum nur die Hauptfarben gelb, rot, vio
lett, blau und grün eingetragen sind. Hieraus ist auch klar zu
ersehen, welcher Farbbereich - innerhalb des kreisförmigen,
vielfarbigen Randes - für Markierungen frei ist.
In der Schwarz-Weiß-Darstellung der Fig. 3D ist links unten ne
ben der bereits in Fig. 3B wiedergegebenen Szene noch zusätz
lich ein markiertes Instrument zu sehen. Die interaktiv einge
zeichneten Regionen, von welchen der mittlere, in Fig. 3D weiß
lich wiedergegebene Bereich der Farbe gelb entspricht und die
beiden angrenzenden Bereiche eine blau-grüne Farbe haben, sind
in der Darstellung der Fig. 3D durch dunkle schwarze Linien
markiert.
In der Schwarz-Weiß-Darstellung der Fig. 3E sind die Farbclu
ster zu erkennen, die zu den Farben der Marke gehören. Hierbei
befindet sich die Farbe "gelb", die in Fig. 3E im rechten
oberen Bereich als eine gezackte, von weiß in grau übergehende
Linie wiedergegeben ist, in deutlicher Nähe zum Farbgebiet des
Hintergrundes (siehe Fig. 3C); dagegen ist die blau-grüne Farbe
weit von diesem entfernt.
Im vorliegenden Fall wird daher, die blau-grüne Farbe zur
Identifizierung der Marke verwendet, da sie weiter vom Farbge
biet des Hintergrunds entfernt ist. Hierzu wurde das zur Marke
gehörige Farbgebiet interaktiv durch ein - in der Fig. 3E weiß
eingetragenes - umschreibendes Polygon markiert.
Im Hinblick auf die Auslegung des Klassifikators 32 wählt so
mit ein Anwender die Gebiete aus, deren Farben später eine
Klasse bilden, indem er mit der Maus die sogenannten um
schreibenden Polygone markiert. Die Berechnung des Farbhisto
gramms wird auf das Innere der Polygone beschränkt, und das
Ergebnis wird graphisch dargestellt. In dieser Darstellung
erkennt dann der Anwender die Auslegung der Farbcluster und er
kann wiederum durch umschreibende Polygone die Klassengrenzen
festlegen. Hierbei können auch verschiedene Farben zu einer
Klasse zusammengefaßt werden. Die LU-Tabelle 32-1 im Klassifi
kator 32 erhält danach nur für die ausgewählten Farben den
Eintrag 255, wie vorstehend bereits ausgeführt ist, während
sie für alle übrigen Farben den Eintrag Null erhält.
Umfangreiche Untersuchungen der Anmelderin haben jedoch ge
zeigt, daß die Wahl einer geeigneten Farbe ausschließlich nach
dem subjektiven Eindruck sehr schwierig ist, und häufig zu un
befriedigenden Ergebnissen führen kann. Dies liegt daran, daß
die Farbtemperatur der Beleuchtung, die Farbwiedergabe der Ka
mera und die Farbwiedergabe des Monitors zu Farbverschiebungen
führen. Außerdem scheint dieselbe Farbe bei unterschiedlicher
Helligkeit verschieden wahrgenommen zu werden. Die vorstehend
beschriebene Farbauswahlmethode ist unabhängig von Farbver
schiebungen der Kameras und des Monitors und objektiviert so
mit die Farbwahl und die Klassifikatorauslegung.
Die vorstehend beschriebene Farbauswahlmethode ist darüber
hinaus für jede Art von Farbklassifikation anwendbar, so bei
spielsweise für die Qualitätskontrolle bunter Textilien ange
führt. Hier ist es dann möglich, sich auf eine bestimmte Farbe
einzustellen, um etwa den Verlauf der Fäden dieser Farbe oder
den Druck von Mustern zu kontrollieren.
Ferner ist vorteilhaft, daß der Anwender es in keiner Weise
mit Zahlen zu tun hat. Er bedient das Farbauswahl-Verfahren
auf eine sehr bequeme Weise und kommt sehr schnell zu zuver
lässigen Ergebnissen. Ferner kann die Selektivität des Klassi
fikators auf sehr einfache Weise der jeweiligen Problemstel
lung angepaßt werden. Hinsichtlich der Form der Klassengrenzen
bestehen im Gegensatz zu analytischen Klassifikatoren oder
Neuronalen Netzen keinerlei Beschränkungen.
Claims (7)
1. Verfahren zum Nachführen eines Stereo-Laparoskops in der
minimalinvasiven Chirurgie, das bezüglich eines im Operations
bereich befindlichen, über einen Monitor überwachten Opera
tionsbestecks mit Hilfe eines Roboters bewegbar ist, dadurch
gekennzeichnet, daß
das Operationsbesteck farblich markiert ist und in mindestens einem von einer von zwei Kameras des Laparoskops gelieferten Bild identifiziert wird, und
aus der Lage des farblich markierten Operationsbestecks in von beiden Kameras erzeugten Bildern Signale zum Steuern des Robo ters in der Weise abgeleitet werden,
daß der Roboter (10) das Laparoskop selbsttätig in eine solche Position bringt, daß das farblich markierte Operationsbesteck ständig im Zentralbereich des Überwachungsmonitors abgebildet wird.
das Operationsbesteck farblich markiert ist und in mindestens einem von einer von zwei Kameras des Laparoskops gelieferten Bild identifiziert wird, und
aus der Lage des farblich markierten Operationsbestecks in von beiden Kameras erzeugten Bildern Signale zum Steuern des Robo ters in der Weise abgeleitet werden,
daß der Roboter (10) das Laparoskop selbsttätig in eine solche Position bringt, daß das farblich markierte Operationsbesteck ständig im Zentralbereich des Überwachungsmonitors abgebildet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zum
Vermeiden von beim Arbeiten mit dem Operationsbesteck stören
den Bewegungen eines Bildes das Laparoskop dem farbig markier
ten Operationsbesteck ständig in der Weise nachgeführt wird,
daß im Zentralbereich des Monitors das Nachführen eines Bildes
verhältnismäßig schwach, jedoch in dessen Randbereich stark
geregelt wird.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
- a) zur Steuerung des in eine Regelschleife eingebundenen Ro boters (10) die mit den beiden Kameras (2₁, 2₂) des Lapa roskops aufgenommenen, farbigen Bilder im dreidimensiona len RGB-Format an eine Bildverarbeitungseinheit (3) über tragen werden, in welcher sie in zweidimensionale Bilder im HSV-Raum umgesetzt werden;
- b) anschließend in einer vorbelegten Look-Up-(LU-)Tabelle (32- 1) eines Klassifikators (32) der Bildverarbeitungseinheit (3) zur Markierung gehörende Farbwerte hervorgehoben und auf einen eindeutigen Wert (wie 255, logisch "1") einge stellt werden, während alle übrigen Werte auf Null ge bracht werden;
- c) in dem Klassifikator (32) nachgeordneten Statistik-Prozes soren (33₁; 33₂) jeweils als Ergebnisse von diesen ausge führten statistischen Auswertungen der Schwerpunkt (SP) bzw. ein Umschreiben der Rechtecke (BB) eines Bildes der Markierung gebildet werden;
- d) schließlich die erhaltenen Markierungspixel über einen Reg ler (34) an eine Steuereinheit (11) des Roboters (10) an gelegt werden, in welcher (11) aus den Bildschwerpunkten (SP) der Markierungen in zwei aufeinanderfolgenden Bildern der Kameras (2₁, 2₂) der Bildmittelpunkt und eine Dispa rität gebildet werden, wobei eine Abweichung des Mittel punkts von einer Sollposition im Zentralbereich des Moni tor-Bildes zur Lateralsteuerung des robotergeführten Laparoskops und die Abweichung der Disparität von ihrem Sollwert zur Transversalsteuerung des Laparoskops verwen det werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß zur
Erzeugung von Stereobildern am Eingang der Bildverarbeitungs
einheit (3) mittels eines Multiplexers (30) in vorgegebenem
Rhythmus zwischen den Eingängen der Kameras (2₁, 2₂) des Lapa
roskops umgeschaltet wird.
5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß in
der LU-Tabelle (32-1) des Klassifikators (32) aus einer An
zahl Bits der Farbkomponenten "H" und "S" der in den HSV-Raum
umgesetzten Farbbilder als Adresse für die LU-Tabelle (32-1)
ein Wort mit der doppelten Anzahl Bits gebildet wird,
wobei die LU-Tabelle (32) so vorbelegt wird, daß zur Markie
rung gehörende Farbwerte den höchsten Wert (wie 255, logisch
"1") erhalten und die übrigen Werte Null (logisch "0") sind,
daß zur Korrektur von fälschlich mit dem höchsten Wert verse
henen Pixel alle Pixel Null gesetzt werden, die einem sehr
niedrigen Signalpegel (Rauschen) oder einem sehr hohen Signal
pegel (Sättigung) zugeordnet sind, indem die Komponente "V"
der umgesetzten Farbbilder, über einen zweiseitigen Schwellen
wertgeber (32-2) geleitet, in einer Multipliziereinheit (32-3)
mit den Ausgangswerten der LU-Tabelle (32-1) multipliziert
werden und
Restfehler in Form einzelner Pixel oder Pixelgruppen einer
zeitlichen und örtlichen Filterung (32-4; 32-5) unterzogen und
anschließend über einen einseitigen Schwellenwertgeber (32-6)
als Ausgangsdaten des Klassifikators (32) vorliegen.
6. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß zur
Erhöhung der Systemsicherheit fortlaufend eine Konfidenz der
Messungen durchgeführt wird.
7. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß zum
schnellen und sicheren Auslegen eines Farbklassifikators nach
dem Prinzip des "überwachten Lernens am Beispiel"
- a) von einer computergestützten Farbanalyse charakteristische Szenen (wie Kamerabilder) auf einem Monitor präsentiert werden, so daß in diesen Szenen mit Hilfe eines Eingabege räts (wie einer Maus) Regionen markierbar sind, deren In nenbereich hinsichtlich einer Erstellung eines zweidimen sionalen Farbhistogramms in einem auf Helligkeit normier ten Farbraum (wie Farbton (H) und Sättigung (S)) weiter ausgewertet werden soll;
- b) als Ergebnis der Farbanalyse das erstellte zweidimensionale Farbhistogramm auf dem Monitor dargestellt wird, so daß mit Hilfe des Eingabegeräts (Maus) in der Histogramm-Dar stellung Regionen markierbar sind, welchen eine Bezeich nung beispielsweise in Form eines Zahlenwerts zugeordnet wird, und
- c) aus den beim Schritt b) markierten Farbregionen und den zu geordneten Bezeichnungen anschließend automatisch die Be legung einer Look-Up-Tabelle festgelegt wird, wodurch je der markierten Farbe des zweidimensionalen Farbraumes die die beim Schritt b) gewählte Bezeichnung zugeordnet ist.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19529950A DE19529950C1 (de) | 1995-08-14 | 1995-08-14 | Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie |
FR9610056A FR2737860B1 (fr) | 1995-08-14 | 1996-08-09 | Procede pour realiser l'asservissement d'un laparoscope stereoscopique dans le domaine de la chirurgie avec ingerance minimale dans le corps humain |
US08/696,159 US5820545A (en) | 1995-08-14 | 1996-08-13 | Method of tracking a surgical instrument with a mono or stereo laparoscope |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19529950A DE19529950C1 (de) | 1995-08-14 | 1995-08-14 | Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19529950C1 true DE19529950C1 (de) | 1996-11-14 |
Family
ID=7769502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19529950A Expired - Lifetime DE19529950C1 (de) | 1995-08-14 | 1995-08-14 | Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie |
Country Status (3)
Country | Link |
---|---|
US (1) | US5820545A (de) |
DE (1) | DE19529950C1 (de) |
FR (1) | FR2737860B1 (de) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999004719A1 (de) | 1997-07-24 | 1999-02-04 | Karl Storz Gmbh & Co. | Endoskopisches instrument zur durchführung von endoskopischen eingriffen oder untersuchungen und endoskopisches instrumentarium, enthaltend ein solches endoskopisches instrument |
WO2001056460A1 (de) | 2000-02-01 | 2001-08-09 | Karl Storz Gmbh & Co. Kg | Vorrichtung zur intrakorporalen, minimal-invasiven behandlung eines patienten |
DE10225077A1 (de) * | 2002-06-05 | 2003-12-24 | Vr Magic Gmbh | Trackingsystem |
EP1779802A2 (de) | 2005-11-01 | 2007-05-02 | Biosense Webster, Inc. | Steuerung der Richtung eines bildgebenden Katheter |
WO2008113957A1 (fr) * | 2007-02-23 | 2008-09-25 | UNIVERSITE DE STRASBOURG (Etablissement Public à Caractère Scientifique, Culturel et Professionnel) | Dispositif d'endoscope flexible a asservissement visuel et procede de stabilisation d'un tel dispositif |
WO2009141769A1 (en) * | 2008-05-19 | 2009-11-26 | Koninklijke Philips Electronics N.V. | Reproducible positioning of sensing and/or treatment devices |
DE102009010263A1 (de) | 2009-02-24 | 2010-09-02 | Reiner Kunz | Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking |
DE102010040987A1 (de) * | 2010-09-17 | 2012-03-22 | Siemens Aktiengesellschaft | Verfahren zum Platzieren eines Laparoskopieroboters in einer vorgebbaren Relativlage zu einem Trokar |
WO2015014952A1 (de) | 2013-07-31 | 2015-02-05 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs |
DE102013109677A1 (de) | 2013-09-05 | 2015-03-05 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs |
DE102015100927A1 (de) * | 2015-01-22 | 2016-07-28 | MAQUET GmbH | Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes |
US11406455B2 (en) | 2018-04-25 | 2022-08-09 | Carl Zeiss Meditec Ag | Microscopy system and method for operating the microscopy system |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19648338C2 (de) * | 1996-11-22 | 2001-02-01 | Wolf Gmbh Richard | Vorrichtung zur Nachführung einer Zielmarke für ein Therapiegerät |
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
US6424885B1 (en) | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
US8229549B2 (en) * | 2004-07-09 | 2012-07-24 | Tyco Healthcare Group Lp | Surgical imaging device |
DE19961971B4 (de) * | 1999-12-22 | 2009-10-22 | Forschungszentrum Karlsruhe Gmbh | Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments |
DE10025285A1 (de) * | 2000-05-22 | 2001-12-06 | Siemens Ag | Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe |
US6748105B1 (en) * | 2000-05-31 | 2004-06-08 | Stmicroelectronics, Inc. | Method and system for creating anaglyphs |
US6817974B2 (en) | 2001-06-29 | 2004-11-16 | Intuitive Surgical, Inc. | Surgical tool having positively positionable tendon-actuated multi-disk wrist joint |
US20060178556A1 (en) | 2001-06-29 | 2006-08-10 | Intuitive Surgical, Inc. | Articulate and swapable endoscope for a surgical robot |
US6941017B2 (en) * | 2001-09-18 | 2005-09-06 | Tektronix, Inc. | Temporal processing for realtime human vision system behavior modeling |
US7386365B2 (en) | 2004-05-04 | 2008-06-10 | Intuitive Surgical, Inc. | Tool grip calibration for robotic surgery |
CN101181167B (zh) | 2002-12-06 | 2013-05-08 | 直观外科手术操作公司 | 用于手术工具的柔性肘节 |
US20060074307A1 (en) * | 2004-05-10 | 2006-04-06 | Tatsuo Igarashi | Body cavity diagnostic system |
US8147503B2 (en) * | 2007-09-30 | 2012-04-03 | Intuitive Surgical Operations Inc. | Methods of locating and tracking robotic instruments in robotic surgical systems |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US8073528B2 (en) * | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
US8108072B2 (en) * | 2007-09-30 | 2012-01-31 | Intuitive Surgical Operations, Inc. | Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information |
US10555775B2 (en) | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
US7725214B2 (en) * | 2006-06-13 | 2010-05-25 | Intuitive Surgical Operations, Inc. | Minimally invasive surgical system |
US9718190B2 (en) * | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US8903546B2 (en) | 2009-08-15 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Smooth control of an articulated instrument across areas with different work space conditions |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US9168104B2 (en) * | 2008-06-23 | 2015-10-27 | John Richard Dein | Intra-operative system for identifying and tracking surgical sharp objects, instruments, and sponges |
US12239396B2 (en) | 2008-06-27 | 2025-03-04 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US9439556B2 (en) | 2010-12-10 | 2016-09-13 | Wayne State University | Intelligent autonomous camera control for robotics with medical, military, and space applications |
US20150297313A1 (en) * | 2012-12-14 | 2015-10-22 | The Trustees Of Columbia University In The City Of New York | Markerless tracking of robotic surgical tools |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
US10744646B2 (en) | 2013-08-29 | 2020-08-18 | Wayne State University | Camera control system and method |
US10499994B2 (en) | 2014-02-27 | 2019-12-10 | University Surgical Associates, Inc. | Interactive display for surgery with mother and daughter video feeds |
KR20170035831A (ko) * | 2014-03-14 | 2017-03-31 | 시냅티브 메디컬 (바베이도스) 아이엔씨. | 인텔리전트 포지셔닝 시스템과 그것의 방법들 |
JP6323184B2 (ja) * | 2014-06-04 | 2018-05-16 | ソニー株式会社 | 画像処理装置、画像処理方法、並びにプログラム |
EP3326566A4 (de) * | 2015-07-23 | 2019-07-03 | Olympus Corporation | Medizinisches system und betriebsverfahren dafür |
EP3326510A4 (de) | 2015-07-23 | 2019-04-17 | Olympus Corporation | Manipulator und medizinisches system |
WO2018217431A1 (en) * | 2017-05-25 | 2018-11-29 | Covidien Lp | Robotic surgical system with automated guidance |
US10772703B2 (en) * | 2017-08-25 | 2020-09-15 | Titan Medical Inc. | Methods and apparatuses for positioning a camera of a surgical robotic system to capture images inside a body cavity of a patient during a medical procedure |
WO2019175129A1 (en) | 2018-03-12 | 2019-09-19 | Koninklijke Philips N.V. | Ultrasound imaging plane alignment using neural networks and associated devices, systems, and methods |
CN114366313B (zh) * | 2022-03-21 | 2022-08-02 | 杭州华匠医学机器人有限公司 | 一种基于腹腔镜手术器械位姿的持镜机器人控制方法 |
CN116439636B (zh) * | 2023-03-08 | 2023-11-24 | 极限人工智能有限公司 | 一种器械、内窥镜系统、医疗系统及其定位控制方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1987006353A1 (en) * | 1986-04-11 | 1987-10-22 | Valtion Teknillinen Tutkimuskeskus | Method for the three-dimensional surveillance of the object space |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4651201A (en) * | 1984-06-01 | 1987-03-17 | Arnold Schoolman | Stereoscopic endoscope arrangement |
DE4102196C2 (de) * | 1990-01-26 | 2002-08-01 | Olympus Optical Co | Abbildungsvorrichtung zum Nachführen eines Objektes |
US5217453A (en) * | 1991-03-18 | 1993-06-08 | Wilk Peter J | Automated surgical system and apparatus |
JP2600515B2 (ja) * | 1991-05-14 | 1997-04-16 | 富士ゼロックス株式会社 | 画像処理方法 |
US5417210A (en) * | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
KR940007163B1 (ko) * | 1991-07-09 | 1994-08-06 | 삼성전자 주식회사 | 캠코더의 피사체 자동추적장치 |
EP0664038B1 (de) * | 1992-02-18 | 2000-10-11 | Neopath, Inc. | Verfahren zur identifizierung von objekten mit daten-verarbeitungstechnik |
US5350391A (en) * | 1992-10-19 | 1994-09-27 | Benedetto Iacovelli | Laparoscopic instruments |
US5557688A (en) * | 1992-11-18 | 1996-09-17 | Fuji Photo Film Co., Ltd. | Method of extracting characteristic image data and color data conversion device for image processing apparatus |
WO1995001757A1 (en) * | 1993-07-07 | 1995-01-19 | Cornelius Borst | Robotic system for close inspection and remote treatment of moving parts |
US5649021A (en) * | 1995-06-07 | 1997-07-15 | David Sarnoff Research Center, Inc. | Method and system for object detection for instrument control |
-
1995
- 1995-08-14 DE DE19529950A patent/DE19529950C1/de not_active Expired - Lifetime
-
1996
- 1996-08-09 FR FR9610056A patent/FR2737860B1/fr not_active Expired - Fee Related
- 1996-08-13 US US08/696,159 patent/US5820545A/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1987006353A1 (en) * | 1986-04-11 | 1987-10-22 | Valtion Teknillinen Tutkimuskeskus | Method for the three-dimensional surveillance of the object space |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999004719A1 (de) | 1997-07-24 | 1999-02-04 | Karl Storz Gmbh & Co. | Endoskopisches instrument zur durchführung von endoskopischen eingriffen oder untersuchungen und endoskopisches instrumentarium, enthaltend ein solches endoskopisches instrument |
DE19731894C1 (de) * | 1997-07-24 | 1999-05-12 | Storz Karl Gmbh & Co | Endoskopisches Instrument zur Durchführung von endoskopischen Eingriffen oder Untersuchungen und endoskopisches Instrumentarium, enthaltend ein solches endoskopisches Instrument |
WO2001056460A1 (de) | 2000-02-01 | 2001-08-09 | Karl Storz Gmbh & Co. Kg | Vorrichtung zur intrakorporalen, minimal-invasiven behandlung eines patienten |
DE10004264A1 (de) * | 2000-02-01 | 2001-08-09 | Storz Karl Gmbh & Co Kg | Vorrichtung zur intrakorporalen, minimal-invasiven Behandlung eines Patienten |
DE10004264C2 (de) * | 2000-02-01 | 2002-06-13 | Storz Karl Gmbh & Co Kg | Vorrichtung zur intrakorporalen, minimal-invasiven Behandlung eines Patienten |
DE10225077A1 (de) * | 2002-06-05 | 2003-12-24 | Vr Magic Gmbh | Trackingsystem |
DE10225077B4 (de) * | 2002-06-05 | 2007-11-15 | Vr Magic Gmbh | Objektverfolgeanordnung für medizinische Operationen |
EP1779802A2 (de) | 2005-11-01 | 2007-05-02 | Biosense Webster, Inc. | Steuerung der Richtung eines bildgebenden Katheter |
EP1779802A3 (de) * | 2005-11-01 | 2007-12-19 | Biosense Webster, Inc. | Steuerung der Richtung eines bildgebenden Katheter |
WO2008113957A1 (fr) * | 2007-02-23 | 2008-09-25 | UNIVERSITE DE STRASBOURG (Etablissement Public à Caractère Scientifique, Culturel et Professionnel) | Dispositif d'endoscope flexible a asservissement visuel et procede de stabilisation d'un tel dispositif |
WO2009141769A1 (en) * | 2008-05-19 | 2009-11-26 | Koninklijke Philips Electronics N.V. | Reproducible positioning of sensing and/or treatment devices |
DE102009010263A1 (de) | 2009-02-24 | 2010-09-02 | Reiner Kunz | Steuerung der Bildaufnahme bei Endoskopen und Steuerung mikroinvasiver Instrumente mittels Eye-Tracking |
WO2010097315A1 (de) | 2009-02-24 | 2010-09-02 | Reiner Kunz | Navigation endoskopischer vorrichtungen mittels eye-tracker |
DE102010040987A1 (de) * | 2010-09-17 | 2012-03-22 | Siemens Aktiengesellschaft | Verfahren zum Platzieren eines Laparoskopieroboters in einer vorgebbaren Relativlage zu einem Trokar |
WO2015014952A1 (de) | 2013-07-31 | 2015-02-05 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs |
DE102013108228A1 (de) | 2013-07-31 | 2015-02-05 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs |
DE102013109677A1 (de) | 2013-09-05 | 2015-03-05 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs |
WO2015032738A1 (de) | 2013-09-05 | 2015-03-12 | MAQUET GmbH | Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs |
DE102015100927A1 (de) * | 2015-01-22 | 2016-07-28 | MAQUET GmbH | Assistenzeinrichtung und Verfahren zur bildgebenden Unterstützung eines Operateurs während eines chirurgischen Eingriffs unter Verwendung mindestens eines medizinischen Instrumentes |
US10540781B2 (en) | 2015-01-22 | 2020-01-21 | MAQUET GmbH | Assistance device and method for providing imaging support to an operating surgeon during a surgical procedure involving at least one medical instrument |
US11406455B2 (en) | 2018-04-25 | 2022-08-09 | Carl Zeiss Meditec Ag | Microscopy system and method for operating the microscopy system |
US11806092B2 (en) | 2018-04-25 | 2023-11-07 | Carl Zeiss Meditec Ag | Microscopy system and method for operating the microscopy system |
Also Published As
Publication number | Publication date |
---|---|
US5820545A (en) | 1998-10-13 |
FR2737860B1 (fr) | 1999-07-16 |
FR2737860A1 (fr) | 1997-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19529950C1 (de) | Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie | |
DE19516664C1 (de) | Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild | |
DE60127644T2 (de) | Lehrvorrichtung für einen Roboter | |
DE69322202T2 (de) | System und Verfahren zur Verbesserung von endoskopischer Chirurgie | |
EP2467051B1 (de) | Bildverarbeitungssystem mit einer zusätzlichen zusammen mit der bildinformation zu verarbeitenden massstabsinformation | |
DE19961971B4 (de) | Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments | |
DE69429854T2 (de) | Bildverarbeitungsverfahren und -gerät | |
DE3732435C2 (de) | ||
DE102017207517B4 (de) | Endoskopisches System und Verfahren zum Steuern desselben | |
EP3363358A2 (de) | Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs | |
DE102019004233A1 (de) | Systeme und verfahren zum verfolgen von objekten | |
DE3735167A1 (de) | Elektronischer rechner mit wiedergabefunktion fuer graphische darstellungen | |
DE102009030504B4 (de) | Augenchirurgie-Mikroskopiesystem | |
EP3248173B1 (de) | Assistenzeinrichtung und verfahren zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs unter verwendung mindestens eines medizinischen instrumentes | |
DE102024102047B3 (de) | Verfahren und System zum Bearbeiten laparoskopischer Bilder | |
DE3709919C2 (de) | ||
DE102019133753A1 (de) | Werkzeuge für augmentierte realität in der lichtgestaltung | |
DE3854232T2 (de) | Verfahren zum verbessern eines bildelements. | |
DE102019118752B4 (de) | Verfahren zur adaptiven Funktionsneubelegung von Bedienelementen eines Bildaufnahmesystems sowie zugehöriges Bildaufnahmesystem | |
DE102019214283A1 (de) | Verfahren und Vorrichtung zum Verarbeiten eines durch eine Kamera aufgenommenen Bildes | |
DE102008021836A1 (de) | Röntgenbildaufnahmesystem und Verfahren zur unterstützenden Bildgebung bei einer Punktion | |
DE3855103T2 (de) | Verfahren zur verbesserung eines bildelementes | |
DE102022101527A1 (de) | Messvorrichtung und Messverfahren zum Überprüfen eines Messbildzustandes | |
DE102019118750A1 (de) | Medizinisches Bildaufnahmesystem, welches situationsabhängig Anpassungsvorschläge unterbreitet, sowie zugehöriges Bildaufnahmeverfahren | |
EP3660860A1 (de) | Verfahren und vorrichtung zur steuerung einer anzeigeeinheit in einem medizintechnischen gerätesystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8100 | Publication of patent without earlier publication of application | ||
D1 | Grant (no unexamined application published) patent law 81 | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V., 5 |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: DEUTSCHES ZENTRUM FUER LUFT-UND RAUMFAHRT E.V., 51 |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V. |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V. |
|
R071 | Expiry of right |