[go: up one dir, main page]

DE10015826A1 - System und Verfahren zur Erzeugung eines Bildes - Google Patents

System und Verfahren zur Erzeugung eines Bildes

Info

Publication number
DE10015826A1
DE10015826A1 DE10015826A DE10015826A DE10015826A1 DE 10015826 A1 DE10015826 A1 DE 10015826A1 DE 10015826 A DE10015826 A DE 10015826A DE 10015826 A DE10015826 A DE 10015826A DE 10015826 A1 DE10015826 A1 DE 10015826A1
Authority
DE
Germany
Prior art keywords
image data
image
data set
video
video image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10015826A
Other languages
English (en)
Inventor
Johannes Bieger
Rainer Graumann
Norbert Rahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corp
Original Assignee
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corp filed Critical Siemens Corp
Priority to DE10015826A priority Critical patent/DE10015826A1/de
Priority to US09/822,616 priority patent/US6768496B2/en
Publication of DE10015826A1 publication Critical patent/DE10015826A1/de
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; Determining position of diagnostic devices within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0833Clinical applications involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Endoscopes (AREA)

Abstract

Die Erfindung betrifft ein System und ein Verfahren zur Erzeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten enthält. Das System weist erste Mittel (1, 3) zur Gewinnung eines Bilddatensatzes von einem Objekt (P) und zweite Mittel (2) zur Aufnahme eines Videobildes von dem Objekt (P) auf. Mit Hilfe von Mitteln zur Positionsbestimmung, vorzugsweise einem Navigationssystem (10), werden die Positionen der ersten (1, 3) und zweiten (2) Mittel bei der Gewinnung der Bilddatensätze ermittelt, anhand denen die Position des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und die Position des Videobilddatensatzes im Raum ermittelt werden können, so dass die beiden Bilddatensätze einander überlagert bzw. miteinander fusioniert werden können. Außerdem sind Mittel (23) zur Erzeugung eines mit Bilddaten des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes erweiterten Videobildes vorgesehen.

Description

Die Erfindung betrifft ein System und ein Verfahren zur Er­ zeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten enthält, aufweisend erste Mittel zur Gewinnung ei­ nes Bilddatensatzes von einem Objekt und zweite Mittel zur Aufnahme eines Videobildes von dem Objekt.
Bei minimal invasiven chirurgischen Eingriffen, z. B. bei der Endoskopie oder der Laparoskopie, bei welchen medizinische Instrumente über kleine Öffnungen in den Körper eines zu be­ handelnden Lebewesens eingeführt werden, hat der behandelnde Chirurg in der Regel keine direkte Sicht auf das Operations­ feld. Die direkte Sicht auf das Operationsfeld ist bei derar­ tigen chirurgischen Eingriffen daher durch eine Videobildge­ bung vom Operationsfeld ersetzt, welche in der Regel mit in ein Endoskop, ein Laparoskop oder einen Katheter integrierten optischen Mitteln erfolgt. Im Gegensatz zur direkten Sicht auf das Operationsfeld sind die Sichtverhältnisse bei der Videobildgebung jedoch deutlich eingeschränkt.
Eine Verbesserung der Sicht ergibt sich, wenn bei den minimal invasiven Eingriffen das Endoskop, das Laparoskop oder der Katheter bzw. deren jeweiliges optisches System zur Bildauf­ nahme geschwenkt wird. Des weiteren lässt sich die Sicht auf das Operationsfeld durch eine Vergrößerung des Abstandes des optischen Systems zu dem abzubildenden Objekt verbessern.
Ein anderer, in der US 5,912,720 für die Behandlung von Au­ genkrankheiten beschriebener Ansatz zur Erweiterung des Sichtfeldes eines Arztes besteht in der Überlagerung gespei­ cherter optischer oder angiographischer Bilder von einem Ob­ jekt mit einem oder mehreren in Echtzeit gewonnenen optischen Bildern von dem Objekt. Die Überlagerung der Bilder beruht dabei auf einer Registrierung sogenannter anatomischer Landmarken, also bestimmter anatomischer Eigenheiten des aufge­ nommenen Gewebes, welche in den einander zu überlagernden Bildern abgebildet sind und als Anhaltspunkt für die Überla­ gerung dienen.
Aus der US 5,776,050 ist es bekannt, ein mit einem Endoskop gewonnenes Videobild mit topologischen, in einem Computer gespeicherten Bilddaten eines 3D-Bilddatensatzes zu einem um die topologischen Bilddaten erweiterten Bild zu ergänzen. Mit einem Navigationssystem wird dabei die Position des Endoskops in einem von dem Koordinatensystem des 3D-Bilddatensatzes verschiedenen Koordinatensystem ermittelt. Um eine Beziehung zwischen den beiden Koordinatensystemen und somit dem 3D- Bilddatensatz und den Videobilddaten herzustellen, so dass eine Überlagerung der Videobilddaten mit den topologischen Bilddaten möglich ist, wird eine Registrierungsprozedur, bei­ spielsweise anhand anatomischer Landmarken, durchgeführt. Anschließend können von dem Endoskop gelieferte Videobilder aufgrund der kontinuierlichen Positionserfassung des Endo­ skops durch das Navigationssystem und die durch die Regist­ rierung ermittelte Transformationsvorschrift zwischen den Koordinatensystemen Videobilder kontinuierlich mit topologi­ schen Daten zu einem erweiterten, das Sichtfeld vergrößernden Bild ergänzt werden.
Als nachteilig an diesem Vorgehen erweist sich jedoch, dass die erforderliche Registrierungsprozedur zeitaufwendig und fehleranfällig und daher schwer in einen routinemäßigen Ab­ lauf im Zuge eines minimal invasiven chirurgischen Eingriffes zu integrieren ist.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System der eingangs genannten Art derart auszuführen bzw. ein Ver­ fahren der eingangs genannten Art derart anzugeben, dass eine Überlagerung oder Fusion von beispielsweise nicht invasiv aus dem Inneren eines Objektes gewonnenen Bilddaten und Videobilddaten zur Erzeugung eines Bildes ohne Registrierungspro­ zedur erfolgen kann.
Nach der Erfindung wird die das System betreffende Aufgabe gelöst durch ein System zur Erzeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten enthält, aufweisend erste Mittel zur Gewinnung eines Bilddatensatzes von einem Objekt, zweite Mittel zur Aufnahme eines Videobildes von dem Objekt, Mittel zur Bestimmung der Position der ersten Mittel bei der Gewinnung des Bilddatensatzes und der Position der zweiten Mittel bei der Aufnahme des Videobildes, Mittel zur Bestimmung der Position des mit den ersten Mitteln gewonnenen Bilddatensatzes und der Position des mit den zweiten Mitteln aufgenommenen Videobildes, Mittel zur Überlagerung oder Fusi­ on von Bilddaten des mit den ersten Mitteln gewonnenen Bild­ datensatzes und von Bilddaten des mit den zweiten Mitteln gewonnenen Videobildes und Mittel zur Erzeugung eines Bildes aus den überlagerten oder fusionierten Bilddaten. Erfindungs­ gemäß sind bei dem System also Mittel vorgesehen, mit denen sowohl die Position der ersten Mittel bei der Gewinnung des Bilddatensatzes, als auch die Position der zweiten Mittel bei der Aufnahme eines Videobildes in einem Referenzkoordinaten­ system bestimmt werden, so dass die Positionen der ersten und zweiten Mittel relativ zueinander bekannt sind. Da anhand der bekannten Position der ersten Mittel bei der Gewinnung eines Bilddatensatzes aufgrund der ebenfalls bekannten Aufnahmepa­ rameter auch die Position des mit den ersten Mitteln gewonne­ nen Bilddatensatzes und da anhand der bekannten Position der zweiten Mittel bei der Aufnahme des Videobildes aufgrund der ebenfalls bekannten Aufnahmeparameter auch die Position der Bildebene des Videobildes in dem Referenzkoordinatensystem ermittelbar ist, können Bilddaten des mit den ersten Mitteln gewonnenen Bilddatensatzes und Videobilddaten einander über­ lagert oder miteinander fusioniert werden. Auf diese Weise lassen sich z. B. bei minimal invasiven medizinischen Eingrif­ fen ohne Registrierungsprozedur zur Herstellung einer räumli­ chen Beziehung zwischen den Bilddaten des mit den ersten Mitteln gewonnenen Bilddatensatzes und den Videobilddaten intra­ operativ Bilder erzeugen, welche Videobilddaten und bei­ spielsweise nicht invasiv gewonnene Bilddaten aus dem Inneren des Objektes enthalten. Vorzugsweise werden dabei Videobilder erzeugt, welche um nicht invasiv gewonnene Bilddaten des mit den ersten Mitteln erzeugten Bilddatensatzes ergänzt sind, so dass das möglicherweise eingeschränkte Sichtfeld eines Video­ bildes erweitert wird. Die Videobilddaten werden beispiels­ weise um Bilddaten aus der mit der Bildebene des Videobildes korrespondierenden Bildebene des Bilddatensatzes ergänzt. Die Darstellung der erzeugten Bilder kann beispielsweise als Bild-in-Bild-Darstellung erfolgen.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht vor, dass mit den Mitteln zur Bestimmung der Positionen der ersten und der zweiten Mittel auch die Position, d. h. die Lage und Orientierung, des Objektes im Raum bestimmbar ist. Auf diese Weise können beispielsweise bei minimal invasiven medizinischen Eingriffen auch nicht invasiv, präoperativ ge­ wonnene Bilddaten von dem Objekt zur Überlagerung oder Fusion mit während des minimal invasiven chirurgischen Eingriffs aufgenommenen Videobilddaten verwendet werden. Durch die Er­ fassung der Position des Objektes bei der präoperativ vorge­ nommenen Aufnahme eines Bilddatensatzes mit den ersten Mit­ teln und durch die Erfassung der Position des Objektes bei der Durchführung des eigentlichen chirurgischen Eingriffes an dem Objekt können die Änderungen in der Position des Objektes berücksichtigt werden und der Bilddatensatz hinsichtlich sei­ ner Lage im Raum an die veränderte Lage des Objektes ange­ passt bzw. mit der veränderten Lage des Objektes in Überein­ stimmung gebracht werden. Darüber hinaus ist die Bestimmung der Position des Objektes auch dann sinnvoll, wenn sich das zu untersuchende Objekt während des Eingriffs zwischen der Gewinnung des Bilddatensatzes mit den ersten Mitteln und der Aufnahme des Videobildes bewegt bzw. bewegt wird. Das Objekt ist demnach in dem mit den ersten Mitteln gewonnenen Bildda­ tensatz in einer anderen Lage als bei der Aufnahme des Videobildes mit den zweiten Mitteln. Durch die Erfassung der Bewe­ gungen des Objektes wird es aber ermöglicht unter Berücksich­ tigung der Bewegungen des Objektes, den mit den ersten Mit­ teln gewonnenen Bilddatensatz mit der neuen Lage des Objektes in Übereinstimmung zu bringen, so dass ein bei der neuen Lage des Objektes aufgenommenes Videobild problemlos mit Bilddaten des angepassten Bilddatensatzes überlagert oder fusioniert werden kann.
Nach einer Variante der Erfindung umfassen die Mittel zur Bestimmung der Positionen der ersten und der zweiten Mittel ein Navigationssystem. Bei dem Navigationssystem kann es sich beispielsweise um ein an sich bekanntes optisches, ein elekt­ romagnetisches, ein auf Ultraschall basierendes oder auch ein anderes an sich bekanntes Navigationssystem handeln.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht vor, dass mit den ersten Mitteln zur Gewinnung eines Bildda­ tensatzes ein 3D-Bilddatensatz gewonnen werden kann. Nach Varianten der Erfindung umfassen die ersten Mittel ein Rönt­ gensystem, vorzugsweise ein C-Bogen-Röntgensystem, oder ein Ultraschallsystem und die zweiten Mittel ein Endoskop, ein Laparoskop oder einen Katheter. Der Vorteil der Verwendung eines C-Bogen-Röntgensystem oder eines Ultraschallsystems zur nicht invasiven Gewinnung eines Bilddatensatzes liegt in der relativ kostengünstigen Erzeugung der Bilddatensätze im Ver­ gleich zur Gewinnung von Datensätzen mit Röntgencomputerto­ mographen oder Magnetresonanzgeräten.
Die das Verfahren betreffende Aufgabe wird gelöst durch ein Verfahren zur Erzeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten enthält, aufweisend folgende Ver­ fahrensschritte:
  • a) Gewinnung eines Bilddatensatzes von einem Objekt mit ers­ ten Mitteln zur Gewinnung von Bilddaten,
  • b) Aufnahme eines Videobildes von dem Objekt mit zweiten Mitteln,
  • c) Bestimmung der Position der ersten Mittel bei der Gewin­ nung des Bilddatensatzes und der Position der zweiten Mittel bei der Aufnahme des Videobildes,
  • d) Bestimmung der Position des mit den ersten Mitteln gewon­ nenen Bilddatensatzes und der Position des mit den zwei­ ten Mitteln aufgenommenen Videobildes,
  • e) Überlagerung oder Fusion von Bilddaten des mit den ersten Mitteln gewonnenen ersten Bilddatensatzes und von Bildda­ ten des mit den zweiten Mitteln aufgenommenen Videobildes und
  • f) Erzeugung eines Bildes aus den überlagerten oder fusio­ nierten Bilddaten.
Bei dem erfindungsgemäßen Verfahren werden also, wie im Zu­ sammenhang mit dem erfindungsgemäßen System beschrieben, an­ hand der ermittelten Position der ersten Mittel bei der Ge­ winnung des Bilddatensatzes und der Position der zweiten Mit­ tel bei der Aufnahme des Videobildes in bezug auf ein Refe­ renzkoordinatensystem die Position des mit den ersten Mitteln gewonnenen Bilddatensatzes und die Position des mit den zwei­ ten Mitteln aufgenommenen Videobildes relativ zueinander in dem Referenzkoordinatensystem bestimmt. Da demnach die Lage der Bilddaten des Bilddatensatzes zu der Lage der Videobild­ daten bekannt ist, können die Bilddaten einander überlagert oder miteinander fusioniert werden, wodurch Bilder erzeugt werden können, welche Videobilddaten und beispielsweise nicht invasiv gewonnene Bilddaten aus dem Inneren eines Objektes enthalten.
Nach Varianten der Erfindung werden auch die Position des Objektes bestimmt, wobei die Bestimmung der Positionen der ersten und der zweiten Mittel sowie die Bestimmung der Posi­ tion des Objektes nach einer Variante der Erfindung mit einem Navigationssystem erfolgt. Die Verwendung eines an sich be­ kannten Navigationssystems stellt eine besonders praktische Form zur Ermittlung der Positionen der ersten und zweiten Mittel sowie der Position des Objektes dar.
Weitere vorteilhafte Varianten des erfindungsgemäßen Verfah­ rens ergeben sich aus den Unteransprüchen.
Ein Ausführungsbeispiel der Erfindung ist in den beigefügten schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 ein System mit einem Navigationssystem zur Durch­ führung des Verfahrens zur Erzeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten auf­ weist, und
Fig. 2 die Lage eines 3D-Bilddatensatzes und einer Bild­ ebene eines Videobildes relative zueinander.
Bei dem in der Fig. 1 dargestellten erfindungsgemäßen System handelt es sich um ein medizinisches System für minimal inva­ sive chirurgische Eingriffe an Lebewesen. Das medizinische System weist erste Mittel zur nicht invasiven Gewinnung eines Bilddatensatzes von einem Patienten P in Form eines Ultra­ schallgerätes 1 und zweite Mittel zur Aufnahme eines Video­ bildes aus dem Körperinneren des Patienten P in Form eines Endoskops 2 auf.
Das Ultraschallgerät 1 umfasst einen auf der Körperoberfläche des Patienten P applizierbaren Ultraschallkopf 3, welcher an eine an sich bekannte Bildverarbeitungseinheit 4 des Ultra­ schallgerätes 1 mit einer Leitung 5 angeschlossen ist. Das Ultraschallgerät 1 weist außerdem eine in nicht dargestellter Weise mit der Bildverarbeitungseinheit 4 verbundene Anzeige­ einrichtung 6 auf. Mit dem Ultraschallkopf 3 können in an sich bekannter Weise in sogenannten Sektorscans nicht invasiv 2D-Ultraschallbilder aus dem Körperinneren des Patienten P gewonnen und nach einer Bildverarbeitung durch die Bildverar­ beitungseinheit 4 in nicht dargestellter Weise auf der Anzeigeeinrichtung 6 dargestellt werden. Das Ultraschallgerät 1 zeichnet sich außerdem dadurch aus, dass mit ihm 3D- Bilddatensätze von Körpergewebe des Patienten P gewonnen wer­ den können. Ein derartiger 3D-Bilddatensatz wird in an sich bekannter Weise aus einer Vielzahl von aus verschiedenen Richtungen aufgenommenen Ultraschallschnittbildern von der Bildverarbeitungseinheit 4 erzeugt und bildet die Grundlage für die Rekonstruktion verschiedener 3D-Ultraschallbilder.
Das Endoskop 2, welches im Falle des vorliegenden Ausfüh­ rungsbeispiels durch eine Öffnung in den Körper des Patienten P eingedrungen ist, weist nicht näher dargestellte, aber an sich bekannte optische Mittel in Form einer Linsenanordnung und einer mit der Linsenanordnung zusammenwirkenden Bildauf­ nahmeeinheit, z. B. einer CCD-Kamera, auf. Die von der CCD- Kamera aufgenommenen Videobilder werden über eine Leitung 7 an einen mit einer Anzeigeeinrichtung 8 versehenen Visuali­ sierungsrechner 9 übertragen und können von dem Visualisie­ rungsrechner 9 auf der Anzeigeeinrichtung 8 dargestellt wer­ den. Eine an sich zur Aufnahme von Videobildern aus dem Kör­ perinneren des Patienten P erforderliche Lichtquelle, z. B. eine Kaltlichtquelle, ist in der Fig. 1 nicht explizit darge­ stellt.
Das medizinische System weist im Falle des vorliegenden Aus­ führungsbeispiels außerdem ein elektromagnetisches Navigati­ onssystem 10 auf, welches eine Positionserfassungseinheit 11 in Form eines Rechners, einen Sender 12 und an hinsichtlich ihrer Position zu erfassenden Objekten anbringbare Positions­ sensoren 13 bis 15 umfasst. Die Positionserfassungseinheit 11 ist über eine Leitung 16 mit dem Sender 12 und über Leitungen 17 bis 19 mit den Positionssensoren 13 bis 15 verbunden. Im Betrieb des Navigationssystems 10 erzeugt der Sender 12 ein in Fig. 1 mit gestrichelten Linien angedeutetes elektromagne­ tisches Feld 20. Befinden sich die Positionssensoren 13 bis 15 des Navigationssystems 10 in dem elektromagnetischen Feld 20 erzeugen diese Signale, aus denen die Positionserfassungseinheit 11 die Positionen der Positionssensoren 13 bis 15 und somit die Positionen der die Positionssensoren 13 bis 15 tra­ genden Objekte in einem Referenzkoordinatensystem K1 ermit­ teln kann. Der Sender 12 des Navigationssystems 10 ist dabei in definierter Weise in dem Referenzkoordinatensystem K1 an­ geordnet.
Im Falle des vorliegenden Ausführungsbeispiels ist der Posi­ tionssensor 13 des Navigationssystems 10 in derart definier­ ter Weise an dem Ultraschallkopf 3 angeordnet, dass durch die Bestimmung der Position des Positionssensors 13 in dem von der Positionserfassungseinheit 11 festgelegten Bezugskoordi­ natensystem K1 nicht nur die Position der Ultraschallsende- und -empfängerflächen des Ultraschallkopfes 3, sondern auf­ grund der bekannten Aufnahmeparameter bei der Gewinnung von Ultraschallbildern auch die Positionen, d. h. die Lagen und Orientierungen, der mit dem Ultraschallkopf 3 erfassten Bild­ daten im Bezugskoordinatensystem K1 ermittelbar sind.
Der Positionssensor 14 ist in derart definierter Weise an dem Endoskop 2 angeordnet, dass durch die Bestimmung der Position des Positionssensors 14 auch die Position der optischen Lin­ senanordnung des Endoskops 2 und somit der Bildebene eines von der Linsenanordnung und der CCD-Kamera aufgenommenen Vi­ deobildes ermittelbar ist.
Um das allein durch die Videobildgebung mit dem Endoskop 2 eingeschränkte Sichtfeld eines in der Fig. 1 nicht dargestell­ ten Chirurgen bei minimal invasiven Eingriffen an dem Patien­ ten P zu erweitern, werden mit dem medizinischen System Bil­ der erzeugt, welche Bilddaten eines mit dem Ultraschallgerät 1 gewonnenen 3D-Bilddatensatzes und Bilddaten eines mit dem Endoskop 2 gewonnenen Videobildes enthalten. Zur Erzeugung eines derartigen Bildes werden vorzugsweise intra-operativ, also während des minimal invasiven chirurgischen Eingriffs, ein 3D-Bilddatensatz von dem zu behandelnden Körperteil des Patienten P mit dem Ultraschallgerät 1 und Videobilder mit dem in das entsprechende Körperteil des Patienten P einge­ drungenem Endoskop 2 gewonnen. Zu den Zeitpunkten der Aufnah­ men der Ultraschallschnittbilder mit dem Ultraschallgerät 1 sowie zu den Zeitpunkten der Aufnahme der Videobilder werden mit Hilfe des Navigationssystems 10 die Positionen des Ultra­ schallkopfes 3 und die Positionen des Endoskops 2 ermittelt. Die an dem Ultraschallkopf 3 und dem Endoskop 2 angeordneten Positionssensoren 13 bzw. 14 sind dabei, wie bereits erwähnt, in dem in der Fig. 1 mit gestrichelten Linien angedeuteten elektromagnetischen Feld 20 des Senders 12 angeordnet und erzeugen Signale, aus denen die Positionserfassungseinheit 11 die Positionen, d. h. die Lagen und Orientierungen des Ultra­ schallkopfes 3 und des Endoskops 2, bezüglich des Referenzko­ ordinatensystems K1 bestimmen kann. Die Aufnahme der Bildda­ ten und die Bestimmung der Positionen des Ultraschallkopfes 3 und des Endoskops 2 erfolgt dabei synchron, wobei eine Posi­ tionsbestimmung jeweils durch eine Bildaufnahme ausgelöst wird. Die Bildverarbeitungseinheit 4 des Ultraschallgerätes 1 und der Visualisierungsrechner 9 des Endoskops 2 sind hierzu mit Leitungen 21, 22 mit der Positionserfassungseinheit 11 verbunden.
Anhand der mit dem Navigationssystem 10 ermittelten Positio­ nen des Ultraschallkopfes 3 bei der Gewinnung der Ultra­ schallschnittbilder kann auch die Lage und Orientierung eines aus den 2D-Ultraschallschnittbildern erzeugten 3D- Bilddatensatzes in dem Referenzkoordinatensystem K1 ermittelt werden. Im Falle des vorliegenden Ausführungsbeispiels er­ folgt die Erzeugung des 3D-Ultraschallbilddatensatzes mit einem Überlagerungs- und Fusionsrechner 23 in an sich bekann­ ter Weise, an welchen die Positionserfassungseinheit 11 über eine Leitung 24 und das Ultraschallgerät 1 über eine Leitung 25 angeschlossen sind. Der Überlagerungs- und Fusionsrechner 23 erhält dabei alle für die Erzeugung des 3D-Bilddatensatzes erforderlichen Positionsdaten von der Positionserfassungsein­ heit 11 und alle Ultraschalldaten von dem Ultraschalgerät 1. Aufgrund der bekannten räumlichen Beziehung zwischen den gewonnenen 2D-Ultraschallbilddaten und den Sende- und Empfän­ gerflächen des Ultraschallkopfes 3 kann der Überlagerungs- und Fusionsrechner 23 schließlich für jedes Bilddatum des erzeugten 3D-Ultraschallbilddatensatzes, aus dem verschiedene 3D-Bilder vom Körperinneren des Patienten P rekonstruierbar sind, die Lage und Orientierung im Referenzkoordinatensystem K1 bestimmen. Demnach ist auch für einen beliebig aus dem 3D- Ultraschallbilddatensatz rekonstruierten 3D-Bildkubus die Lage und Orientierung im Referenzkoordinatensystem K1 als auch die Voxelgröße, beispielsweise in Millimetern und Grad, in dem Referenzkoordinatensystem K1 bekannt. Alternativ könn­ te die Erzeugung des 3D-Ultraschallbilddatensatzes auch mit der Bildverarbeitungseinheit 4 des Ultraschallgerätes 1 er­ folgen.
Da auch der Visualisierungsrechner 9 des Endoskops 2 über eine Leitung 26 an den Überlagerungs- und Fusionsrechner 23 angeschlossen ist, kann der Überlagerungs- und Fusionsrechner 23 anhand der Positionsdaten der Positionserfassungseinheit 11 sowie anhand der an ihn übertragenen Einstelldaten und der Videobilder des Endoskops 2 auch die Positionen, d. h. die Lagen und Orientierungen, des Endoskops 2 und somit die Bild­ ebene eines jeden mit dem Endoskop 2 erfassten Videobildes in dem Referenzkoordinatensystem K1 bestimmen. Aufgrund der be­ kannten Positionen des 3D-Ultraschallbilddatensatzes und der Videobilddaten kann der mit einer entsprechenden Software betriebene Überlagerungs- und Fusionsrechner 23 die Bilddaten des 3D-Ultraschallbilddatensatzes und die Videobilddaten ein­ ander überlagern oder miteinander fusionieren. In Fig. 2 ist in schematischer exemplarischer Darstellung die Position des mit einem Kubus 27 angedeuteten 3D-Ultraschallbilddatensatzes und die Position der Bildebene 28 eines Videobildes in dem Referenzkoordinatensystem K1 gezeigt.
Die Fusion der Bilddaten des 3D-Ultraschallbilddatensatzes mit den Videobilddaten kann mit bekannten Fusions-Verfahren, z. B. Alpha-Blending, als anteilsmäßige Überlagerung bewerkstelligt werden. Mit Hilfe dieser überlagerten Darstellung kann insbesondere Körpergewebe halbtransparent dargestellt werden, wodurch z. B. ein Blick durch ein Organ möglich wird, indem dem Videobild Ultraschallbilddaten jenseits eines im Videobild gezeigten Organs überlagert werden. Des weiteren können dem Videobild funktionelle Informationen, z. B. der Blutfluss, sowie Gefäße überlagert werden. Geeignete Darstel­ lungsarten stellen hierbei beispielsweise das "perspektivi­ sche Surface Shaded Display" oder das "perspektivische Volume Rendering" dar.
Darüber hinaus kann der Überlagerungs- und Fusionsrechner 23 aus den überlagerten oder fusionierten Bilddaten Videobilder erzeugen, welche beispielsweise um Bilddaten aus der mit der Bildebene des Videobildes korrespondierenden Ebene des 3D- Ultraschallbilddatensatzes ergänzt sind, welche als Bild-in- Bild darstellbar sind. In Fig. 1 ist in vergrößerter schemati­ scher Darstellung ein aus den bekannten Bilddaten erzeugtes Bild als Bild-in-Bild-Visualisierung auf einer Anzeigeein­ richtung 29 des Überlagerungs- und Fusionsrechner 23 darge­ stellt. Das Videobild 30 ist dabei mit Ultraschalldaten 31 ergänzt, so dass das Sichtfeld des Videobildes 30 erweitert ist. Eine weitere Darstellungsform ist die Seite-an-Seite- Darstellung der Bilddaten, bei der Bilddaten des 3D- Ultraschallbilddatensatzes und Videobilddaten in gleicher Orientierung und Position dargestellt werden.
Bei der Überlagerung bzw. der Fusion des 3D-Ultraschallbild­ datensatzes mit den Videobilddaten wird es in der Regel er­ forderlich sein, die Bilddaten auch von ihrer Struktur her aneinander anzupassen, dass heißt zum Beispiel, dass die Vi­ deobilddaten, welche bedingt durch den variablen Abstand zwi­ schen dem Endoskop 2 und dem aufzunehmenden Gewebe im Ver­ gleich zu den Bilddaten des 3D-Ultraschallbilddatensatzes in verschiedenen Skalierungen vorliegen, derart skaliert werden müssen, dass die Bilddaten zueinander passen. Der Skalie­ rungsfaktor lässt sich aber bestimmen, da die Lage des Endoskops 2 relativ zu dem 3D-Ultraschallbilddatensatz bekannt ist. Die Skalierung wird im Falle des vorliegenden Ausfüh­ rungsbeispiels durch den Überlagerungs- bzw. Fusionsrechner 23 vorgenommen.
Weitere Parameter für die Bilddarstellung wie die Lage und Blickrichtung können interaktiv mit an sich bekannten, in Fig. 1 nicht dargestellten an den Überlagerungs- und Fusionsrech­ ner 23 angeschlossenen Bedienerschnittstellen für die 3D- Bildverarbeitung verändert werden. Das Mischungsverhältnis von 3D-Ultraschallbilddaten mit Videobilddaten kann ebenfalls interaktiv verändert werden.
In der vorstehend beschriebenen Weise kann also ein intra­ operativ mit dem Endoskop 2 erzeugtes Videobild aus dem Kör­ perinneren des Patienten P mit intra-operativ erzeugten Ult­ raschallbild erweitert werden. Für die Überlagerung oder Fu­ sion der Bilddaten ist dabei erfindungsgemäß keine Registrie­ rung erforderlich.
Wird der Patient P zwischen den Aufnahmen der Ultraschall­ schnittbilder mit dem Ultraschallgerät 1 und den Aufnahmen der Videobilder bewegt, wird auch die Bewegung des Patienten P mit dem Navigationssystem 10 erfasst. Hierzu ist im Falle des vorliegenden Ausführungsbeispiels an dem Patienten P der Positionssensor 15 angebracht. Durch die Erfassung der Bewe­ gung des Patienten P wird es ermöglicht, auch präoperativ ermittelte 3D-Ultraschallbilddatensätze, welche bei einer Lage des Patienten P aufgenommen wurden, welche sich von der Lage des Patienten P bei dem minimal invasiven chirurgischen Eingriff unterscheidet, mit der Lage des Patienten P während des Eingriffes in Übereinstimmung zu bringen. Auf diese Weise kann auch ein präoperativ ermittelter und angepasster Bildda­ tensatz zur Überlagerung oder Fusion mit intra-operativ ge­ wonnenen Videobilddaten verwendet werden.
Sollten die Videobilder im Vergleich zur realen Patientenana­ tomie verzerrt vorliegen, was der Fall ist, wenn Endoskope mit verzerrender Optik eingesetzt werden, so kann vor der Überlagerung bzw. Fusion der Videobilddaten mit den Ultra­ schalldaten in an sich bekannter Weise eine Entzerrung der Videobilder durchgeführt werden. Nach der Entzerrung liegen die Videobilder schließlich verzeichnungsfrei vor.
Sollte die Genauigkeit der mit dem Navigationssystem 10 er­ mittelten Positionen des 3D-Ultraschallbilddatensatzes und der Videobilddaten nicht ausreichend sein, um hochwertige Bilder mit überlagerten oder fusionierten Bilddaten erzeugen zu können, kann ausgehend von den ermittelten Positionen der Bilddaten zusätzlich eine Feinregistrierung erfolgen. Bei dieser Feinregistrierung können gängige Registrierungsverfah­ ren zur Anwendung kommen, bei denen die gesuchte räumliche Transformation zwischen den beteiligten Bilddaten mit Hilfe von sogenannten anatomischen Landmarken oder mit Hilfe von Oberflächen oder Kanten ermittelt wird. Auch gängige voxelba­ sierte Registrierungsansätze können hierzu verwendet werden. Bei Bedarf können auch gängige Registrierungsansätze verwen­ det werden, bei denen einer der beiden Bilddatensätze elas­ tisch deformiert wird, um eine optimale Registrierung zu er­ möglichen. Durch diese elastische Deformation können auch durch die Verzerrung der Endoskopoptik bedingte Verzeichnun­ gen der Videobilder korrigiert werden. Weiterhin ist die e­ lastische Deformation in Situationen hilfreich, bei denen Patientenumlagerungen, -bewegungen und/oder -atmung zwischen den Aufnahmen der prä- oder intra-operativ gewonnenen 3D- Ultraschallbilddaten und der Aufnahme der endoskopischen Vi­ deobilddaten stattfinden.
Die Überlagerung oder Fusion von 3D-Ultraschallbilddaten und von Videobilddaten muss im übrigen nicht notwendigerweise von dem Überlagerungs- und Fusionsrechner 23 vorgenommen werden. Vielmehr kann auch die Bildverarbeitungseinheit 4 des Ultra­ schallgerätes 1 oder der Visualisierungsrechner 9 die Überlagerung bzw. Fusion vornehmen und Bilder erzeugen, welche ü­ berlagerte oder fusionierte Bilddaten aufweisen.
Im Unterschied zum vorliegend beschriebenen Ausführungsbei­ spiel muss es sich bei dem Navigationssystem 10 nicht notwen­ digerweise um ein elektromagnetisches Navigationssystem han­ deln. Vielmehr kann das Navigationssystem auch optisches oder ein anderes bekanntes Navigationssystem sein.
Des weiteren ist die vorliegende Erfindung nicht auf die Fu­ sion bzw. Überlagerung eines 3D-Bilddatensatzes mit Video­ bilddaten beschränkt, sondern es können auch 2D- Bilddatensätze und Videobilddaten einander überlagert bzw. miteinander fusioniert werden.
Darüber hinaus muss es sich bei den ersten Mitteln nicht not­ wendigerweise um ein Ultraschallgerät handeln. Vielmehr kön­ nen die ersten Mittel auch ein Röntgengerät, z. B. ein C- Bogen-Röntgengerät, oder einen Computertomographen oder ein Magnetresonanzgerät umfassen. Alle diese Gerätschaften ges­ tatten es Bilddatensätze zu erzeugen, deren Lage mit Hilfe eines Navigationssystems relativ zu einem Videobild bestimmt werden kann.
Anstelle des Endoskops kann auch ein mit optischen Mitteln zur Bildaufnahme versehenes Laparoskop oder ein Katheter ver­ wendet werden.
Die Erfindung wurde vorstehend am Beispiel eines medizini­ schen Systems beschrieben. Die Erfindung ist jedoch nicht auf den Bereich der Medizin beschränkt.

Claims (17)

1. System zur Erzeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten enthält, aufweisend erste Mittel (1, 3) zur Gewinnung eines Bilddatensatzes von einem Objekt (P), zweite Mittel (2) zur Aufnahme eines Videobildes von dem Objekt (P), Mittel (10) zur Bestimmung der Position der ers­ ten Mittel (1, 3) bei der Gewinnung des Bilddatensatzes und der Position der zweiten Mittel (2) bei der Aufnahme des Vi­ deobildes, Mittel (23) zur Bestimmung der Position des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und der Position des mit den zweiten Mittel (2) aufgenommenen Video­ bildes, Mittel (23) zur Überlagerung oder Fusion von Bildda­ ten des mit den ersten Mitteln (1, 3) gewonnenen Bilddaten­ satzes und von Bilddaten des mit den zweiten Mitteln (2) ge­ wonnenen Videobildes und Mittel (23) zur Erzeugung eines Bil­ des aus den überlagerten oder fusionierten Bilddaten.
2. System nach Anspruch 1, bei dem mit den Mitteln (10) zur Bestimmung der Positionen der ersten (1, 3) und der zweiten (2) Mittel auch die Position des Objektes (P) bestimmbar ist.
3. System nach Anspruch 1 oder 2, bei dem die Mittel zur Be­ stimmung der Positionen der ersten (1, 3) und der zweiten (2) Mittel ein Navigationssystem (10) umfassen.
4. System nach einem der Ansprüche 1 bis 3, bei dem mit den ersten Mitteln (1, 3) zur Gewinnung eines Bilddatensatzes ein 3D-Bilddatensatz gewonnen werden kann.
5. System nach einem der Ansprüche 1 bis 4, bei dem die ers­ ten Mittel ein Röntgensystem umfassen.
6. System nach einem der Ansprüche 1 bis 4, bei dem die ers­ ten Mittel ein Ultraschallsystem (1, 3) umfassen.
7. System nach einem der Ansprüche 1 bis 6, bei dem die zwei­ ten Mittel ein Endoskop (2), ein Laparoskop oder einen Kathe­ ter umfassen.
8. System nach einem der Ansprüche 1 bis 7, welches ein medi­ zinisches System ist.
9. Verfahren zur Erzeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten enthält, aufweisend folgende Ver­ fahrensschritte:
  • a) Gewinnung eines Bilddatensatzes von einem Objekt (P) mit ersten Mitteln (1, 3) zur Gewinnung von Bilddaten,
  • b) Aufnahme eines Videobildes von dem Objekt (P) mit zweiten Mitteln (2),
  • c) Bestimmung der Position der ersten Mittel (1, 3) bei der Gewinnung des Bilddatensatzes und der Position der zwei­ ten Mittel (2) bei der Aufnahme des Videobildes,
  • d) Bestimmung der Position des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und der Position des mit den zweiten Mitteln (2) aufgenommenen Videobildes,
  • e) Überlagerung oder Fusion von Bilddaten des mit den ersten Mitteln (1, 3) gewonnenen ersten Bilddatensatzes und von Bilddaten des mit den zweiten Mitteln (2) aufgenommenen Videobildes, und
  • f) Erzeugung eines Bildes aus den überlagerten oder fusio­ nierten Bilddaten.
10. Verfahren nach Anspruch 9, bei dem die Position des Ob­ jektes (P) bestimmt wird.
11. Verfahren nach Anspruch 9 oder 10, bei dem die Bestimmung der Positionen der ersten (1, 3) und der zweiten (2) Mittel und die Bestimmung der Position des Objektes (P) mit einem Navigationssystem (10) erfolgt.
12. Verfahren nach einem der Ansprüche 9 bis 11, bei dem mit den ersten Mitteln (1, 3) ein 3D-Bilddatensatz gewonnen wer­ den kann.
13. Verfahren nach einem der Ansprüche 9 bis 12, bei dem die ersten Mittel ein Röntgensystem umfassen.
14. Verfahren nach einem der Ansprüche 9 bis 12, bei dem die ersten Mittel ein Ultraschallsystem (1, 3) umfassen.
15. Verfahren nach einem der Ansprüche 9 bis 14, bei dem die zweiten Mittel ein Endoskop (2), ein Laparoskop oder einen Katheter umfassen.
16. Verfahren nach einem der Ansprüche 9 bis 15, bei dem vor der Überlagerung oder Fusion von Bilddaten des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und von Bilddaten des mit den zweiten Mitteln (2) aufgenommenen Videobildes eine geometrische Entzerrung des Videobildes erfolgt.
17. Verfahren nach einem der Ansprüche 9 bis 16, bei dem eine Feinregistrierung zwischen den Bilddaten des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und den Bilddaten des mit den zweiten Mitteln (2) aufgenommenen Videobildes erfolgt.
DE10015826A 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bildes Ceased DE10015826A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE10015826A DE10015826A1 (de) 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bildes
US09/822,616 US6768496B2 (en) 2000-03-30 2001-03-30 System and method for generating an image from an image dataset and a video image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10015826A DE10015826A1 (de) 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bildes

Publications (1)

Publication Number Publication Date
DE10015826A1 true DE10015826A1 (de) 2001-10-11

Family

ID=7636976

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10015826A Ceased DE10015826A1 (de) 2000-03-30 2000-03-30 System und Verfahren zur Erzeugung eines Bildes

Country Status (2)

Country Link
US (1) US6768496B2 (de)
DE (1) DE10015826A1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10323322A1 (de) * 2003-05-23 2004-12-16 Volkswagen Ag Verfahren und Einrichtung zur Abbildung eines gemischten Bildes
DE102004011158A1 (de) * 2004-03-08 2005-10-13 Siemens Ag Verfahren zur Registrierung einer Folge von 2D-Schnittbildern eines Hohlkanals mit einer 2D-Röngtenaufnahme
DE102007023029A1 (de) * 2007-05-16 2008-11-20 Siemens Ag Vorrichtung und Verfahren zur Erzeugung eines Summenbildes aus ersten und zweiten Bilddaten
NL2001680C2 (nl) * 2007-06-28 2010-06-09 Siemens Ag Beeldgevende werkwijze voor de medische diagnostiek en volgens deze werkwijze werkende inrichting.
WO2013001031A3 (de) * 2011-06-28 2013-03-21 Scopis Gmbh Verfahren und vorrichtung zum darstellen eines objektes
DE102011083853A1 (de) * 2011-09-30 2013-04-04 Siemens Aktiengesellschaft Fusionierte SPECT/C-Bogen-Bildgebung
DE102005059261B4 (de) * 2005-12-12 2013-09-05 Siemens Aktiengesellschaft Kathetervorrichtung zur Behandlung eines teilweisen und/oder vollständigen Gefässverschlusses und Röntgeneinrichtung
DE102012220116A1 (de) * 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
DE102013213215A1 (de) * 2013-07-05 2015-01-08 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Ultraschallaufnahme eines deformierten Objektes, insbesondere der menschlichen Brust
EP2289454A3 (de) * 2005-06-06 2015-12-30 Intuitive Surgical Operations, Inc. Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke
EP3184071A1 (de) * 2015-12-22 2017-06-28 SpineMind AG Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems

Families Citing this family (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
CA2314794A1 (en) * 2000-08-01 2002-02-01 Dimitre Hristov Apparatus for lesion or organ localization
JP2002158863A (ja) * 2000-11-22 2002-05-31 Fuji Photo Film Co Ltd 医用画像処理方法及び装置
US6880387B2 (en) * 2001-08-22 2005-04-19 Sonoscan, Inc. Acoustic micro imaging method providing improved information derivation and visualization
AU2002361572A1 (en) * 2001-10-19 2003-04-28 University Of North Carolina At Chape Hill Methods and systems for dynamic virtual convergence and head mountable display
DE50101677D1 (de) * 2001-12-18 2004-04-15 Brainlab Ag Projektion von Patientenbilddaten aus Durchleuchtungs- bzw. Schichtbilderfassungsverfahren auf Videobilder
DE10210650B4 (de) * 2002-03-11 2005-04-28 Siemens Ag Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds und medizinische Untersuchungs- und/oder Behandlungseinrichtung
DE60330858D1 (de) * 2002-09-27 2010-02-25 Olympus Corp Ultraschallgerät
JP4414682B2 (ja) * 2003-06-06 2010-02-10 オリンパス株式会社 超音波内視鏡装置
US7463823B2 (en) * 2003-07-24 2008-12-09 Brainlab Ag Stereoscopic visualization device for patient image data and video images
US7672705B2 (en) * 2004-07-19 2010-03-02 Resonant Medical, Inc. Weighted surface-to-surface mapping
US7729744B2 (en) * 2004-07-20 2010-06-01 Resonant Medical, Inc. Verifying lesion characteristics using beam shapes
US8000442B2 (en) * 2004-07-20 2011-08-16 Resonant Medical, Inc. Calibrating imaging devices
WO2006032134A2 (en) * 2004-09-20 2006-03-30 Resonant Medical Inc. Radiotherapy treatment monitoring using ultrasound
WO2006095221A2 (de) * 2005-03-11 2006-09-14 Philips Intellectual Property & Standards Gmbh Bildgebendes verfahren
DE102005019281A1 (de) * 2005-04-03 2007-04-19 Schreiber, Hans, Dr. Dr. Elektronisch steuerbarer Endoskopbausatz
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US7756563B2 (en) * 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US8784336B2 (en) 2005-08-24 2014-07-22 C. R. Bard, Inc. Stylet apparatuses and methods of manufacture
EP1940515A4 (de) * 2005-09-06 2010-05-26 Resonant Medical Inc System und verfahren zur vorbereitung eines patienten für eine radiotherapeutische behandlung
DE102005045073B4 (de) * 2005-09-21 2012-03-22 Siemens Ag Verfahren zum visuellen Unterstützen einer invasiven Untersuchung oder Behandlung des Herzens mit Hilfe eines invasiven Instruments
US8929621B2 (en) * 2005-12-20 2015-01-06 Elekta, Ltd. Methods and systems for segmentation and surface matching
US8016749B2 (en) 2006-03-21 2011-09-13 Boston Scientific Scimed, Inc. Vision catheter having electromechanical navigation
JP2007275309A (ja) * 2006-04-06 2007-10-25 Olympus Medical Systems Corp 医療システム
US20080065106A1 (en) * 2006-06-13 2008-03-13 Intuitive Surgical, Inc. Minimally invasive surgical apparatus with side exit instruments
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
CA2658510C (en) * 2006-07-21 2013-01-15 Orthosoft Inc. Non-invasive tracking of bones for surgery
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
WO2008017051A2 (en) 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US9451928B2 (en) 2006-09-13 2016-09-27 Elekta Ltd. Incorporating internal anatomy in clinical radiotherapy setups
US7794407B2 (en) 2006-10-23 2010-09-14 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
US8388546B2 (en) 2006-10-23 2013-03-05 Bard Access Systems, Inc. Method of locating the tip of a central venous catheter
DE102007018809B4 (de) * 2007-04-20 2015-04-02 Siemens Aktiengesellschaft Medizintechnische Anlage sowie zugehöriges Verfahren
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
EP2175931B1 (de) 2007-07-20 2016-09-07 Elekta Ltd. Systeme zur kompensation von veränderungen der anatomie von strahlentherapie-patienten
WO2009012576A1 (en) 2007-07-20 2009-01-29 Resonant Medical Inc. Methods and systems for guiding the acquisition of ultrasound images
US8135198B2 (en) 2007-08-08 2012-03-13 Resonant Medical, Inc. Systems and methods for constructing images
US10524691B2 (en) 2007-11-26 2020-01-07 C. R. Bard, Inc. Needle assembly including an aligned magnetic element
US9649048B2 (en) 2007-11-26 2017-05-16 C. R. Bard, Inc. Systems and methods for breaching a sterile field for intravascular placement of a catheter
US9456766B2 (en) 2007-11-26 2016-10-04 C. R. Bard, Inc. Apparatus for use with needle insertion guidance system
US9521961B2 (en) 2007-11-26 2016-12-20 C. R. Bard, Inc. Systems and methods for guiding a medical instrument
WO2009070616A2 (en) 2007-11-26 2009-06-04 C. R. Bard, Inc. Integrated system for intravascular placement of a catheter
US8849382B2 (en) 2007-11-26 2014-09-30 C. R. Bard, Inc. Apparatus and display methods relating to intravascular placement of a catheter
US10751509B2 (en) 2007-11-26 2020-08-25 C. R. Bard, Inc. Iconic representations for guidance of an indwelling medical device
US10449330B2 (en) 2007-11-26 2019-10-22 C. R. Bard, Inc. Magnetic element-equipped needle assemblies
US8781555B2 (en) 2007-11-26 2014-07-15 C. R. Bard, Inc. System for placement of a catheter including a signal-generating stylet
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US8478382B2 (en) 2008-02-11 2013-07-02 C. R. Bard, Inc. Systems and methods for positioning a catheter
US8340379B2 (en) 2008-03-07 2012-12-25 Inneroptic Technology, Inc. Systems and methods for displaying guidance data based on updated deformable imaging data
US8189738B2 (en) 2008-06-02 2012-05-29 Elekta Ltd. Methods and systems for guiding clinical radiotherapy setups
US8267853B2 (en) * 2008-06-23 2012-09-18 Southwest Research Institute System and method for overlaying ultrasound imagery on a laparoscopic camera display
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US9901714B2 (en) 2008-08-22 2018-02-27 C. R. Bard, Inc. Catheter assembly including ECG sensor and magnetic assemblies
US8437833B2 (en) 2008-10-07 2013-05-07 Bard Access Systems, Inc. Percutaneous magnetic gastrostomy
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
ES2745861T3 (es) 2009-06-12 2020-03-03 Bard Access Systems Inc Aparato, algoritmo de procesamiento de datos asistido por ordenador y medio de almacenamiento informático para posicionar un dispositivo endovascular en o cerca del corazón
US9532724B2 (en) 2009-06-12 2017-01-03 Bard Access Systems, Inc. Apparatus and method for catheter navigation using endovascular energy mapping
US10542962B2 (en) 2009-07-10 2020-01-28 Elekta, LTD Adaptive radiotherapy treatment using ultrasound
WO2011014687A2 (en) * 2009-07-31 2011-02-03 Inneroptic Technology, Inc. Dual-tube stereoscope
EP2464407A4 (de) 2009-08-10 2014-04-02 Bard Access Systems Inc Vorrichtungen und verfahren für endovaskuläre elektrographie
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
AU2010300677B2 (en) 2009-09-29 2014-09-04 C.R. Bard, Inc. Stylets for use with apparatus for intravascular placement of a catheter
US20110082351A1 (en) * 2009-10-07 2011-04-07 Inneroptic Technology, Inc. Representing measurement information during a medical procedure
WO2011044421A1 (en) 2009-10-08 2011-04-14 C. R. Bard, Inc. Spacers for use with an ultrasound probe
US9282947B2 (en) 2009-12-01 2016-03-15 Inneroptic Technology, Inc. Imager focusing based on intraoperative data
US20110172526A1 (en) 2010-01-12 2011-07-14 Martin Lachaine Feature Tracking Using Ultrasound
US9248316B2 (en) 2010-01-12 2016-02-02 Elekta Ltd. Feature tracking using ultrasound
BR112012019354B1 (pt) 2010-02-02 2021-09-08 C.R.Bard, Inc Método para localização de um dispositivo médico implantável
MX2012013672A (es) 2010-05-28 2013-02-12 Bard Inc C R Aparato para utilizar con un sistema de guia de insercion de aguja.
EP2603145A2 (de) 2010-08-09 2013-06-19 C.R. Bard, Inc. Stütz- und abdeckungsstrukturen für einen ultraschallsondenkopf
BR112013002431B1 (pt) 2010-08-20 2021-06-29 C.R. Bard, Inc Sistema para a reconfirmação da posição de um cateter no interior de um paciente
US8702592B2 (en) 2010-09-30 2014-04-22 David Allan Langlois System and method for inhibiting injury to a patient during laparoscopic surgery
US8801693B2 (en) 2010-10-29 2014-08-12 C. R. Bard, Inc. Bioimpedance-assisted placement of a medical device
US10874453B2 (en) * 2011-03-23 2020-12-29 Acessa Health Inc. Merged image user interface and navigational tool for remote control of surgical devices
WO2013006817A1 (en) 2011-07-06 2013-01-10 C.R. Bard, Inc. Needle length determination and calibration for insertion guidance system
USD724745S1 (en) 2011-08-09 2015-03-17 C. R. Bard, Inc. Cap for an ultrasound probe
USD699359S1 (en) 2011-08-09 2014-02-11 C. R. Bard, Inc. Ultrasound probe head
US20130041266A1 (en) * 2011-08-12 2013-02-14 Tyco Healthcare Group Lp, System and Method for Indicating Positioning of an Internal Anatomical Feature
KR101307944B1 (ko) * 2011-10-26 2013-09-12 주식회사 고영테크놀러지 수술영상의 정합 방법
US9211107B2 (en) 2011-11-07 2015-12-15 C. R. Bard, Inc. Ruggedized ultrasound hydrogel insert
KR101495083B1 (ko) * 2011-12-28 2015-02-24 삼성메디슨 주식회사 바디마커 제공 방법 및 그를 위한 초음파 진단 장치
US8670816B2 (en) 2012-01-30 2014-03-11 Inneroptic Technology, Inc. Multiple medical device guidance
WO2013188833A2 (en) 2012-06-15 2013-12-19 C.R. Bard, Inc. Apparatus and methods for detection of a removable cap on an ultrasound probe
US11517189B2 (en) 2012-06-28 2022-12-06 Lavie Golenberg Portable endoscope with interference free transmission
BR112014032112A2 (pt) * 2012-06-28 2017-06-27 Koninklijke Philips Nv sistema de aquisição de imagem; e método para aquisição de imagem multimodal
US20150297062A1 (en) * 2012-06-28 2015-10-22 GOLENBERG Lavie Integrated endoscope
US10409951B2 (en) * 2012-12-28 2019-09-10 Volcano Corporation Multi-modality case management system and method
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US10314559B2 (en) 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance
US20140275994A1 (en) * 2013-03-15 2014-09-18 Covidien Lp Real time image guidance system
CN105188592B (zh) 2013-03-15 2018-07-27 Sri国际公司 超灵巧型手术系统
CN104574329B (zh) * 2013-10-09 2018-03-09 深圳迈瑞生物医疗电子股份有限公司 超声融合成像方法、超声融合成像导航系统
ES2811323T3 (es) 2014-02-06 2021-03-11 Bard Inc C R Sistemas para el guiado y la colocación de un dispositivo intravascular
US20160073087A1 (en) * 2014-09-10 2016-03-10 Lenovo (Singapore) Pte. Ltd. Augmenting a digital image with distance data derived based on acoustic range information
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
US10973584B2 (en) 2015-01-19 2021-04-13 Bard Access Systems, Inc. Device and method for vascular access
US10349890B2 (en) 2015-06-26 2019-07-16 C. R. Bard, Inc. Connector interface for ECG-based catheter positioning system
US9949700B2 (en) 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
JP6615603B2 (ja) * 2015-12-24 2019-12-04 キヤノンメディカルシステムズ株式会社 医用画像診断装置および医用画像診断プログラム
US11000207B2 (en) 2016-01-29 2021-05-11 C. R. Bard, Inc. Multiple coil system for tracking a medical device
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
WO2017157970A1 (en) * 2016-03-16 2017-09-21 Koninklijke Philips N.V. Calculation device for superimposing a laparoscopic image and an ultrasound image
AU2017290128B2 (en) * 2016-06-29 2022-08-11 Vision Quest Industries Incorporated Dba Vq Orthocare Measurement and ordering system for orthotic devices
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
JP6847218B2 (ja) 2016-11-28 2021-03-24 バーブ サージカル インコーポレイテッドVerb Surgical Inc. 望ましくない振動を低減するためのロボット外科用システム
WO2018185729A1 (en) 2017-04-07 2018-10-11 Orthosoft Inc. Non-invasive system and method for tracking bones
US10792119B2 (en) 2017-05-22 2020-10-06 Ethicon Llc Robotic arm cart and uses therefor
US10856948B2 (en) 2017-05-31 2020-12-08 Verb Surgical Inc. Cart for robotic arms and method and apparatus for registering cart to surgical table
US10485623B2 (en) 2017-06-01 2019-11-26 Verb Surgical Inc. Robotic arm cart with fine position adjustment features and uses therefor
US10913145B2 (en) 2017-06-20 2021-02-09 Verb Surgical Inc. Cart for robotic arms and method and apparatus for cartridge or magazine loading of arms
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
US11684426B2 (en) 2018-08-31 2023-06-27 Orthosoft Ulc System and method for tracking bones
WO2020081373A1 (en) 2018-10-16 2020-04-23 Bard Access Systems, Inc. Safety-equipped connection systems and methods thereof for establishing electrical connections
DE102019203192A1 (de) * 2019-03-08 2020-09-10 Siemens Healthcare Gmbh Erzeugung eines digitalen Zwillings für medizinische Untersuchungen
CN113657224B (zh) * 2019-04-29 2023-08-18 北京百度网讯科技有限公司 车路协同中用于确定对象状态的方法、装置、设备
US11721014B2 (en) 2019-11-15 2023-08-08 GE Precision Healthcare LLC Methods and systems for a field-of-view preview
DE102021118427A1 (de) * 2021-07-16 2023-01-19 Schölly Fiberoptic GmbH Bildaufnahmevorrichtung für verbesserte Bildgebung bei schwacher Lichtintensität sowie zugehöriges Bildaufnahmeverfahren
CN114071030A (zh) * 2021-12-14 2022-02-18 杭州友勤信息技术有限公司 一种内窥镜的双路联合系统
US20240173016A1 (en) * 2022-11-29 2024-05-30 Biosense Webster (Israel) Ltd. Assessment of tissue ablation using intracardiac ultrasound catheter

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4021102A1 (de) * 1989-07-14 1991-01-17 Siemens Ag Medinzinische diagnostikanlage
DE19800765A1 (de) * 1998-01-12 1999-04-08 Siemens Ag Verfahren zur Erzeugung von Bilddarstellungen sowie System hierfür
DE19746092A1 (de) * 1997-10-17 1999-05-06 Siemens Ag Röntgenaufnahmeeinrichtung zur 3D-Bildgebung

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
US5912720A (en) * 1997-02-13 1999-06-15 The Trustees Of The University Of Pennsylvania Technique for creating an ophthalmic augmented reality environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4021102A1 (de) * 1989-07-14 1991-01-17 Siemens Ag Medinzinische diagnostikanlage
DE19746092A1 (de) * 1997-10-17 1999-05-06 Siemens Ag Röntgenaufnahmeeinrichtung zur 3D-Bildgebung
DE19800765A1 (de) * 1998-01-12 1999-04-08 Siemens Ag Verfahren zur Erzeugung von Bilddarstellungen sowie System hierfür

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Iwainsky, A., Wilhelmi, W. Lexikon der Computer- grafik und Bildverarbeitung. Vieweg Verlagsgesell-schaft, 1994, S. 30-32 *

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10323322A1 (de) * 2003-05-23 2004-12-16 Volkswagen Ag Verfahren und Einrichtung zur Abbildung eines gemischten Bildes
DE102004011158A1 (de) * 2004-03-08 2005-10-13 Siemens Ag Verfahren zur Registrierung einer Folge von 2D-Schnittbildern eines Hohlkanals mit einer 2D-Röngtenaufnahme
DE102004011158B4 (de) * 2004-03-08 2007-09-13 Siemens Ag Verfahren zur Registrierung einer Folge von 2D-Schnittbildern eines Hohlraumorgans mit einer 2D-Röngtenaufnahme
US11259870B2 (en) 2005-06-06 2022-03-01 Intuitive Surgical Operations, Inc. Interactive user interfaces for minimally invasive telesurgical systems
US12108998B2 (en) 2005-06-06 2024-10-08 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US11717365B2 (en) 2005-06-06 2023-08-08 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US11399909B2 (en) 2005-06-06 2022-08-02 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
EP3679882A1 (de) * 2005-06-06 2020-07-15 Intuitive Surgical Operations, Inc. Laparoskopisches robotisches chirurgisches ultraschallsystem
EP2289454A3 (de) * 2005-06-06 2015-12-30 Intuitive Surgical Operations, Inc. Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke
DE102005059261B4 (de) * 2005-12-12 2013-09-05 Siemens Aktiengesellschaft Kathetervorrichtung zur Behandlung eines teilweisen und/oder vollständigen Gefässverschlusses und Röntgeneinrichtung
DE102007023029A1 (de) * 2007-05-16 2008-11-20 Siemens Ag Vorrichtung und Verfahren zur Erzeugung eines Summenbildes aus ersten und zweiten Bilddaten
NL2001680C2 (nl) * 2007-06-28 2010-06-09 Siemens Ag Beeldgevende werkwijze voor de medische diagnostiek en volgens deze werkwijze werkende inrichting.
DE102007029888B4 (de) * 2007-06-28 2016-04-07 Siemens Aktiengesellschaft Bildgebendes Verfahren für die medizinische Diagnostik und nach diesem Verfahren arbeitende Einrichtung
US10706610B2 (en) 2011-06-28 2020-07-07 Scopis Gmbh Method for displaying an object
US9792721B2 (en) 2011-06-28 2017-10-17 Scopis Gmbh Method and device for displaying an object
WO2013001031A3 (de) * 2011-06-28 2013-03-21 Scopis Gmbh Verfahren und vorrichtung zum darstellen eines objektes
DE102011083853B4 (de) 2011-09-30 2019-01-17 Siemens Healthcare Gmbh Fusionierte SPECT/C-Bogen-Bildgebung
DE102011083853A1 (de) * 2011-09-30 2013-04-04 Siemens Aktiengesellschaft Fusionierte SPECT/C-Bogen-Bildgebung
EP2867855A1 (de) * 2012-06-29 2015-05-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare vorrichtung zur bearbeitung oder beobachtung eines körpers
DE102012220116A1 (de) * 2012-06-29 2014-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung
US10292683B2 (en) 2013-07-05 2019-05-21 Siemens Aktiengesellschaft Method and device for recording an ultrasound image of a deformed object, in particular the human breast
DE102013213215A1 (de) * 2013-07-05 2015-01-08 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Ultraschallaufnahme eines deformierten Objektes, insbesondere der menschlichen Brust
WO2017106980A1 (de) * 2015-12-22 2017-06-29 Spinemind Ag Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
EP3184071A1 (de) * 2015-12-22 2017-06-28 SpineMind AG Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
US11426241B2 (en) 2015-12-22 2022-08-30 Spinemind Ag Device for intraoperative image-controlled navigation during surgical procedures in the region of the spinal column and in the adjacent regions of the thorax, pelvis or head

Also Published As

Publication number Publication date
US20010035871A1 (en) 2001-11-01
US6768496B2 (en) 2004-07-27

Similar Documents

Publication Publication Date Title
DE10015826A1 (de) System und Verfahren zur Erzeugung eines Bildes
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
EP2236104B1 (de) Medizintechnische Navigations-Bildausgabe mit virtuellen Primärbildern und realen Sekundärbildern
DE102009040430B4 (de) Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets
DE10136709B4 (de) Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
DE19963440C2 (de) Verfahren und System zur Visualisierung eines Gegenstandes
DE69819289T2 (de) Bildgeführtes chirurgisches system
EP0652726B1 (de) Verfahren zur darstellung des inneren von körpern
DE10333543A1 (de) Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung
DE102005023194A1 (de) Verfahren zur Erweiterung des Darstellungsbereiches von 2D-Bildaufnahmen eines Objektbereiches
DE102005059209B4 (de) Verfahren und Vorrichtung zur Visualisierung einer Folge von tomographischen Bilddatensätzen
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE19846687C2 (de) Chirurgische Hilfsvorrichtung zur Verwendung beim Ausführen von medizinischen Eingriffen und Verfahren zum Erzeugen eines Bildes im Rahmen von medizinischen Eingriffen
DE10210647A1 (de) Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
DE102009025077A1 (de) System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
DE10202091A1 (de) Vorrichtung und Verfahren zur Ermittlung einer Koordinatentransformation
DE10325003A1 (de) Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie
DE102004004620A1 (de) Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung
DE102005023195A1 (de) Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches
DE102006060421B4 (de) Medizinisches System zur bildgestützten Diagnose oder Therapie des Körpers eines Patienten sowie von dem System durchgeführtes Verfahren
EP3598948B1 (de) Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher
DE102005041602A1 (de) Verfahren zur Darstellung eines medizinischen Implantats in einem Bild sowie medizinisches bildgebendes System
DE69519623T2 (de) Operations-mikroskope
WO2014170194A1 (de) Verfahren und vorrichtung zur stereoskopischen darstellung von bilddaten
DE19951503B4 (de) Medizinisches System mit einem Bildgebungs- und einem Navigationssystem

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection