DE10015826A1 - System und Verfahren zur Erzeugung eines Bildes - Google Patents
System und Verfahren zur Erzeugung eines BildesInfo
- Publication number
- DE10015826A1 DE10015826A1 DE10015826A DE10015826A DE10015826A1 DE 10015826 A1 DE10015826 A1 DE 10015826A1 DE 10015826 A DE10015826 A DE 10015826A DE 10015826 A DE10015826 A DE 10015826A DE 10015826 A1 DE10015826 A1 DE 10015826A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- image
- data set
- video
- video image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000001356 surgical procedure Methods 0.000 title description 2
- 238000002604 ultrasonography Methods 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims description 23
- 230000004927 fusion Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 238000012800 visualization Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 238000011477 surgical intervention Methods 0.000 description 4
- 230000005672 electromagnetic field Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000005489 elastic deformation Effects 0.000 description 2
- 238000002324 minimally invasive surgery Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000027294 Fusi Species 0.000 description 1
- 208000026350 Inborn Genetic disease Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 208000016361 genetic disease Diseases 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 238000012978 minimally invasive surgical procedure Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; Determining position of diagnostic devices within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7425—Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0833—Clinical applications involving detecting or locating foreign bodies or organic structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- High Energy & Nuclear Physics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Endoscopes (AREA)
Abstract
Die Erfindung betrifft ein System und ein Verfahren zur Erzeugung eines Bildes, welches überlagerte oder fusionierte Bilddaten enthält. Das System weist erste Mittel (1, 3) zur Gewinnung eines Bilddatensatzes von einem Objekt (P) und zweite Mittel (2) zur Aufnahme eines Videobildes von dem Objekt (P) auf. Mit Hilfe von Mitteln zur Positionsbestimmung, vorzugsweise einem Navigationssystem (10), werden die Positionen der ersten (1, 3) und zweiten (2) Mittel bei der Gewinnung der Bilddatensätze ermittelt, anhand denen die Position des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und die Position des Videobilddatensatzes im Raum ermittelt werden können, so dass die beiden Bilddatensätze einander überlagert bzw. miteinander fusioniert werden können. Außerdem sind Mittel (23) zur Erzeugung eines mit Bilddaten des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes erweiterten Videobildes vorgesehen.
Description
Die Erfindung betrifft ein System und ein Verfahren zur Er
zeugung eines Bildes, welches überlagerte oder fusionierte
Bilddaten enthält, aufweisend erste Mittel zur Gewinnung ei
nes Bilddatensatzes von einem Objekt und zweite Mittel zur
Aufnahme eines Videobildes von dem Objekt.
Bei minimal invasiven chirurgischen Eingriffen, z. B. bei der
Endoskopie oder der Laparoskopie, bei welchen medizinische
Instrumente über kleine Öffnungen in den Körper eines zu be
handelnden Lebewesens eingeführt werden, hat der behandelnde
Chirurg in der Regel keine direkte Sicht auf das Operations
feld. Die direkte Sicht auf das Operationsfeld ist bei derar
tigen chirurgischen Eingriffen daher durch eine Videobildge
bung vom Operationsfeld ersetzt, welche in der Regel mit in
ein Endoskop, ein Laparoskop oder einen Katheter integrierten
optischen Mitteln erfolgt. Im Gegensatz zur direkten Sicht
auf das Operationsfeld sind die Sichtverhältnisse bei der
Videobildgebung jedoch deutlich eingeschränkt.
Eine Verbesserung der Sicht ergibt sich, wenn bei den minimal
invasiven Eingriffen das Endoskop, das Laparoskop oder der
Katheter bzw. deren jeweiliges optisches System zur Bildauf
nahme geschwenkt wird. Des weiteren lässt sich die Sicht auf
das Operationsfeld durch eine Vergrößerung des Abstandes des
optischen Systems zu dem abzubildenden Objekt verbessern.
Ein anderer, in der US 5,912,720 für die Behandlung von Au
genkrankheiten beschriebener Ansatz zur Erweiterung des
Sichtfeldes eines Arztes besteht in der Überlagerung gespei
cherter optischer oder angiographischer Bilder von einem Ob
jekt mit einem oder mehreren in Echtzeit gewonnenen optischen
Bildern von dem Objekt. Die Überlagerung der Bilder beruht
dabei auf einer Registrierung sogenannter anatomischer Landmarken,
also bestimmter anatomischer Eigenheiten des aufge
nommenen Gewebes, welche in den einander zu überlagernden
Bildern abgebildet sind und als Anhaltspunkt für die Überla
gerung dienen.
Aus der US 5,776,050 ist es bekannt, ein mit einem Endoskop
gewonnenes Videobild mit topologischen, in einem Computer
gespeicherten Bilddaten eines 3D-Bilddatensatzes zu einem um
die topologischen Bilddaten erweiterten Bild zu ergänzen. Mit
einem Navigationssystem wird dabei die Position des Endoskops
in einem von dem Koordinatensystem des 3D-Bilddatensatzes
verschiedenen Koordinatensystem ermittelt. Um eine Beziehung
zwischen den beiden Koordinatensystemen und somit dem 3D-
Bilddatensatz und den Videobilddaten herzustellen, so dass
eine Überlagerung der Videobilddaten mit den topologischen
Bilddaten möglich ist, wird eine Registrierungsprozedur, bei
spielsweise anhand anatomischer Landmarken, durchgeführt.
Anschließend können von dem Endoskop gelieferte Videobilder
aufgrund der kontinuierlichen Positionserfassung des Endo
skops durch das Navigationssystem und die durch die Regist
rierung ermittelte Transformationsvorschrift zwischen den
Koordinatensystemen Videobilder kontinuierlich mit topologi
schen Daten zu einem erweiterten, das Sichtfeld vergrößernden
Bild ergänzt werden.
Als nachteilig an diesem Vorgehen erweist sich jedoch, dass
die erforderliche Registrierungsprozedur zeitaufwendig und
fehleranfällig und daher schwer in einen routinemäßigen Ab
lauf im Zuge eines minimal invasiven chirurgischen Eingriffes
zu integrieren ist.
Der Erfindung liegt daher die Aufgabe zugrunde, ein System
der eingangs genannten Art derart auszuführen bzw. ein Ver
fahren der eingangs genannten Art derart anzugeben, dass eine
Überlagerung oder Fusion von beispielsweise nicht invasiv aus
dem Inneren eines Objektes gewonnenen Bilddaten und Videobilddaten
zur Erzeugung eines Bildes ohne Registrierungspro
zedur erfolgen kann.
Nach der Erfindung wird die das System betreffende Aufgabe
gelöst durch ein System zur Erzeugung eines Bildes, welches
überlagerte oder fusionierte Bilddaten enthält, aufweisend
erste Mittel zur Gewinnung eines Bilddatensatzes von einem
Objekt, zweite Mittel zur Aufnahme eines Videobildes von dem
Objekt, Mittel zur Bestimmung der Position der ersten Mittel
bei der Gewinnung des Bilddatensatzes und der Position der
zweiten Mittel bei der Aufnahme des Videobildes, Mittel zur
Bestimmung der Position des mit den ersten Mitteln gewonnenen
Bilddatensatzes und der Position des mit den zweiten Mitteln
aufgenommenen Videobildes, Mittel zur Überlagerung oder Fusi
on von Bilddaten des mit den ersten Mitteln gewonnenen Bild
datensatzes und von Bilddaten des mit den zweiten Mitteln
gewonnenen Videobildes und Mittel zur Erzeugung eines Bildes
aus den überlagerten oder fusionierten Bilddaten. Erfindungs
gemäß sind bei dem System also Mittel vorgesehen, mit denen
sowohl die Position der ersten Mittel bei der Gewinnung des
Bilddatensatzes, als auch die Position der zweiten Mittel bei
der Aufnahme eines Videobildes in einem Referenzkoordinaten
system bestimmt werden, so dass die Positionen der ersten und
zweiten Mittel relativ zueinander bekannt sind. Da anhand der
bekannten Position der ersten Mittel bei der Gewinnung eines
Bilddatensatzes aufgrund der ebenfalls bekannten Aufnahmepa
rameter auch die Position des mit den ersten Mitteln gewonne
nen Bilddatensatzes und da anhand der bekannten Position der
zweiten Mittel bei der Aufnahme des Videobildes aufgrund der
ebenfalls bekannten Aufnahmeparameter auch die Position der
Bildebene des Videobildes in dem Referenzkoordinatensystem
ermittelbar ist, können Bilddaten des mit den ersten Mitteln
gewonnenen Bilddatensatzes und Videobilddaten einander über
lagert oder miteinander fusioniert werden. Auf diese Weise
lassen sich z. B. bei minimal invasiven medizinischen Eingrif
fen ohne Registrierungsprozedur zur Herstellung einer räumli
chen Beziehung zwischen den Bilddaten des mit den ersten Mitteln
gewonnenen Bilddatensatzes und den Videobilddaten intra
operativ Bilder erzeugen, welche Videobilddaten und bei
spielsweise nicht invasiv gewonnene Bilddaten aus dem Inneren
des Objektes enthalten. Vorzugsweise werden dabei Videobilder
erzeugt, welche um nicht invasiv gewonnene Bilddaten des mit
den ersten Mitteln erzeugten Bilddatensatzes ergänzt sind, so
dass das möglicherweise eingeschränkte Sichtfeld eines Video
bildes erweitert wird. Die Videobilddaten werden beispiels
weise um Bilddaten aus der mit der Bildebene des Videobildes
korrespondierenden Bildebene des Bilddatensatzes ergänzt. Die
Darstellung der erzeugten Bilder kann beispielsweise als
Bild-in-Bild-Darstellung erfolgen.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht
vor, dass mit den Mitteln zur Bestimmung der Positionen der
ersten und der zweiten Mittel auch die Position, d. h. die
Lage und Orientierung, des Objektes im Raum bestimmbar ist.
Auf diese Weise können beispielsweise bei minimal invasiven
medizinischen Eingriffen auch nicht invasiv, präoperativ ge
wonnene Bilddaten von dem Objekt zur Überlagerung oder Fusion
mit während des minimal invasiven chirurgischen Eingriffs
aufgenommenen Videobilddaten verwendet werden. Durch die Er
fassung der Position des Objektes bei der präoperativ vorge
nommenen Aufnahme eines Bilddatensatzes mit den ersten Mit
teln und durch die Erfassung der Position des Objektes bei
der Durchführung des eigentlichen chirurgischen Eingriffes an
dem Objekt können die Änderungen in der Position des Objektes
berücksichtigt werden und der Bilddatensatz hinsichtlich sei
ner Lage im Raum an die veränderte Lage des Objektes ange
passt bzw. mit der veränderten Lage des Objektes in Überein
stimmung gebracht werden. Darüber hinaus ist die Bestimmung
der Position des Objektes auch dann sinnvoll, wenn sich das
zu untersuchende Objekt während des Eingriffs zwischen der
Gewinnung des Bilddatensatzes mit den ersten Mitteln und der
Aufnahme des Videobildes bewegt bzw. bewegt wird. Das Objekt
ist demnach in dem mit den ersten Mitteln gewonnenen Bildda
tensatz in einer anderen Lage als bei der Aufnahme des Videobildes
mit den zweiten Mitteln. Durch die Erfassung der Bewe
gungen des Objektes wird es aber ermöglicht unter Berücksich
tigung der Bewegungen des Objektes, den mit den ersten Mit
teln gewonnenen Bilddatensatz mit der neuen Lage des Objektes
in Übereinstimmung zu bringen, so dass ein bei der neuen Lage
des Objektes aufgenommenes Videobild problemlos mit Bilddaten
des angepassten Bilddatensatzes überlagert oder fusioniert
werden kann.
Nach einer Variante der Erfindung umfassen die Mittel zur
Bestimmung der Positionen der ersten und der zweiten Mittel
ein Navigationssystem. Bei dem Navigationssystem kann es sich
beispielsweise um ein an sich bekanntes optisches, ein elekt
romagnetisches, ein auf Ultraschall basierendes oder auch ein
anderes an sich bekanntes Navigationssystem handeln.
Eine besonders bevorzugte Ausführungsform der Erfindung sieht
vor, dass mit den ersten Mitteln zur Gewinnung eines Bildda
tensatzes ein 3D-Bilddatensatz gewonnen werden kann. Nach
Varianten der Erfindung umfassen die ersten Mittel ein Rönt
gensystem, vorzugsweise ein C-Bogen-Röntgensystem, oder ein
Ultraschallsystem und die zweiten Mittel ein Endoskop, ein
Laparoskop oder einen Katheter. Der Vorteil der Verwendung
eines C-Bogen-Röntgensystem oder eines Ultraschallsystems zur
nicht invasiven Gewinnung eines Bilddatensatzes liegt in der
relativ kostengünstigen Erzeugung der Bilddatensätze im Ver
gleich zur Gewinnung von Datensätzen mit Röntgencomputerto
mographen oder Magnetresonanzgeräten.
Die das Verfahren betreffende Aufgabe wird gelöst durch ein
Verfahren zur Erzeugung eines Bildes, welches überlagerte
oder fusionierte Bilddaten enthält, aufweisend folgende Ver
fahrensschritte:
- a) Gewinnung eines Bilddatensatzes von einem Objekt mit ers ten Mitteln zur Gewinnung von Bilddaten,
- b) Aufnahme eines Videobildes von dem Objekt mit zweiten Mitteln,
- c) Bestimmung der Position der ersten Mittel bei der Gewin nung des Bilddatensatzes und der Position der zweiten Mittel bei der Aufnahme des Videobildes,
- d) Bestimmung der Position des mit den ersten Mitteln gewon nenen Bilddatensatzes und der Position des mit den zwei ten Mitteln aufgenommenen Videobildes,
- e) Überlagerung oder Fusion von Bilddaten des mit den ersten Mitteln gewonnenen ersten Bilddatensatzes und von Bildda ten des mit den zweiten Mitteln aufgenommenen Videobildes und
- f) Erzeugung eines Bildes aus den überlagerten oder fusio nierten Bilddaten.
Bei dem erfindungsgemäßen Verfahren werden also, wie im Zu
sammenhang mit dem erfindungsgemäßen System beschrieben, an
hand der ermittelten Position der ersten Mittel bei der Ge
winnung des Bilddatensatzes und der Position der zweiten Mit
tel bei der Aufnahme des Videobildes in bezug auf ein Refe
renzkoordinatensystem die Position des mit den ersten Mitteln
gewonnenen Bilddatensatzes und die Position des mit den zwei
ten Mitteln aufgenommenen Videobildes relativ zueinander in
dem Referenzkoordinatensystem bestimmt. Da demnach die Lage
der Bilddaten des Bilddatensatzes zu der Lage der Videobild
daten bekannt ist, können die Bilddaten einander überlagert
oder miteinander fusioniert werden, wodurch Bilder erzeugt
werden können, welche Videobilddaten und beispielsweise nicht
invasiv gewonnene Bilddaten aus dem Inneren eines Objektes
enthalten.
Nach Varianten der Erfindung werden auch die Position des
Objektes bestimmt, wobei die Bestimmung der Positionen der
ersten und der zweiten Mittel sowie die Bestimmung der Posi
tion des Objektes nach einer Variante der Erfindung mit einem
Navigationssystem erfolgt. Die Verwendung eines an sich be
kannten Navigationssystems stellt eine besonders praktische
Form zur Ermittlung der Positionen der ersten und zweiten
Mittel sowie der Position des Objektes dar.
Weitere vorteilhafte Varianten des erfindungsgemäßen Verfah
rens ergeben sich aus den Unteransprüchen.
Ein Ausführungsbeispiel der Erfindung ist in den beigefügten
schematischen Zeichnungen dargestellt. Es zeigen:
Fig. 1 ein System mit einem Navigationssystem zur Durch
führung des Verfahrens zur Erzeugung eines Bildes,
welches überlagerte oder fusionierte Bilddaten auf
weist, und
Fig. 2 die Lage eines 3D-Bilddatensatzes und einer Bild
ebene eines Videobildes relative zueinander.
Bei dem in der Fig. 1 dargestellten erfindungsgemäßen System
handelt es sich um ein medizinisches System für minimal inva
sive chirurgische Eingriffe an Lebewesen. Das medizinische
System weist erste Mittel zur nicht invasiven Gewinnung eines
Bilddatensatzes von einem Patienten P in Form eines Ultra
schallgerätes 1 und zweite Mittel zur Aufnahme eines Video
bildes aus dem Körperinneren des Patienten P in Form eines
Endoskops 2 auf.
Das Ultraschallgerät 1 umfasst einen auf der Körperoberfläche
des Patienten P applizierbaren Ultraschallkopf 3, welcher an
eine an sich bekannte Bildverarbeitungseinheit 4 des Ultra
schallgerätes 1 mit einer Leitung 5 angeschlossen ist. Das
Ultraschallgerät 1 weist außerdem eine in nicht dargestellter
Weise mit der Bildverarbeitungseinheit 4 verbundene Anzeige
einrichtung 6 auf. Mit dem Ultraschallkopf 3 können in an
sich bekannter Weise in sogenannten Sektorscans nicht invasiv
2D-Ultraschallbilder aus dem Körperinneren des Patienten P
gewonnen und nach einer Bildverarbeitung durch die Bildverar
beitungseinheit 4 in nicht dargestellter Weise auf der Anzeigeeinrichtung
6 dargestellt werden. Das Ultraschallgerät 1
zeichnet sich außerdem dadurch aus, dass mit ihm 3D-
Bilddatensätze von Körpergewebe des Patienten P gewonnen wer
den können. Ein derartiger 3D-Bilddatensatz wird in an sich
bekannter Weise aus einer Vielzahl von aus verschiedenen
Richtungen aufgenommenen Ultraschallschnittbildern von der
Bildverarbeitungseinheit 4 erzeugt und bildet die Grundlage
für die Rekonstruktion verschiedener 3D-Ultraschallbilder.
Das Endoskop 2, welches im Falle des vorliegenden Ausfüh
rungsbeispiels durch eine Öffnung in den Körper des Patienten
P eingedrungen ist, weist nicht näher dargestellte, aber an
sich bekannte optische Mittel in Form einer Linsenanordnung
und einer mit der Linsenanordnung zusammenwirkenden Bildauf
nahmeeinheit, z. B. einer CCD-Kamera, auf. Die von der CCD-
Kamera aufgenommenen Videobilder werden über eine Leitung 7
an einen mit einer Anzeigeeinrichtung 8 versehenen Visuali
sierungsrechner 9 übertragen und können von dem Visualisie
rungsrechner 9 auf der Anzeigeeinrichtung 8 dargestellt wer
den. Eine an sich zur Aufnahme von Videobildern aus dem Kör
perinneren des Patienten P erforderliche Lichtquelle, z. B.
eine Kaltlichtquelle, ist in der Fig. 1 nicht explizit darge
stellt.
Das medizinische System weist im Falle des vorliegenden Aus
führungsbeispiels außerdem ein elektromagnetisches Navigati
onssystem 10 auf, welches eine Positionserfassungseinheit 11
in Form eines Rechners, einen Sender 12 und an hinsichtlich
ihrer Position zu erfassenden Objekten anbringbare Positions
sensoren 13 bis 15 umfasst. Die Positionserfassungseinheit 11
ist über eine Leitung 16 mit dem Sender 12 und über Leitungen
17 bis 19 mit den Positionssensoren 13 bis 15 verbunden. Im
Betrieb des Navigationssystems 10 erzeugt der Sender 12 ein
in Fig. 1 mit gestrichelten Linien angedeutetes elektromagne
tisches Feld 20. Befinden sich die Positionssensoren 13 bis
15 des Navigationssystems 10 in dem elektromagnetischen Feld
20 erzeugen diese Signale, aus denen die Positionserfassungseinheit
11 die Positionen der Positionssensoren 13 bis 15 und
somit die Positionen der die Positionssensoren 13 bis 15 tra
genden Objekte in einem Referenzkoordinatensystem K1 ermit
teln kann. Der Sender 12 des Navigationssystems 10 ist dabei
in definierter Weise in dem Referenzkoordinatensystem K1 an
geordnet.
Im Falle des vorliegenden Ausführungsbeispiels ist der Posi
tionssensor 13 des Navigationssystems 10 in derart definier
ter Weise an dem Ultraschallkopf 3 angeordnet, dass durch die
Bestimmung der Position des Positionssensors 13 in dem von
der Positionserfassungseinheit 11 festgelegten Bezugskoordi
natensystem K1 nicht nur die Position der Ultraschallsende-
und -empfängerflächen des Ultraschallkopfes 3, sondern auf
grund der bekannten Aufnahmeparameter bei der Gewinnung von
Ultraschallbildern auch die Positionen, d. h. die Lagen und
Orientierungen, der mit dem Ultraschallkopf 3 erfassten Bild
daten im Bezugskoordinatensystem K1 ermittelbar sind.
Der Positionssensor 14 ist in derart definierter Weise an dem
Endoskop 2 angeordnet, dass durch die Bestimmung der Position
des Positionssensors 14 auch die Position der optischen Lin
senanordnung des Endoskops 2 und somit der Bildebene eines
von der Linsenanordnung und der CCD-Kamera aufgenommenen Vi
deobildes ermittelbar ist.
Um das allein durch die Videobildgebung mit dem Endoskop 2
eingeschränkte Sichtfeld eines in der Fig. 1 nicht dargestell
ten Chirurgen bei minimal invasiven Eingriffen an dem Patien
ten P zu erweitern, werden mit dem medizinischen System Bil
der erzeugt, welche Bilddaten eines mit dem Ultraschallgerät
1 gewonnenen 3D-Bilddatensatzes und Bilddaten eines mit dem
Endoskop 2 gewonnenen Videobildes enthalten. Zur Erzeugung
eines derartigen Bildes werden vorzugsweise intra-operativ,
also während des minimal invasiven chirurgischen Eingriffs,
ein 3D-Bilddatensatz von dem zu behandelnden Körperteil des
Patienten P mit dem Ultraschallgerät 1 und Videobilder mit
dem in das entsprechende Körperteil des Patienten P einge
drungenem Endoskop 2 gewonnen. Zu den Zeitpunkten der Aufnah
men der Ultraschallschnittbilder mit dem Ultraschallgerät 1
sowie zu den Zeitpunkten der Aufnahme der Videobilder werden
mit Hilfe des Navigationssystems 10 die Positionen des Ultra
schallkopfes 3 und die Positionen des Endoskops 2 ermittelt.
Die an dem Ultraschallkopf 3 und dem Endoskop 2 angeordneten
Positionssensoren 13 bzw. 14 sind dabei, wie bereits erwähnt,
in dem in der Fig. 1 mit gestrichelten Linien angedeuteten
elektromagnetischen Feld 20 des Senders 12 angeordnet und
erzeugen Signale, aus denen die Positionserfassungseinheit 11
die Positionen, d. h. die Lagen und Orientierungen des Ultra
schallkopfes 3 und des Endoskops 2, bezüglich des Referenzko
ordinatensystems K1 bestimmen kann. Die Aufnahme der Bildda
ten und die Bestimmung der Positionen des Ultraschallkopfes 3
und des Endoskops 2 erfolgt dabei synchron, wobei eine Posi
tionsbestimmung jeweils durch eine Bildaufnahme ausgelöst
wird. Die Bildverarbeitungseinheit 4 des Ultraschallgerätes 1
und der Visualisierungsrechner 9 des Endoskops 2 sind hierzu
mit Leitungen 21, 22 mit der Positionserfassungseinheit 11
verbunden.
Anhand der mit dem Navigationssystem 10 ermittelten Positio
nen des Ultraschallkopfes 3 bei der Gewinnung der Ultra
schallschnittbilder kann auch die Lage und Orientierung eines
aus den 2D-Ultraschallschnittbildern erzeugten 3D-
Bilddatensatzes in dem Referenzkoordinatensystem K1 ermittelt
werden. Im Falle des vorliegenden Ausführungsbeispiels er
folgt die Erzeugung des 3D-Ultraschallbilddatensatzes mit
einem Überlagerungs- und Fusionsrechner 23 in an sich bekann
ter Weise, an welchen die Positionserfassungseinheit 11 über
eine Leitung 24 und das Ultraschallgerät 1 über eine Leitung
25 angeschlossen sind. Der Überlagerungs- und Fusionsrechner
23 erhält dabei alle für die Erzeugung des 3D-Bilddatensatzes
erforderlichen Positionsdaten von der Positionserfassungsein
heit 11 und alle Ultraschalldaten von dem Ultraschalgerät 1.
Aufgrund der bekannten räumlichen Beziehung zwischen den gewonnenen
2D-Ultraschallbilddaten und den Sende- und Empfän
gerflächen des Ultraschallkopfes 3 kann der Überlagerungs-
und Fusionsrechner 23 schließlich für jedes Bilddatum des
erzeugten 3D-Ultraschallbilddatensatzes, aus dem verschiedene
3D-Bilder vom Körperinneren des Patienten P rekonstruierbar
sind, die Lage und Orientierung im Referenzkoordinatensystem
K1 bestimmen. Demnach ist auch für einen beliebig aus dem 3D-
Ultraschallbilddatensatz rekonstruierten 3D-Bildkubus die
Lage und Orientierung im Referenzkoordinatensystem K1 als
auch die Voxelgröße, beispielsweise in Millimetern und Grad,
in dem Referenzkoordinatensystem K1 bekannt. Alternativ könn
te die Erzeugung des 3D-Ultraschallbilddatensatzes auch mit
der Bildverarbeitungseinheit 4 des Ultraschallgerätes 1 er
folgen.
Da auch der Visualisierungsrechner 9 des Endoskops 2 über
eine Leitung 26 an den Überlagerungs- und Fusionsrechner 23
angeschlossen ist, kann der Überlagerungs- und Fusionsrechner
23 anhand der Positionsdaten der Positionserfassungseinheit
11 sowie anhand der an ihn übertragenen Einstelldaten und der
Videobilder des Endoskops 2 auch die Positionen, d. h. die
Lagen und Orientierungen, des Endoskops 2 und somit die Bild
ebene eines jeden mit dem Endoskop 2 erfassten Videobildes in
dem Referenzkoordinatensystem K1 bestimmen. Aufgrund der be
kannten Positionen des 3D-Ultraschallbilddatensatzes und der
Videobilddaten kann der mit einer entsprechenden Software
betriebene Überlagerungs- und Fusionsrechner 23 die Bilddaten
des 3D-Ultraschallbilddatensatzes und die Videobilddaten ein
ander überlagern oder miteinander fusionieren. In Fig. 2 ist
in schematischer exemplarischer Darstellung die Position des
mit einem Kubus 27 angedeuteten 3D-Ultraschallbilddatensatzes
und die Position der Bildebene 28 eines Videobildes in dem
Referenzkoordinatensystem K1 gezeigt.
Die Fusion der Bilddaten des 3D-Ultraschallbilddatensatzes
mit den Videobilddaten kann mit bekannten Fusions-Verfahren,
z. B. Alpha-Blending, als anteilsmäßige Überlagerung bewerkstelligt
werden. Mit Hilfe dieser überlagerten Darstellung
kann insbesondere Körpergewebe halbtransparent dargestellt
werden, wodurch z. B. ein Blick durch ein Organ möglich wird,
indem dem Videobild Ultraschallbilddaten jenseits eines im
Videobild gezeigten Organs überlagert werden. Des weiteren
können dem Videobild funktionelle Informationen, z. B. der
Blutfluss, sowie Gefäße überlagert werden. Geeignete Darstel
lungsarten stellen hierbei beispielsweise das "perspektivi
sche Surface Shaded Display" oder das "perspektivische Volume
Rendering" dar.
Darüber hinaus kann der Überlagerungs- und Fusionsrechner 23
aus den überlagerten oder fusionierten Bilddaten Videobilder
erzeugen, welche beispielsweise um Bilddaten aus der mit der
Bildebene des Videobildes korrespondierenden Ebene des 3D-
Ultraschallbilddatensatzes ergänzt sind, welche als Bild-in-
Bild darstellbar sind. In Fig. 1 ist in vergrößerter schemati
scher Darstellung ein aus den bekannten Bilddaten erzeugtes
Bild als Bild-in-Bild-Visualisierung auf einer Anzeigeein
richtung 29 des Überlagerungs- und Fusionsrechner 23 darge
stellt. Das Videobild 30 ist dabei mit Ultraschalldaten 31
ergänzt, so dass das Sichtfeld des Videobildes 30 erweitert
ist. Eine weitere Darstellungsform ist die Seite-an-Seite-
Darstellung der Bilddaten, bei der Bilddaten des 3D-
Ultraschallbilddatensatzes und Videobilddaten in gleicher
Orientierung und Position dargestellt werden.
Bei der Überlagerung bzw. der Fusion des 3D-Ultraschallbild
datensatzes mit den Videobilddaten wird es in der Regel er
forderlich sein, die Bilddaten auch von ihrer Struktur her
aneinander anzupassen, dass heißt zum Beispiel, dass die Vi
deobilddaten, welche bedingt durch den variablen Abstand zwi
schen dem Endoskop 2 und dem aufzunehmenden Gewebe im Ver
gleich zu den Bilddaten des 3D-Ultraschallbilddatensatzes in
verschiedenen Skalierungen vorliegen, derart skaliert werden
müssen, dass die Bilddaten zueinander passen. Der Skalie
rungsfaktor lässt sich aber bestimmen, da die Lage des Endoskops
2 relativ zu dem 3D-Ultraschallbilddatensatz bekannt
ist. Die Skalierung wird im Falle des vorliegenden Ausfüh
rungsbeispiels durch den Überlagerungs- bzw. Fusionsrechner
23 vorgenommen.
Weitere Parameter für die Bilddarstellung wie die Lage und
Blickrichtung können interaktiv mit an sich bekannten, in Fig.
1 nicht dargestellten an den Überlagerungs- und Fusionsrech
ner 23 angeschlossenen Bedienerschnittstellen für die 3D-
Bildverarbeitung verändert werden. Das Mischungsverhältnis
von 3D-Ultraschallbilddaten mit Videobilddaten kann ebenfalls
interaktiv verändert werden.
In der vorstehend beschriebenen Weise kann also ein intra
operativ mit dem Endoskop 2 erzeugtes Videobild aus dem Kör
perinneren des Patienten P mit intra-operativ erzeugten Ult
raschallbild erweitert werden. Für die Überlagerung oder Fu
sion der Bilddaten ist dabei erfindungsgemäß keine Registrie
rung erforderlich.
Wird der Patient P zwischen den Aufnahmen der Ultraschall
schnittbilder mit dem Ultraschallgerät 1 und den Aufnahmen
der Videobilder bewegt, wird auch die Bewegung des Patienten
P mit dem Navigationssystem 10 erfasst. Hierzu ist im Falle
des vorliegenden Ausführungsbeispiels an dem Patienten P der
Positionssensor 15 angebracht. Durch die Erfassung der Bewe
gung des Patienten P wird es ermöglicht, auch präoperativ
ermittelte 3D-Ultraschallbilddatensätze, welche bei einer
Lage des Patienten P aufgenommen wurden, welche sich von der
Lage des Patienten P bei dem minimal invasiven chirurgischen
Eingriff unterscheidet, mit der Lage des Patienten P während
des Eingriffes in Übereinstimmung zu bringen. Auf diese Weise
kann auch ein präoperativ ermittelter und angepasster Bildda
tensatz zur Überlagerung oder Fusion mit intra-operativ ge
wonnenen Videobilddaten verwendet werden.
Sollten die Videobilder im Vergleich zur realen Patientenana
tomie verzerrt vorliegen, was der Fall ist, wenn Endoskope
mit verzerrender Optik eingesetzt werden, so kann vor der
Überlagerung bzw. Fusion der Videobilddaten mit den Ultra
schalldaten in an sich bekannter Weise eine Entzerrung der
Videobilder durchgeführt werden. Nach der Entzerrung liegen
die Videobilder schließlich verzeichnungsfrei vor.
Sollte die Genauigkeit der mit dem Navigationssystem 10 er
mittelten Positionen des 3D-Ultraschallbilddatensatzes und
der Videobilddaten nicht ausreichend sein, um hochwertige
Bilder mit überlagerten oder fusionierten Bilddaten erzeugen
zu können, kann ausgehend von den ermittelten Positionen der
Bilddaten zusätzlich eine Feinregistrierung erfolgen. Bei
dieser Feinregistrierung können gängige Registrierungsverfah
ren zur Anwendung kommen, bei denen die gesuchte räumliche
Transformation zwischen den beteiligten Bilddaten mit Hilfe
von sogenannten anatomischen Landmarken oder mit Hilfe von
Oberflächen oder Kanten ermittelt wird. Auch gängige voxelba
sierte Registrierungsansätze können hierzu verwendet werden.
Bei Bedarf können auch gängige Registrierungsansätze verwen
det werden, bei denen einer der beiden Bilddatensätze elas
tisch deformiert wird, um eine optimale Registrierung zu er
möglichen. Durch diese elastische Deformation können auch
durch die Verzerrung der Endoskopoptik bedingte Verzeichnun
gen der Videobilder korrigiert werden. Weiterhin ist die e
lastische Deformation in Situationen hilfreich, bei denen
Patientenumlagerungen, -bewegungen und/oder -atmung zwischen
den Aufnahmen der prä- oder intra-operativ gewonnenen 3D-
Ultraschallbilddaten und der Aufnahme der endoskopischen Vi
deobilddaten stattfinden.
Die Überlagerung oder Fusion von 3D-Ultraschallbilddaten und
von Videobilddaten muss im übrigen nicht notwendigerweise von
dem Überlagerungs- und Fusionsrechner 23 vorgenommen werden.
Vielmehr kann auch die Bildverarbeitungseinheit 4 des Ultra
schallgerätes 1 oder der Visualisierungsrechner 9 die Überlagerung
bzw. Fusion vornehmen und Bilder erzeugen, welche ü
berlagerte oder fusionierte Bilddaten aufweisen.
Im Unterschied zum vorliegend beschriebenen Ausführungsbei
spiel muss es sich bei dem Navigationssystem 10 nicht notwen
digerweise um ein elektromagnetisches Navigationssystem han
deln. Vielmehr kann das Navigationssystem auch optisches oder
ein anderes bekanntes Navigationssystem sein.
Des weiteren ist die vorliegende Erfindung nicht auf die Fu
sion bzw. Überlagerung eines 3D-Bilddatensatzes mit Video
bilddaten beschränkt, sondern es können auch 2D-
Bilddatensätze und Videobilddaten einander überlagert bzw.
miteinander fusioniert werden.
Darüber hinaus muss es sich bei den ersten Mitteln nicht not
wendigerweise um ein Ultraschallgerät handeln. Vielmehr kön
nen die ersten Mittel auch ein Röntgengerät, z. B. ein C-
Bogen-Röntgengerät, oder einen Computertomographen oder ein
Magnetresonanzgerät umfassen. Alle diese Gerätschaften ges
tatten es Bilddatensätze zu erzeugen, deren Lage mit Hilfe
eines Navigationssystems relativ zu einem Videobild bestimmt
werden kann.
Anstelle des Endoskops kann auch ein mit optischen Mitteln
zur Bildaufnahme versehenes Laparoskop oder ein Katheter ver
wendet werden.
Die Erfindung wurde vorstehend am Beispiel eines medizini
schen Systems beschrieben. Die Erfindung ist jedoch nicht auf
den Bereich der Medizin beschränkt.
Claims (17)
1. System zur Erzeugung eines Bildes, welches überlagerte
oder fusionierte Bilddaten enthält, aufweisend erste Mittel
(1, 3) zur Gewinnung eines Bilddatensatzes von einem Objekt
(P), zweite Mittel (2) zur Aufnahme eines Videobildes von dem
Objekt (P), Mittel (10) zur Bestimmung der Position der ers
ten Mittel (1, 3) bei der Gewinnung des Bilddatensatzes und
der Position der zweiten Mittel (2) bei der Aufnahme des Vi
deobildes, Mittel (23) zur Bestimmung der Position des mit
den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und der
Position des mit den zweiten Mittel (2) aufgenommenen Video
bildes, Mittel (23) zur Überlagerung oder Fusion von Bildda
ten des mit den ersten Mitteln (1, 3) gewonnenen Bilddaten
satzes und von Bilddaten des mit den zweiten Mitteln (2) ge
wonnenen Videobildes und Mittel (23) zur Erzeugung eines Bil
des aus den überlagerten oder fusionierten Bilddaten.
2. System nach Anspruch 1, bei dem mit den Mitteln (10) zur
Bestimmung der Positionen der ersten (1, 3) und der zweiten
(2) Mittel auch die Position des Objektes (P) bestimmbar ist.
3. System nach Anspruch 1 oder 2, bei dem die Mittel zur Be
stimmung der Positionen der ersten (1, 3) und der zweiten (2)
Mittel ein Navigationssystem (10) umfassen.
4. System nach einem der Ansprüche 1 bis 3, bei dem mit den
ersten Mitteln (1, 3) zur Gewinnung eines Bilddatensatzes ein
3D-Bilddatensatz gewonnen werden kann.
5. System nach einem der Ansprüche 1 bis 4, bei dem die ers
ten Mittel ein Röntgensystem umfassen.
6. System nach einem der Ansprüche 1 bis 4, bei dem die ers
ten Mittel ein Ultraschallsystem (1, 3) umfassen.
7. System nach einem der Ansprüche 1 bis 6, bei dem die zwei
ten Mittel ein Endoskop (2), ein Laparoskop oder einen Kathe
ter umfassen.
8. System nach einem der Ansprüche 1 bis 7, welches ein medi
zinisches System ist.
9. Verfahren zur Erzeugung eines Bildes, welches überlagerte
oder fusionierte Bilddaten enthält, aufweisend folgende Ver
fahrensschritte:
- a) Gewinnung eines Bilddatensatzes von einem Objekt (P) mit ersten Mitteln (1, 3) zur Gewinnung von Bilddaten,
- b) Aufnahme eines Videobildes von dem Objekt (P) mit zweiten Mitteln (2),
- c) Bestimmung der Position der ersten Mittel (1, 3) bei der Gewinnung des Bilddatensatzes und der Position der zwei ten Mittel (2) bei der Aufnahme des Videobildes,
- d) Bestimmung der Position des mit den ersten Mitteln (1, 3) gewonnenen Bilddatensatzes und der Position des mit den zweiten Mitteln (2) aufgenommenen Videobildes,
- e) Überlagerung oder Fusion von Bilddaten des mit den ersten Mitteln (1, 3) gewonnenen ersten Bilddatensatzes und von Bilddaten des mit den zweiten Mitteln (2) aufgenommenen Videobildes, und
- f) Erzeugung eines Bildes aus den überlagerten oder fusio nierten Bilddaten.
10. Verfahren nach Anspruch 9, bei dem die Position des Ob
jektes (P) bestimmt wird.
11. Verfahren nach Anspruch 9 oder 10, bei dem die Bestimmung
der Positionen der ersten (1, 3) und der zweiten (2) Mittel
und die Bestimmung der Position des Objektes (P) mit einem
Navigationssystem (10) erfolgt.
12. Verfahren nach einem der Ansprüche 9 bis 11, bei dem mit
den ersten Mitteln (1, 3) ein 3D-Bilddatensatz gewonnen wer
den kann.
13. Verfahren nach einem der Ansprüche 9 bis 12, bei dem die
ersten Mittel ein Röntgensystem umfassen.
14. Verfahren nach einem der Ansprüche 9 bis 12, bei dem die
ersten Mittel ein Ultraschallsystem (1, 3) umfassen.
15. Verfahren nach einem der Ansprüche 9 bis 14, bei dem die
zweiten Mittel ein Endoskop (2), ein Laparoskop oder einen
Katheter umfassen.
16. Verfahren nach einem der Ansprüche 9 bis 15, bei dem vor
der Überlagerung oder Fusion von Bilddaten des mit den ersten
Mitteln (1, 3) gewonnenen Bilddatensatzes und von Bilddaten
des mit den zweiten Mitteln (2) aufgenommenen Videobildes
eine geometrische Entzerrung des Videobildes erfolgt.
17. Verfahren nach einem der Ansprüche 9 bis 16, bei dem eine
Feinregistrierung zwischen den Bilddaten des mit den ersten
Mitteln (1, 3) gewonnenen Bilddatensatzes und den Bilddaten
des mit den zweiten Mitteln (2) aufgenommenen Videobildes
erfolgt.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10015826A DE10015826A1 (de) | 2000-03-30 | 2000-03-30 | System und Verfahren zur Erzeugung eines Bildes |
US09/822,616 US6768496B2 (en) | 2000-03-30 | 2001-03-30 | System and method for generating an image from an image dataset and a video image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10015826A DE10015826A1 (de) | 2000-03-30 | 2000-03-30 | System und Verfahren zur Erzeugung eines Bildes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10015826A1 true DE10015826A1 (de) | 2001-10-11 |
Family
ID=7636976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10015826A Ceased DE10015826A1 (de) | 2000-03-30 | 2000-03-30 | System und Verfahren zur Erzeugung eines Bildes |
Country Status (2)
Country | Link |
---|---|
US (1) | US6768496B2 (de) |
DE (1) | DE10015826A1 (de) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10323322A1 (de) * | 2003-05-23 | 2004-12-16 | Volkswagen Ag | Verfahren und Einrichtung zur Abbildung eines gemischten Bildes |
DE102004011158A1 (de) * | 2004-03-08 | 2005-10-13 | Siemens Ag | Verfahren zur Registrierung einer Folge von 2D-Schnittbildern eines Hohlkanals mit einer 2D-Röngtenaufnahme |
DE102007023029A1 (de) * | 2007-05-16 | 2008-11-20 | Siemens Ag | Vorrichtung und Verfahren zur Erzeugung eines Summenbildes aus ersten und zweiten Bilddaten |
NL2001680C2 (nl) * | 2007-06-28 | 2010-06-09 | Siemens Ag | Beeldgevende werkwijze voor de medische diagnostiek en volgens deze werkwijze werkende inrichting. |
WO2013001031A3 (de) * | 2011-06-28 | 2013-03-21 | Scopis Gmbh | Verfahren und vorrichtung zum darstellen eines objektes |
DE102011083853A1 (de) * | 2011-09-30 | 2013-04-04 | Siemens Aktiengesellschaft | Fusionierte SPECT/C-Bogen-Bildgebung |
DE102005059261B4 (de) * | 2005-12-12 | 2013-09-05 | Siemens Aktiengesellschaft | Kathetervorrichtung zur Behandlung eines teilweisen und/oder vollständigen Gefässverschlusses und Röntgeneinrichtung |
DE102012220116A1 (de) * | 2012-06-29 | 2014-01-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung |
DE102013213215A1 (de) * | 2013-07-05 | 2015-01-08 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Ultraschallaufnahme eines deformierten Objektes, insbesondere der menschlichen Brust |
EP2289454A3 (de) * | 2005-06-06 | 2015-12-30 | Intuitive Surgical Operations, Inc. | Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke |
EP3184071A1 (de) * | 2015-12-22 | 2017-06-28 | SpineMind AG | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich |
US11259870B2 (en) | 2005-06-06 | 2022-03-01 | Intuitive Surgical Operations, Inc. | Interactive user interfaces for minimally invasive telesurgical systems |
Families Citing this family (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
CA2314794A1 (en) * | 2000-08-01 | 2002-02-01 | Dimitre Hristov | Apparatus for lesion or organ localization |
JP2002158863A (ja) * | 2000-11-22 | 2002-05-31 | Fuji Photo Film Co Ltd | 医用画像処理方法及び装置 |
US6880387B2 (en) * | 2001-08-22 | 2005-04-19 | Sonoscan, Inc. | Acoustic micro imaging method providing improved information derivation and visualization |
AU2002361572A1 (en) * | 2001-10-19 | 2003-04-28 | University Of North Carolina At Chape Hill | Methods and systems for dynamic virtual convergence and head mountable display |
DE50101677D1 (de) * | 2001-12-18 | 2004-04-15 | Brainlab Ag | Projektion von Patientenbilddaten aus Durchleuchtungs- bzw. Schichtbilderfassungsverfahren auf Videobilder |
DE10210650B4 (de) * | 2002-03-11 | 2005-04-28 | Siemens Ag | Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds und medizinische Untersuchungs- und/oder Behandlungseinrichtung |
DE60330858D1 (de) * | 2002-09-27 | 2010-02-25 | Olympus Corp | Ultraschallgerät |
JP4414682B2 (ja) * | 2003-06-06 | 2010-02-10 | オリンパス株式会社 | 超音波内視鏡装置 |
US7463823B2 (en) * | 2003-07-24 | 2008-12-09 | Brainlab Ag | Stereoscopic visualization device for patient image data and video images |
US7672705B2 (en) * | 2004-07-19 | 2010-03-02 | Resonant Medical, Inc. | Weighted surface-to-surface mapping |
US7729744B2 (en) * | 2004-07-20 | 2010-06-01 | Resonant Medical, Inc. | Verifying lesion characteristics using beam shapes |
US8000442B2 (en) * | 2004-07-20 | 2011-08-16 | Resonant Medical, Inc. | Calibrating imaging devices |
WO2006032134A2 (en) * | 2004-09-20 | 2006-03-30 | Resonant Medical Inc. | Radiotherapy treatment monitoring using ultrasound |
WO2006095221A2 (de) * | 2005-03-11 | 2006-09-14 | Philips Intellectual Property & Standards Gmbh | Bildgebendes verfahren |
DE102005019281A1 (de) * | 2005-04-03 | 2007-04-19 | Schreiber, Hans, Dr. Dr. | Elektronisch steuerbarer Endoskopbausatz |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US7756563B2 (en) * | 2005-05-23 | 2010-07-13 | The Penn State Research Foundation | Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy |
US8784336B2 (en) | 2005-08-24 | 2014-07-22 | C. R. Bard, Inc. | Stylet apparatuses and methods of manufacture |
EP1940515A4 (de) * | 2005-09-06 | 2010-05-26 | Resonant Medical Inc | System und verfahren zur vorbereitung eines patienten für eine radiotherapeutische behandlung |
DE102005045073B4 (de) * | 2005-09-21 | 2012-03-22 | Siemens Ag | Verfahren zum visuellen Unterstützen einer invasiven Untersuchung oder Behandlung des Herzens mit Hilfe eines invasiven Instruments |
US8929621B2 (en) * | 2005-12-20 | 2015-01-06 | Elekta, Ltd. | Methods and systems for segmentation and surface matching |
US8016749B2 (en) | 2006-03-21 | 2011-09-13 | Boston Scientific Scimed, Inc. | Vision catheter having electromechanical navigation |
JP2007275309A (ja) * | 2006-04-06 | 2007-10-25 | Olympus Medical Systems Corp | 医療システム |
US20080065106A1 (en) * | 2006-06-13 | 2008-03-13 | Intuitive Surgical, Inc. | Minimally invasive surgical apparatus with side exit instruments |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
CA2658510C (en) * | 2006-07-21 | 2013-01-15 | Orthosoft Inc. | Non-invasive tracking of bones for surgery |
US20110057930A1 (en) * | 2006-07-26 | 2011-03-10 | Inneroptic Technology Inc. | System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy |
WO2008017051A2 (en) | 2006-08-02 | 2008-02-07 | Inneroptic Technology Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
US9451928B2 (en) | 2006-09-13 | 2016-09-27 | Elekta Ltd. | Incorporating internal anatomy in clinical radiotherapy setups |
US7794407B2 (en) | 2006-10-23 | 2010-09-14 | Bard Access Systems, Inc. | Method of locating the tip of a central venous catheter |
US8388546B2 (en) | 2006-10-23 | 2013-03-05 | Bard Access Systems, Inc. | Method of locating the tip of a central venous catheter |
DE102007018809B4 (de) * | 2007-04-20 | 2015-04-02 | Siemens Aktiengesellschaft | Medizintechnische Anlage sowie zugehöriges Verfahren |
US8903546B2 (en) | 2009-08-15 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Smooth control of an articulated instrument across areas with different work space conditions |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
EP2175931B1 (de) | 2007-07-20 | 2016-09-07 | Elekta Ltd. | Systeme zur kompensation von veränderungen der anatomie von strahlentherapie-patienten |
WO2009012576A1 (en) | 2007-07-20 | 2009-01-29 | Resonant Medical Inc. | Methods and systems for guiding the acquisition of ultrasound images |
US8135198B2 (en) | 2007-08-08 | 2012-03-13 | Resonant Medical, Inc. | Systems and methods for constructing images |
US10524691B2 (en) | 2007-11-26 | 2020-01-07 | C. R. Bard, Inc. | Needle assembly including an aligned magnetic element |
US9649048B2 (en) | 2007-11-26 | 2017-05-16 | C. R. Bard, Inc. | Systems and methods for breaching a sterile field for intravascular placement of a catheter |
US9456766B2 (en) | 2007-11-26 | 2016-10-04 | C. R. Bard, Inc. | Apparatus for use with needle insertion guidance system |
US9521961B2 (en) | 2007-11-26 | 2016-12-20 | C. R. Bard, Inc. | Systems and methods for guiding a medical instrument |
WO2009070616A2 (en) | 2007-11-26 | 2009-06-04 | C. R. Bard, Inc. | Integrated system for intravascular placement of a catheter |
US8849382B2 (en) | 2007-11-26 | 2014-09-30 | C. R. Bard, Inc. | Apparatus and display methods relating to intravascular placement of a catheter |
US10751509B2 (en) | 2007-11-26 | 2020-08-25 | C. R. Bard, Inc. | Iconic representations for guidance of an indwelling medical device |
US10449330B2 (en) | 2007-11-26 | 2019-10-22 | C. R. Bard, Inc. | Magnetic element-equipped needle assemblies |
US8781555B2 (en) | 2007-11-26 | 2014-07-15 | C. R. Bard, Inc. | System for placement of a catheter including a signal-generating stylet |
WO2009094646A2 (en) * | 2008-01-24 | 2009-07-30 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for image guided ablation |
US8478382B2 (en) | 2008-02-11 | 2013-07-02 | C. R. Bard, Inc. | Systems and methods for positioning a catheter |
US8340379B2 (en) | 2008-03-07 | 2012-12-25 | Inneroptic Technology, Inc. | Systems and methods for displaying guidance data based on updated deformable imaging data |
US8189738B2 (en) | 2008-06-02 | 2012-05-29 | Elekta Ltd. | Methods and systems for guiding clinical radiotherapy setups |
US8267853B2 (en) * | 2008-06-23 | 2012-09-18 | Southwest Research Institute | System and method for overlaying ultrasound imagery on a laparoscopic camera display |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
US9901714B2 (en) | 2008-08-22 | 2018-02-27 | C. R. Bard, Inc. | Catheter assembly including ECG sensor and magnetic assemblies |
US8437833B2 (en) | 2008-10-07 | 2013-05-07 | Bard Access Systems, Inc. | Percutaneous magnetic gastrostomy |
US8690776B2 (en) | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
US8554307B2 (en) | 2010-04-12 | 2013-10-08 | Inneroptic Technology, Inc. | Image annotation in image-guided medical procedures |
US8641621B2 (en) | 2009-02-17 | 2014-02-04 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
US11464578B2 (en) | 2009-02-17 | 2022-10-11 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures |
ES2745861T3 (es) | 2009-06-12 | 2020-03-03 | Bard Access Systems Inc | Aparato, algoritmo de procesamiento de datos asistido por ordenador y medio de almacenamiento informático para posicionar un dispositivo endovascular en o cerca del corazón |
US9532724B2 (en) | 2009-06-12 | 2017-01-03 | Bard Access Systems, Inc. | Apparatus and method for catheter navigation using endovascular energy mapping |
US10542962B2 (en) | 2009-07-10 | 2020-01-28 | Elekta, LTD | Adaptive radiotherapy treatment using ultrasound |
WO2011014687A2 (en) * | 2009-07-31 | 2011-02-03 | Inneroptic Technology, Inc. | Dual-tube stereoscope |
EP2464407A4 (de) | 2009-08-10 | 2014-04-02 | Bard Access Systems Inc | Vorrichtungen und verfahren für endovaskuläre elektrographie |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
AU2010300677B2 (en) | 2009-09-29 | 2014-09-04 | C.R. Bard, Inc. | Stylets for use with apparatus for intravascular placement of a catheter |
US20110082351A1 (en) * | 2009-10-07 | 2011-04-07 | Inneroptic Technology, Inc. | Representing measurement information during a medical procedure |
WO2011044421A1 (en) | 2009-10-08 | 2011-04-14 | C. R. Bard, Inc. | Spacers for use with an ultrasound probe |
US9282947B2 (en) | 2009-12-01 | 2016-03-15 | Inneroptic Technology, Inc. | Imager focusing based on intraoperative data |
US20110172526A1 (en) | 2010-01-12 | 2011-07-14 | Martin Lachaine | Feature Tracking Using Ultrasound |
US9248316B2 (en) | 2010-01-12 | 2016-02-02 | Elekta Ltd. | Feature tracking using ultrasound |
BR112012019354B1 (pt) | 2010-02-02 | 2021-09-08 | C.R.Bard, Inc | Método para localização de um dispositivo médico implantável |
MX2012013672A (es) | 2010-05-28 | 2013-02-12 | Bard Inc C R | Aparato para utilizar con un sistema de guia de insercion de aguja. |
EP2603145A2 (de) | 2010-08-09 | 2013-06-19 | C.R. Bard, Inc. | Stütz- und abdeckungsstrukturen für einen ultraschallsondenkopf |
BR112013002431B1 (pt) | 2010-08-20 | 2021-06-29 | C.R. Bard, Inc | Sistema para a reconfirmação da posição de um cateter no interior de um paciente |
US8702592B2 (en) | 2010-09-30 | 2014-04-22 | David Allan Langlois | System and method for inhibiting injury to a patient during laparoscopic surgery |
US8801693B2 (en) | 2010-10-29 | 2014-08-12 | C. R. Bard, Inc. | Bioimpedance-assisted placement of a medical device |
US10874453B2 (en) * | 2011-03-23 | 2020-12-29 | Acessa Health Inc. | Merged image user interface and navigational tool for remote control of surgical devices |
WO2013006817A1 (en) | 2011-07-06 | 2013-01-10 | C.R. Bard, Inc. | Needle length determination and calibration for insertion guidance system |
USD724745S1 (en) | 2011-08-09 | 2015-03-17 | C. R. Bard, Inc. | Cap for an ultrasound probe |
USD699359S1 (en) | 2011-08-09 | 2014-02-11 | C. R. Bard, Inc. | Ultrasound probe head |
US20130041266A1 (en) * | 2011-08-12 | 2013-02-14 | Tyco Healthcare Group Lp, | System and Method for Indicating Positioning of an Internal Anatomical Feature |
KR101307944B1 (ko) * | 2011-10-26 | 2013-09-12 | 주식회사 고영테크놀러지 | 수술영상의 정합 방법 |
US9211107B2 (en) | 2011-11-07 | 2015-12-15 | C. R. Bard, Inc. | Ruggedized ultrasound hydrogel insert |
KR101495083B1 (ko) * | 2011-12-28 | 2015-02-24 | 삼성메디슨 주식회사 | 바디마커 제공 방법 및 그를 위한 초음파 진단 장치 |
US8670816B2 (en) | 2012-01-30 | 2014-03-11 | Inneroptic Technology, Inc. | Multiple medical device guidance |
WO2013188833A2 (en) | 2012-06-15 | 2013-12-19 | C.R. Bard, Inc. | Apparatus and methods for detection of a removable cap on an ultrasound probe |
US11517189B2 (en) | 2012-06-28 | 2022-12-06 | Lavie Golenberg | Portable endoscope with interference free transmission |
BR112014032112A2 (pt) * | 2012-06-28 | 2017-06-27 | Koninklijke Philips Nv | sistema de aquisição de imagem; e método para aquisição de imagem multimodal |
US20150297062A1 (en) * | 2012-06-28 | 2015-10-22 | GOLENBERG Lavie | Integrated endoscope |
US10409951B2 (en) * | 2012-12-28 | 2019-09-10 | Volcano Corporation | Multi-modality case management system and method |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
US10314559B2 (en) | 2013-03-14 | 2019-06-11 | Inneroptic Technology, Inc. | Medical device guidance |
US20140275994A1 (en) * | 2013-03-15 | 2014-09-18 | Covidien Lp | Real time image guidance system |
CN105188592B (zh) | 2013-03-15 | 2018-07-27 | Sri国际公司 | 超灵巧型手术系统 |
CN104574329B (zh) * | 2013-10-09 | 2018-03-09 | 深圳迈瑞生物医疗电子股份有限公司 | 超声融合成像方法、超声融合成像导航系统 |
ES2811323T3 (es) | 2014-02-06 | 2021-03-11 | Bard Inc C R | Sistemas para el guiado y la colocación de un dispositivo intravascular |
US20160073087A1 (en) * | 2014-09-10 | 2016-03-10 | Lenovo (Singapore) Pte. Ltd. | Augmenting a digital image with distance data derived based on acoustic range information |
US9901406B2 (en) | 2014-10-02 | 2018-02-27 | Inneroptic Technology, Inc. | Affected region display associated with a medical device |
US10188467B2 (en) | 2014-12-12 | 2019-01-29 | Inneroptic Technology, Inc. | Surgical guidance intersection display |
US10973584B2 (en) | 2015-01-19 | 2021-04-13 | Bard Access Systems, Inc. | Device and method for vascular access |
US10349890B2 (en) | 2015-06-26 | 2019-07-16 | C. R. Bard, Inc. | Connector interface for ECG-based catheter positioning system |
US9949700B2 (en) | 2015-07-22 | 2018-04-24 | Inneroptic Technology, Inc. | Medical device approaches |
JP6615603B2 (ja) * | 2015-12-24 | 2019-12-04 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置および医用画像診断プログラム |
US11000207B2 (en) | 2016-01-29 | 2021-05-11 | C. R. Bard, Inc. | Multiple coil system for tracking a medical device |
US9675319B1 (en) | 2016-02-17 | 2017-06-13 | Inneroptic Technology, Inc. | Loupe display |
WO2017157970A1 (en) * | 2016-03-16 | 2017-09-21 | Koninklijke Philips N.V. | Calculation device for superimposing a laparoscopic image and an ultrasound image |
AU2017290128B2 (en) * | 2016-06-29 | 2022-08-11 | Vision Quest Industries Incorporated Dba Vq Orthocare | Measurement and ordering system for orthotic devices |
US10278778B2 (en) | 2016-10-27 | 2019-05-07 | Inneroptic Technology, Inc. | Medical device navigation using a virtual 3D space |
JP6847218B2 (ja) | 2016-11-28 | 2021-03-24 | バーブ サージカル インコーポレイテッドVerb Surgical Inc. | 望ましくない振動を低減するためのロボット外科用システム |
WO2018185729A1 (en) | 2017-04-07 | 2018-10-11 | Orthosoft Inc. | Non-invasive system and method for tracking bones |
US10792119B2 (en) | 2017-05-22 | 2020-10-06 | Ethicon Llc | Robotic arm cart and uses therefor |
US10856948B2 (en) | 2017-05-31 | 2020-12-08 | Verb Surgical Inc. | Cart for robotic arms and method and apparatus for registering cart to surgical table |
US10485623B2 (en) | 2017-06-01 | 2019-11-26 | Verb Surgical Inc. | Robotic arm cart with fine position adjustment features and uses therefor |
US10913145B2 (en) | 2017-06-20 | 2021-02-09 | Verb Surgical Inc. | Cart for robotic arms and method and apparatus for cartridge or magazine loading of arms |
US11259879B2 (en) | 2017-08-01 | 2022-03-01 | Inneroptic Technology, Inc. | Selective transparency to assist medical device navigation |
US11484365B2 (en) | 2018-01-23 | 2022-11-01 | Inneroptic Technology, Inc. | Medical image guidance |
US11684426B2 (en) | 2018-08-31 | 2023-06-27 | Orthosoft Ulc | System and method for tracking bones |
WO2020081373A1 (en) | 2018-10-16 | 2020-04-23 | Bard Access Systems, Inc. | Safety-equipped connection systems and methods thereof for establishing electrical connections |
DE102019203192A1 (de) * | 2019-03-08 | 2020-09-10 | Siemens Healthcare Gmbh | Erzeugung eines digitalen Zwillings für medizinische Untersuchungen |
CN113657224B (zh) * | 2019-04-29 | 2023-08-18 | 北京百度网讯科技有限公司 | 车路协同中用于确定对象状态的方法、装置、设备 |
US11721014B2 (en) | 2019-11-15 | 2023-08-08 | GE Precision Healthcare LLC | Methods and systems for a field-of-view preview |
DE102021118427A1 (de) * | 2021-07-16 | 2023-01-19 | Schölly Fiberoptic GmbH | Bildaufnahmevorrichtung für verbesserte Bildgebung bei schwacher Lichtintensität sowie zugehöriges Bildaufnahmeverfahren |
CN114071030A (zh) * | 2021-12-14 | 2022-02-18 | 杭州友勤信息技术有限公司 | 一种内窥镜的双路联合系统 |
US20240173016A1 (en) * | 2022-11-29 | 2024-05-30 | Biosense Webster (Israel) Ltd. | Assessment of tissue ablation using intracardiac ultrasound catheter |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4021102A1 (de) * | 1989-07-14 | 1991-01-17 | Siemens Ag | Medinzinische diagnostikanlage |
DE19800765A1 (de) * | 1998-01-12 | 1999-04-08 | Siemens Ag | Verfahren zur Erzeugung von Bilddarstellungen sowie System hierfür |
DE19746092A1 (de) * | 1997-10-17 | 1999-05-06 | Siemens Ag | Röntgenaufnahmeeinrichtung zur 3D-Bildgebung |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5776050A (en) * | 1995-07-24 | 1998-07-07 | Medical Media Systems | Anatomical visualization system |
US5912720A (en) * | 1997-02-13 | 1999-06-15 | The Trustees Of The University Of Pennsylvania | Technique for creating an ophthalmic augmented reality environment |
-
2000
- 2000-03-30 DE DE10015826A patent/DE10015826A1/de not_active Ceased
-
2001
- 2001-03-30 US US09/822,616 patent/US6768496B2/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4021102A1 (de) * | 1989-07-14 | 1991-01-17 | Siemens Ag | Medinzinische diagnostikanlage |
DE19746092A1 (de) * | 1997-10-17 | 1999-05-06 | Siemens Ag | Röntgenaufnahmeeinrichtung zur 3D-Bildgebung |
DE19800765A1 (de) * | 1998-01-12 | 1999-04-08 | Siemens Ag | Verfahren zur Erzeugung von Bilddarstellungen sowie System hierfür |
Non-Patent Citations (1)
Title |
---|
Iwainsky, A., Wilhelmi, W. Lexikon der Computer- grafik und Bildverarbeitung. Vieweg Verlagsgesell-schaft, 1994, S. 30-32 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10323322A1 (de) * | 2003-05-23 | 2004-12-16 | Volkswagen Ag | Verfahren und Einrichtung zur Abbildung eines gemischten Bildes |
DE102004011158A1 (de) * | 2004-03-08 | 2005-10-13 | Siemens Ag | Verfahren zur Registrierung einer Folge von 2D-Schnittbildern eines Hohlkanals mit einer 2D-Röngtenaufnahme |
DE102004011158B4 (de) * | 2004-03-08 | 2007-09-13 | Siemens Ag | Verfahren zur Registrierung einer Folge von 2D-Schnittbildern eines Hohlraumorgans mit einer 2D-Röngtenaufnahme |
US11259870B2 (en) | 2005-06-06 | 2022-03-01 | Intuitive Surgical Operations, Inc. | Interactive user interfaces for minimally invasive telesurgical systems |
US12108998B2 (en) | 2005-06-06 | 2024-10-08 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US11717365B2 (en) | 2005-06-06 | 2023-08-08 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US11399909B2 (en) | 2005-06-06 | 2022-08-02 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
EP3679882A1 (de) * | 2005-06-06 | 2020-07-15 | Intuitive Surgical Operations, Inc. | Laparoskopisches robotisches chirurgisches ultraschallsystem |
EP2289454A3 (de) * | 2005-06-06 | 2015-12-30 | Intuitive Surgical Operations, Inc. | Laparoskopisches Ultraschall-Robotersystem für chirurgische Zwecke |
DE102005059261B4 (de) * | 2005-12-12 | 2013-09-05 | Siemens Aktiengesellschaft | Kathetervorrichtung zur Behandlung eines teilweisen und/oder vollständigen Gefässverschlusses und Röntgeneinrichtung |
DE102007023029A1 (de) * | 2007-05-16 | 2008-11-20 | Siemens Ag | Vorrichtung und Verfahren zur Erzeugung eines Summenbildes aus ersten und zweiten Bilddaten |
NL2001680C2 (nl) * | 2007-06-28 | 2010-06-09 | Siemens Ag | Beeldgevende werkwijze voor de medische diagnostiek en volgens deze werkwijze werkende inrichting. |
DE102007029888B4 (de) * | 2007-06-28 | 2016-04-07 | Siemens Aktiengesellschaft | Bildgebendes Verfahren für die medizinische Diagnostik und nach diesem Verfahren arbeitende Einrichtung |
US10706610B2 (en) | 2011-06-28 | 2020-07-07 | Scopis Gmbh | Method for displaying an object |
US9792721B2 (en) | 2011-06-28 | 2017-10-17 | Scopis Gmbh | Method and device for displaying an object |
WO2013001031A3 (de) * | 2011-06-28 | 2013-03-21 | Scopis Gmbh | Verfahren und vorrichtung zum darstellen eines objektes |
DE102011083853B4 (de) | 2011-09-30 | 2019-01-17 | Siemens Healthcare Gmbh | Fusionierte SPECT/C-Bogen-Bildgebung |
DE102011083853A1 (de) * | 2011-09-30 | 2013-04-04 | Siemens Aktiengesellschaft | Fusionierte SPECT/C-Bogen-Bildgebung |
EP2867855A1 (de) * | 2012-06-29 | 2015-05-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Mobil handhabbare vorrichtung zur bearbeitung oder beobachtung eines körpers |
DE102012220116A1 (de) * | 2012-06-29 | 2014-01-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Mobil handhabbare Vorrichtung, insbesondere zur Bearbeitung oder Beobachtung eines Körpers, und Verfahren zur Handhabung, insbesondere Kalibrierung, einer Vorrichtung |
US10292683B2 (en) | 2013-07-05 | 2019-05-21 | Siemens Aktiengesellschaft | Method and device for recording an ultrasound image of a deformed object, in particular the human breast |
DE102013213215A1 (de) * | 2013-07-05 | 2015-01-08 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Ultraschallaufnahme eines deformierten Objektes, insbesondere der menschlichen Brust |
WO2017106980A1 (de) * | 2015-12-22 | 2017-06-29 | Spinemind Ag | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich |
EP3184071A1 (de) * | 2015-12-22 | 2017-06-28 | SpineMind AG | Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich |
US11426241B2 (en) | 2015-12-22 | 2022-08-30 | Spinemind Ag | Device for intraoperative image-controlled navigation during surgical procedures in the region of the spinal column and in the adjacent regions of the thorax, pelvis or head |
Also Published As
Publication number | Publication date |
---|---|
US20010035871A1 (en) | 2001-11-01 |
US6768496B2 (en) | 2004-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10015826A1 (de) | System und Verfahren zur Erzeugung eines Bildes | |
DE102005030646B4 (de) | Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern | |
EP2236104B1 (de) | Medizintechnische Navigations-Bildausgabe mit virtuellen Primärbildern und realen Sekundärbildern | |
DE102009040430B4 (de) | Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets | |
DE10136709B4 (de) | Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten | |
DE19963440C2 (de) | Verfahren und System zur Visualisierung eines Gegenstandes | |
DE69819289T2 (de) | Bildgeführtes chirurgisches system | |
EP0652726B1 (de) | Verfahren zur darstellung des inneren von körpern | |
DE10333543A1 (de) | Verfahren zur gekoppelten Darstellung intraoperativer sowie interaktiv und iteraktiv re-registrierter präoperativer Bilder in der medizinischen Bildgebung | |
DE102005023194A1 (de) | Verfahren zur Erweiterung des Darstellungsbereiches von 2D-Bildaufnahmen eines Objektbereiches | |
DE102005059209B4 (de) | Verfahren und Vorrichtung zur Visualisierung einer Folge von tomographischen Bilddatensätzen | |
DE10210650A1 (de) | Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds | |
DE19846687C2 (de) | Chirurgische Hilfsvorrichtung zur Verwendung beim Ausführen von medizinischen Eingriffen und Verfahren zum Erzeugen eines Bildes im Rahmen von medizinischen Eingriffen | |
DE10210647A1 (de) | Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments | |
DE102009025077A1 (de) | System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper | |
DE10202091A1 (de) | Vorrichtung und Verfahren zur Ermittlung einer Koordinatentransformation | |
DE10325003A1 (de) | Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie | |
DE102004004620A1 (de) | Verfahren zur Registrierung und Überlagerung von Bilddaten bei Serienaufnahmen in der medizinischen Bildgebung | |
DE102005023195A1 (de) | Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches | |
DE102006060421B4 (de) | Medizinisches System zur bildgestützten Diagnose oder Therapie des Körpers eines Patienten sowie von dem System durchgeführtes Verfahren | |
EP3598948B1 (de) | Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher | |
DE102005041602A1 (de) | Verfahren zur Darstellung eines medizinischen Implantats in einem Bild sowie medizinisches bildgebendes System | |
DE69519623T2 (de) | Operations-mikroskope | |
WO2014170194A1 (de) | Verfahren und vorrichtung zur stereoskopischen darstellung von bilddaten | |
DE19951503B4 (de) | Medizinisches System mit einem Bildgebungs- und einem Navigationssystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |