WO2010097315A1 - Navigation endoskopischer vorrichtungen mittels eye-tracker - Google Patents
Navigation endoskopischer vorrichtungen mittels eye-tracker Download PDFInfo
- Publication number
- WO2010097315A1 WO2010097315A1 PCT/EP2010/051945 EP2010051945W WO2010097315A1 WO 2010097315 A1 WO2010097315 A1 WO 2010097315A1 EP 2010051945 W EP2010051945 W EP 2010051945W WO 2010097315 A1 WO2010097315 A1 WO 2010097315A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- eye
- tracking
- image
- control
- instrument
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000004424 eye movement Effects 0.000 claims abstract description 13
- 238000003384 imaging method Methods 0.000 claims abstract description 12
- 239000000463 material Substances 0.000 claims description 5
- 238000002604 ultrasonography Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000002591 computed tomography Methods 0.000 claims description 3
- 238000002601 radiography Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 208000037062 Polyps Diseases 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000001839 endoscopy Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000009659 non-destructive testing Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 238000002052 colonoscopy Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 210000003709 heart valve Anatomy 0.000 description 2
- 239000012216 imaging agent Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002262 irrigation Effects 0.000 description 2
- 238000003973 irrigation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000002679 ablation Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004873 anchoring Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000000968 intestinal effect Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000002429 large intestine Anatomy 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 238000012978 minimally invasive surgical procedure Methods 0.000 description 1
- 206010029864 nystagmus Diseases 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/00042—Operational features of endoscopes provided with input arrangements for the user for mechanical operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
Definitions
- the invention relates to the control of image acquisition as well as the control and navigation of devices for the performance of observations and interventions in cavities, channels and ducts in the interior of a body or object.
- the invention relates to a method for image acquisition in an image-monitored endoscopic device or an endoscopic device comprising instrument for examination and manipulation purposes, in which the working area of the endoscopic device or instrument observed through an optical system and displayed by a display means and the position and action of the endoscopic apparatus are monitored by the display means, wherein the endoscopic apparatus is supported and moved by a motor-driven device depending on the image representation on the display means, the respective position and intended action.
- a stereo laparascope for minimally invasive surgery is moved by means of a robot.
- the robot drive is controlled by a monitor-monitored surgical instrument located in the operating area, which is color-coded to determine its position.
- the surgical kit is always displayed in the central area of the monitoring monitor. This representation is based on the assumption that the color-coded tip of the monitor-monitored surgical instrument also corresponds to the central region of the desired image representation.
- the section of the image representation is thus defined via the centered representation of a color marking by means of a biocular optics.
- a control system with an image generator and eye detection processing is known, by means of which a device, e.g. a light source, on or off or can be switched.
- the control system may also be used, for example, to switch the polarization of a window.
- DE 199 83 513 B4 relates to a method for selecting a moving graphic object displayed on a screen of a computer in which the eye movements of the user are monitored and compared with the object movement.
- the computer determines the function that the user wants to perform and then runs it. It can work to provide screen-driven computing or disability applications to provide access to computer resources with little or no use of hands. Other applications include the control and operation of aircraft and ground vehicles, for example, aircraft visual displays, monitoring centers, simulators and entertainment systems.
- WO 2008/066460 A1 discloses a controller with an image capture device and a processing unit connected thereto. This provides an eye position signal for controlling a light source.
- WO 2007/050029 A2 of the same Applicant deals with the eye-tracking-controlled interaction with a computer, in which commands are entered via a graphic data manipulation field on the computer monitor by means of eye-tracking and further processed in the computer. In this way, a cursor can be moved or data entry performed, e.g. Text written or edited.
- non-destructive testing and non-destructive testing are performed using rigid and flexible endoscopes as well as additional probes various test methods from engine and turbine technology, aerospace, quality assurance, construction and construction known.
- the user i. the operator of the endoscope observes the image obtained with an image-capturing endoscope, which is reproduced on a monitor, wherein the endoscope is stabilized and tracked either by the user himself, by a camera assistant, a holding system or a surgical robot or comparable.
- the monitor can be positioned in the vicinity of the examination area or set up using data transmission far away from the event.
- Assistants assist the user by performing part or additional functions in the endoscope guidance or by manipulating additional manipulators to perform complex tasks and applications. This often happens purely manually, e.g. by an assistant.
- the assistants work on request or independently. Fatigue, concentration or communication problems can significantly hinder the interaction of users with corresponding disruptions of the action process.
- the invention thus relates to a method for the spatial control and navigation of a device for carrying out observations and interventions in cavities, channels and bushings in the interior of a body or object, in particular an endoscopic device or an instrument comprising an endoscopic device.
- the device is equipped with imaging means or its position detectable by using imaging means.
- a display means is provided.
- the device is moved depending on the presentation of observation images on the display means, the respective position and intended action.
- the eye movements of the operator observing the image on the display means are detected by the eye-tracking method and used to control the device and its function.
- the inventive method thus serves to control the image guidance and a particular endoscopic instrument by the user himself. That is, the user viewed by means of image converter chain the presentation and work area or an object that are displayed on a display of a particularly endoscopically generated image.
- the eye movements of the user are automatically tracked by eye tracking when viewing this image and the user can use eye-tracking control to direct image display and device navigation to the targets of interest.
- a display means for example, a monitor or a projection device can be provided.
- a 3D representation can be selected.
- the imaging agents are different depending on the respective field of application. They may be based on x-rays, particle beams, radiography, computed tomography, magnetic resonance, ultrasound, visible light, and infrared rays, as well as other methods of imaging. In many cases endoscopically operating devices are used, which work with optical means. However, the invention is limited to such devices and applications, in particular not to the use of endoscopes and endoscopic devices, but also relates, as stated, equipped with such devices instruments. Instead of endoscopic devices and other viewing devices and instruments can be used, in the end, the imaging agents are selected depending on the purpose and location.
- insertion and anchoring of the heart valve can be performed minimally invasive, radiologically inverventionally under X-ray imager control.
- the use of ultrasound probes as a viewing device may be preferable.
- the devices and instruments are controlled by means of eye tracking.
- a camera is expediently used for image acquisition and moved via eye tracking and / or its settings are controlled via eye tracking.
- the camera lens is located in the flexible endoscope tip.
- the image recording can also be done by light guide and arranged after this camera, CCD chip, etc. These too should be included in the term "camera”.
- controlled eye movement tracked ie advanced, withdrawn and possibly also pivoted to the side.
- the image recording is centered on the eye movement, ie, the main visual axis is directed to the work area or the object of interest and this is shown centered in the reproduced image.
- the endoscope with the imaging video camera is tracked according to the eye movements of the user until the targeted object is again in the center of the recorded and reproduced image and directed to the object of interest eyes of the user or the visual axis back to the center of the monitor image are directed.
- the observer can be spatially far away from the object under consideration. It is possible with the use of endoscopy or, as mentioned, with appropriately equipped instruments, cavities, channels, surfaces, etc., if necessary, to be considered from afar or perform in and on these interventions.
- the invention makes it possible to control additional instruments in complex interventions. Activities can be carried out on the objects under consideration or materials and objects can be introduced or local things manipulated or changed. These include, but are not limited to, catheters, stents, probes, especially tubes and other tubing such as respiratory tubes, valve systems, clip closures, and other examination and treatment materials.
- the use according to the invention of the eye tracking and the imaging means for control and navigation makes it possible to operate the device or device introduced into the cavity or, for example, the channel
- the object simplifies or makes it possible to attract an external expert to this who is located in a different location.
- the object image may be reproduced on a defined area of the display means, which is not located centrally but off-center in the displayed observation image, so that in this case the imaging center and the viewing axis are separated.
- the object is then detected eccentrically in the image recording and correspondingly displayed eccentrically on the display means.
- applicators located in the image pickup area can be picked up, in the center of the display, i. on the image displayed on the display means, and thereby the applicators are well observed and / or handled.
- the camera is controlled, but also one or more applicators of the endoscopic device, for example, are controlled and held by means of the eye movements.
- the eye-tracking control is switched from the control of the image (image acquisition and tracking) to any other means, e.g. for instrument tracking, for operating the endoscopic instrument, for example, on an applicator (for example, a forceps), in which case the other device or instrument is controlled and operated by the eye tracking.
- the endoscope itself is first positioned under eye tracking and then fixed. The control is switched to the working tool and then positioned by eye-tracking and the instrument in question is operated.
- Switching occurs, for example, when the intended position of the endoscopic instrument is reached, ie when the object of interest is reproduced as required on the display means. Subsequently, the position of the endoscopy see Instruments and the display of the workspace concerned are frozen. Eye tracking can then be used to control an instrument in the image area. This is useful, for example, in colonoscopy, in which the base of a discovered polyp is displayed eccentrically while the intestinal lumen remains aligned with the monitor center. It can then be switched to the operation of an additional instrument and this be operated by eye tracking.
- a discovered polyp can be removed on this occasion either by moving the endoscope tip to the wall of the intestine or by bending the relevant working channel and by putting the endoscope loop over the polyp via eye tracking.
- the instrument no longer guided / controlled by the eye-tracking is fixed in its position as if it were held securely by an assistant.
- the user has the possibility to independently control both the endoscope / image guidance and individual actuators.
- the eye-tracking system must be activated again for the image display and the camera or observation optics, as explained above, to be moved. Since for each frozen positions, during this state, the eye-tracking system is unused, it is possible to use the system to control different instruments in succession alternatively.
- the camera necessary for detecting the eye movements or the visual axis of the eyes can be placed, for example, on a headset, on the monitor or at a location suitable for detecting eye movements.
- the image-acquiring endo- Skop or other viewing device projects a guide mark that marks the center of the image-taking optics and thus the recorded image. Eye tracking is focused on this one guide mark, which is normally displayed in the center of the image display on the display means.
- a guide mark a light spot or light beam can be used, for example, by a laser pointer, which lies in the focus axis of the video lens.
- the laser beam can also be used at the same time for measuring the distance - for example with an optical distance measuring system - between the optical system and the observation object / instrument or the area considered and thus for three-dimensional navigation. By eye-tracking the marking and thus the camera or the image area can be moved.
- the eye tracking control signal is processed with adjustable inertia. This makes it possible to compensate for the control signal adverse effects such as the eye flicker (nystagmus).
- the autofocus device, the magnification setting and / or the distance measurement of the tip of the device to the observed object are selected and / or switched on by means of eye tracking.
- the command input for a to be controlled by eye tracking device, instrument or additional instrument in particular the selection of an instrument, switching to the instrument or switching the instrument setting, voice-controlled or by operating means, in particular joystick, keys, Whypad, performed.
- the image-receiving optical system controlled by eye-tracking, can be positioned via corresponding holding and guiding units. Via additional functions it can be defined, that the user's view captures the viewing point / "region of interest" in the center of the image area and thus is positioned in the middle of the monitor. Alternatively, the location of interest may be outside of the center of the image, ie, it remains eccentric on the generated image.
- the eccentric image acquisition is useful when the user is to be controlled by means of an eye-tracking device in the image area. The control and positioning of the working medium in relation to the object eccentric in the image can thus be facilitated.
- the endoscope or each first instrument is fixed in position.
- the selected instrument can be any tool that is located in the image area of the endoscope and needs to be positioned / manipulated. It may also be additional examination instruments or else materials or objects that are visualized via endoscopes and controlled by eye tracking in (body) cavities, vessels, or hollow organs temporarily or permanently introduced by the user controlled, or in the Range of technical endoscopy to include examination and manipulation techniques in the sense of non-destructive testing.
- the user can use eye-tracking to directly control procedures that were previously performed by assistants. In case of teamwork possible communication disturbances can be avoided and no or less assistant personnel is necessary.
- FIG. 1 is a schematic view of a structure for an endoscopic testing and manipulation using the method according to the invention
- Fig. 2 is a partial schematic representation of the distal end of a flexible endoscope
- Fig. 3 is a schematic representation of the control body of the flexible endoscope.
- FIG. 1 shows an endoscope workstation.
- a user 2 is in an examination room 4 in which an object 6 to be examined is located.
- An endoscope 8 equipped with various devices and a working instrument 10, which is shown tightly on the object to be examined, are in working position on a working area and are attached to a holding and positioning device 12, 14, which are movable in the direction of arrows 16.
- the tip of the endoscope 8 shows two channels 82, 84.
- the channel 82 contains an unillustrated video cable and lens with autofocus function for image acquisition.
- In the channel 84 are optical fibers for the illumination of the operating area 20 and also marking devices.
- An unillustrated, for example, projected, guide mark is located on the object under investigation (object).
- the endoscope 8 further comprises two working channels 122, 124 and a jet nozzle 126.
- At the control body of the flexible endoscope shown in Fig. 3 are the actuators or connections for its operation and control.
- the eye-tracking drive 140, 142 is located at the manipulation end of the control body and includes a right / left and up / down unit.
- a push button 144 is provided for switching between manual control and eye-tracking control.
- Function keys 146, 148 are provided for aspiration / irrigation / insufflation.
- levers 150, 152 By means of levers 150, 152, the control can be performed manually up / down and right / left.
- With 154 and 156 are designated ports to working channels.
- the holding and positioning device 12, 14 and its drive is connected to a controller 30 via control lines 32, 34 for the guidance and positioning of the endoscope 8 and its operation.
- the endoscope 8 is connected via a control line 38 to a control electronics 36.
- a cold light source 40 is connected via light guide 42 to the endoscope 8 or its illumination channel 84.
- the user 2 looks at a monitor 18 suspended above the operating table in the embodiment shown as a display.
- This shows a video image of the operating area 20 which is supplied by the endoscope 8 via an image converter chain 86.
- an audio input 46 and an input field 48 are provided at the control center, which also contains the further control units 30, 36, 40, 72.
- the movements of the endoscope 8 are usually not controlled manually but by means of eye tracking and performed.
- the user 2 observes the illustrated range 20 on the monitor 18 (arrow 70) and the video camera 64 observes the eye movements, wherein the evaluation is carried out in a connected via a control line 71 computer of the eye-tracking control 72, whose output control signals to the controller 30 of the holding and positioning 12, 14 are given.
- This structure allows the user 2, at least for relatively simple manipulations to work without assistant personnel. For complex interventions involving e.g. It is no longer necessary to use 3 to 4 assistants to operate the various instruments whose activities must be precisely coordinated with each other and the user. Rather, when the target is reached, for example, the user can use two control wheels to move the endoscope tip (a flexible endoscope) and adjust the image, while assistants advance, retract, open and close examination tools, biopsy forceps, scissors, etc. with working channels Coordination problems of multiple people working on the same object.
- endoscope tip a flexible endoscope
- the various operational steps of the user can be carried out successively using the eye-tracking control, while the positions of the instruments and views that are just not needed are frozen.
- the main image is frozen and the eye tracking is controlled by another function such as advancement or movement of the ablation loop around the polyp stalk with the eyes.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Endoscopes (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Position Input By Displaying (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Steuerung der Bildaufnahme und räumlichen Steuerung bei einem durch Bildgebung überwachten Gerät (8), insbesondere endoskopischen Instrument, für Untersuchungs- und Manipulationszwecke, bei dem mittels eines den über eine Optik beobachteten Arbeitsbereich (20) anzeigenden Anzeigemittels (18) der Arbeitsbereich (20) sowie die Position und Aktion des Geräts (8) überwacht werden. Das Gerät (8) wird abhängig von der Anzeige, der jeweiligen Position und vorgesehenen Aktion von einer motorisch angetriebenen Einrichtung gehaltert und bewegt. Die Augenbewegungen der Bedienungsperson (2) bzw. die Blickachse bei Beobachtung der Anzeige wird nach der Eye-Tracking-Methode erfasst und zur Steuerung der Bildaufnahme und -nachführung sowie der Anzeige verwendet.
Description
NAVIGATION ENDOSKOPISCHER VORRICHTUNGEN MITTELS EYE-TRACKER
Die Erfindung betrifft die Steuerung der Bildaufnahme sowie die Steuerung und Navigation von Geräten für die Durchführung von Beobachtungen und Eingriffen in Hohlräumen, Kanälen und Durchführungen im Inneren eines Körpers oder Gegenstands. Insbesondere betrifft die Erfindung ein Verfahren zur Bildaufnahme bei einem mittels Bildübertragung überwachten endoskopischen Gerät oder einem ein endoskopisches Gerät umfassenden Instrument für Untersuchungs- und Manipulationszwecke, bei dem der Arbeitsbereich des endoskopischen Geräts oder Instruments über eine Optik beobachtet und von einem Anzeigemittel angezeigt wird und die Position und Aktion des endoskopischen Geräts über das Anzeigemittel überwacht werden, wobei das endoskopische Gerät abhängig von der Bilddarstellung auf dem Anzeigemittel, der jeweiligen Position und vorgesehenen Aktion von einer motorisch angetriebenen Einrichtung gehaltert und bewegt wird.
Bei einem solchen, in der DE 195 29 950 Cl beschriebenen Verfahren wird ein Stereo-Laparaskop für die minimal -invasive Chirurgie mittels eines Roboters bewegt. Der Roboterantrieb wird über ein im Operationsbereich befindliches monitorüberwachtes Operationsbesteck gesteuert, das zu seiner Lagebestimmung farblich markiert ist. Das Operationsbesteck wird stets im Zentralbereich des Überwachungsmonitors angezeigt. Diese Darstellungsweise beruht auf der Annahme, dass die farblich markierte Spitze des monitorüberwachten Operationsbestecks auch dem Zentralbereich der gewünschten Bilddarstellung entspricht. Der Ausschnitt der Bilddarstellung wird so über die zentrierte Darstellung einer Farbmarkierung mittels einer biokularen Optik definiert.
Aus der DE 10 2004 063 566 Al ist ein Steuerungssystem mit einem Bilderzeuger und einer Augenerfassungsverarbeitung bekannt, mittels dessen eine Vorrichtung, z.B. eine Lichtquelle, ein- oder ausgeschaltet oder umgeschaltet werden kann. Das Steuerungssystem kann auch beispielsweise zum Umschalten der Polarisierung eines Fensters benutzt werden.
In der DE 197 31 301 Al wird eine Mikroskopsteuerung für den Einsatz bei Augenoperationen beschrieben, bei der eine Blickrichtungsanalyse des Mikroskopbenutzers für die Ansteuerung von Geräten benutzt wird. In einem Okulartubus werden in einer Zwischenbildebene Blickpositionsdaten des Betrachters auf das Arbeitsfeld gewonnen und in einem Prozessor kalibriert, wobei die Mikroskopvergrößerung und die Größe des Arbeitsfels umgerechnet werden. Die resultierenden Daten werden an eine Steuereinheit übertragen.
Die DE 199 83 513 B4 betrifft ein Verfahren für das Auswählen eines auf einem Bildschirm eines Computers dargestellten, sich bewegenden grafischen Objektes, bei dem die Augenbewegungen des Benutzers überwacht und mit der Objektbewegung verglichen werden. Der Computer bestimmt die Funktion, die der Benutzer ausführen möchte, und führt sie dann aus. Es kann sich dabei
um bildschirmgesteuerte Rechenanwendungen oder um Anwendungen für Personen mit Behinderungen handeln, um diesen ohne oder mit minimalem Einsatz der Hände Zugang zu Computerresourcen zu verschaffen. Weitere Anwendungen sind die Steuerung und Bedienung von Luft- und Bodenfahrzeugen, z.B. von Sichtanzeigen in Flugzeugen, ferner in ÜberwachungsZentren und auch in Simulatoren und Unterhaltungssystemen.
Die WO 2008/066460 Al offenbart eine Steuerung mit einer Bilderfassungseinrichtung und einer an diese angeschlossenen Verarbeitungseinheit. Diese liefert ein Augenpositionssignal zur Steuerung einer Lichtquelle. Die WO 2007/050029 A2 derselben Anmelderin befasst sich mit der durch Eye-Tracking gesteuerten Interaktion mit einem Computer, bei der über ein grafisches Datenmanipulationsfeld auf dem Computermonitor mittels Eye- Tracking Befehle eingegeben werden und im Computer weiterverarbeitet werden. Auf diese Weise kann ein Cursor bewegt oder Dateneingabe durchgeführt werden, z.B. Text geschrieben oder bearbeitet werden.
Im Bereich der Medizin und der Technik sind Anwendungen üblich, in denen Objekte mittels flexibler und starrer Endoskope gespiegelt werden. Neben der direkten Sicht wird über innenliegende Arbeitskanäle oder zusätzliche, vom Endoskop unabhängige, eingebrachte Arbeitsaktuatoren eine weitergehende Untersuchung oder Manipulation der zu untersuchenden Region erfolgen. Es befinden sich flexible, durch Bowdenzüge gelenkte Endoskope im Einsatz, die ein Bild des Arbeitsbereichs bzw. Untersuchungsobjekts liefern. Fig. 2 zeigt beispielhaft das distale Ende eines Videoendoskops 120 mit abwinkelbarem Arbeits- kanälen 122, 124, Video-Optik und Objektiv 82, Lichtleitern 84 für die Beleuchtung, Düsen 126, 128 zur Insufflation und Spülung oder Objektivreinigung.
Im Bereich der Technik sind zerstörungsfreie Inspektion und Messung (Non-destructive Testing) mittels starrer und flexibler Endoskope sowie auch durch zusätzlich eingebrachte Sonden
unterschiedlichster Testverfahren aus der Motoren- und Turbinentechnik, Luft- und Raumfahrt, Qualitätssicherung, Baugewerbe und Konstruktion bekannt.
Die Betrachtung eines Objekts beim Arbeiten mit Endoskop erfolgt in der Regel über eine Bildwandlerkette mit Sichtanzeige. Dabei kann der Betrachter unter Verwendung einer Datenübertragung räumlich weit entfernt über einen Bildwandler das zu untersuchende Objekt betrachten.
Exemplarisch sei dies an einem minimal-invasiven operativen Eingriff in der Medizin beschrieben: Der Anwender, d.h. die Bedienungsperson des Endoskops, betrachtet das mit einem bildaufnehmenden Endoskop gewonnene Bild, das auf einem Monitor wiedergegeben wird, wobei das Endoskop entweder durch den Anwender selbst, durch einen Kameraassistenten, ein Haltesystem oder einen Operationsroboter oder vergleichbar stabilisiert und nachgeführt wird. Der Monitor kann dabei in der Nähe des Untersuchungsgebietes positioniert oder unter Verwendung einer Datenübertragung weit entfernt vom Geschehen aufgestellt sein. Assistenten des Anwenders unterstützen diesen, indem sie Teiloder Zusatzfunktionen bei der Endoskopführung oder bei der Betätigung zusätzlicher Manipulatoren übernehmen, um komplexe Arbeiten und Anwendungen durchführen zu können. Dies geschieht häufig rein manuell, z.B. durch eine Assistenzperson. Die Assistenten arbeiten auf Aufforderung oder selbstständig. Ermüdung, Konzentrations- oder Kommunikationsprobleme können dabei die Interaktion der Anwender erheblich behindern mit entsprechenden Störungen des Aktionsablaufes .
Es gibt unterschiedliche Systeme, die das Verstellen, Bewegen, Positionieren und auch das Halten der gewünschten Endposition des Endoskopes oder der Zusatzinstrumente bzw. Arbeitswerkzeuge ermöglichen. Diese werden entweder direkt manuell bewegt oder per Befehlseingabe gesteuert, motorisch angetrieben. Zur Befehlseingabe bekannt sind z.B. Tasten, Joystick, Bedienpad, oder auch Sprachsteuerung.
Der Erfindung liegt die Aufgabe zugrunde, die Bilddarstellung, die zur Navigation im Raum und zur Darstellung eines Untersu- chungs- und Manipulationsbereichs erforderlich ist, vorzugsweise auch zur Führung gesamt oder teilweise automatisiert eines Teils des Instrumentariums zu nutzen, d.h. die Darstellung des Untersuchungsraums nachzuführen oder Instrumente oder Objekte zu bewegen, in Position zu bringen und dort zu halten.
Diese Aufgabe ist durch die Erfindung bei einem Verfahren mit den Merkmalen des Anspruchs 1 und einer Vorrichtung mit den Merkmalen des Anspruchs 18 gelöst. Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens und der Vorrichtung sind Gegenstand der Unteransprüche.
Gegenstand der Erfindung ist somit ein Verfahren zur räumlichen Steuerung und Navigation eines Geräts für die Durchführung von Beobachtungen und Eingriffen in Hohlräumen, Kanälen und Durchführungen im Inneren eines Körpers oder Gegenstands, insbesondere eines endoskopischen Geräts oder eines ein endoskopisches Gerät umfassenden Instruments. Das Gerät ist mit bildgebenden Mitteln ausgestattet oder seine Position unter Einsatz von bildgebenden Mitteln erfassbar. Ein Anzeigemittel ist vorgesehen. Das Gerät wird abhängig von der Darstellung von Beobachtungsbildern auf dem Anzeigemittel, der jeweiligen Position und vorgesehenen Aktion bewegt. Die Augenbewegungen der Bedienungsperson bei Beobachtung der Bilddarstellung auf dem Anzeigemittel werden nach der Eye-Tracking-Methode erfasst und zur Steuerung des Geräts und seiner Funktion verwendet.
Das erfindungsgemäße Verfahren dient somit zur Steuerung der Bildführung und eines insbesondere endoskopischen Instruments durch den Anwender selbst. Das heißt, der Anwender betrachtet mittels Bildwandlerkette den Darstellungs- und Arbeitsbereich oder ein Objekt, die auf einer Anzeige eines insbesondere endoskopisch erzeugten Bildes dargestellt sind. Die Augenbewegungen des Anwenders werden bei der Betrachtung dieses Bildes automatisiert mittels Eye-Tracking verfolgt und der Anwender
kann mittels Eye-Tracking-Steuerung die Bilddarstellung und Geräte-Navigation auf die ihn interessierenden Ziele lenken. Als Anzeigemittel kann beispielsweise ein Monitor oder auch eine Projektionseinrichtung vorgesehen werden. Gegebenenfalls kann auch eine 3D-Darstellung gewählt werden.
Die bildgebenden Mittel sind abhängig von dem jeweiligen Anwendungsbereich unterschiedlich. Sie können auf Röntgenstrahlen, Teilchenstrahlen, Radiographie, Computer-Tomographie, Magnetresonanz- , Ultraschall -Verfahren, sichtbarem Licht und Infrarotstrahlen und auch weiteren Methoden mit Bildgebung basiert sein. Vielfach kommen endoskopisch arbeitende Geräte zum Einsatz, die mit optischen Mitteln arbeiten. Die Erfindung ist jedoch auf derartige Geräte und Anwendungen, insbesondere nicht auf den Einsatz von Endoskopen und endoskopischen Geräten beschränkt, sondern betrifft auch, wie angegeben, mit derartigen Geräten ausgestattete Instrumente. Statt endoskopischer Geräte können auch andere Sichtgeräte und Instrumente eingesetzt werden, wobei letztlich die bildgebenden Mittel vom Einsatzzweck und Ort abhängig gewählt werden. Beispielsweise im Falle eines Herzklappenaustausches kann der Eingriff (Einbringung und Verankerung der Herzklappe) minimal -invasiv, radiologisch inverventionell unter Röntgen-Bildwandlerkontrolle durchgeführt werden. In anderen Fällen kann der Einsatz von Ultraschallsonden als Sichtgerät vorzuziehen sein. Die Steuerung der Geräte und Instrumente erfolgt mittels Eye-Tracking.
Zweckmäßig wird bei einer bevorzugten Ausführungsvariante des erfindungsgemäßen Verfahrens für die Bildaufnahme eine Kamera benutzt und über Eye-Tracking bewegt und/oder ihre Einstellungen werden über Eye-Tracking gesteuert. Im Falle eines flexiblen Videoendoskops befindet sich das Kameraobjektiv in der flexiblen Endoskopspitze . Die Bildaufnahme kann aber auch per Lichtleiter und nach diesem angeordneter Kamera, CCD-Chip etc. erfolgen. Auch diese sollen mit dem Begriff "Kamera" miter- fasst sein. Mit der Kamera- bzw. Optiknachführung wird zugleich das endoskopische Instrument bzw. dessen Spitze blick-
gesteuert der Augenbewegung nachgeführt, d.h. vorgeschoben, zurückgezogen und gegebenenfalls auch zur Seite verschwenkt. Vorteilhaft wird die Bildaufnahme auf die Augenbewegung zentriert, d.h. die Hauptblickachse ist auf den Arbeitsbereich bzw. das Objekt des Interesses gerichtet und dieses befindet sich im wiedergegebenen Bild zentriert dargestellt. Das Endoskop mit der bildgebenden Videokamera wird entsprechend den Augenbewegungen des Anwenders so lange nachgeführt, bis das angepeilte Objekt wieder im Zentrum des aufgenommenen und wiedergegebenen Bildes liegt und die auf das Objekt des Interesses gerichteten Augen des Anwenders bzw. die Blickachse wieder auf das Zentrum des Monitorbildes gerichtet sind.
Durch die Anwendung der Eye-Tracking-Technologie ist es auf diese Weise möglich, ohne Zeitverzögerung und Kommunikations- probleme Endoskope oder sonstige in Hohlräumen, Kanälen und dergleichen eingesetzte Geräte sowie Zusatzinstrumente in direkter Kontrolle der Fixation des Blickes eines Anwenders auf eine "region of interest" im erzeugten Bild nachzuführen.
Der Betrachter kann bei Anwendung des erfindungsgemäßen Verfahrens räumlich weit entfernt vom betrachteten Objekt sein. Es ist bei Anwendung der Endoskopie oder wie erwähnt mit entsprechend ausgestatteten Instrumenten möglich, Hohlräume, Kanäle, Oberflächen etc. gegebenenfalls ganz aus der Ferne zu betrachten oder in und an diesen Eingriffe vorzunehmen. Die Erfindung ermöglicht es, in komplexen Eingriffen Zusatzinstrumente zu steuern. An den betrachteten Objekten können Tätigkeiten durchgeführt oder es können Materialien und Gegenstände eingebracht bzw. ortsständige Dinge manipuliert oder verändert werden. Hierzu gehören u.a. Katheter, Stents, Messsonden, insbesondere auch Tuben und andere Schläuche wie z.B. Beatmungsschläuche, Klappensysteme, Clipverschlüsse und andere Unter- suchungs- und Behandlungsmaterialien. Durch den erfindungsgemäßen Einsatz des Eye-Tracking und der bildgebenden Mittel zur Steuerung und Navigation lässt sich die Bedienung des in den Hohlraum oder beispielsweise Kanal eingebrachten Geräts oder
Gegenstandes vereinfachen bzw. ist es ermöglicht, einen externen Fachmann zu dieser herbeizuziehen, der sich an einem anderen Ort befindet.
Es kann zweckmäßig sein, das Objektbild auf einem definierten Bereich des Anzeigemittels wiederzugeben, der nicht zentral, sondern außermittig im dargestellten Beobachtungsbild liegt, so dass es in diesem Fall zu einem Auseinanderfallen von Bildaufnahmezentrum und Blickachse kommt. Das Objekt wird dann in der Bildaufnahme exzentrisch erfasst und entsprechend exzentrisch auf dem Anzeigemittel wiedergegeben. Auf diese Weise können im Bildaufnahmebereich befindliche Applikatoren (Arbeitsinstrumente) etc. aufgenommen werden, im Zentrum der Anzeige, d.h. auf dem auf dem Anzeigemittel dargestellten Bild, wiedergegeben werden und hierdurch die Applikatoren gut beobachtet und/oder gehandhabt werden. So wird bei Anwendung des erfindungsgemäßen Verfahrens bevorzugt nicht nur die Kamera gesteuert, sondern es werden auch einer oder mehrere Applikatoren des beispielsweise endoskopischen Geräts mittels der Augenbewegungen gesteuert gehaltert und nachgeführt. Zu diesem Zweck ist es vorgesehen, dass die Eye-Tracking-Steuerung von der Steuerung des Bildes (Bildaufnahme und -nachführung) auf ein beliebiges anderes Hilfsmittel umgeschaltet wird, z.B. zur Instrumentennachführung, zur Betätigung des beispielsweise endoskopischen Instruments, auf einen Applikator (z.B. eine Fasszange) , wobei dann das andere Gerät oder Instrument durch das Eye-Tracking gesteuert geführt und betätigt wird. Das heißt: In diesem Fall wird zunächst das Endoskop selbst durch Eye-Tracking gesteuert positioniert und dann fixiert. Die Steuerung wird auf das Arbeitsinstrument umgeschaltet und in der Folge dieser per Eye-Tracking positioniert und das betreffende Instrument wird betätigt .
Umgeschaltet wird beispielsweise bei Erreichen der vorgesehenen Position des endoskopischen Instruments, d.h. wenn auf dem Anzeigemittel das Objekt des Interesses wie benötigt wiedergegeben wird. Anschließend können die Position des endoskopi-
sehen Instruments und die Anzeige des betreffenden Arbeitsbereichs eingefroren werden. Das Eye-Tracking kann dann zur Steuerung eines im Bildbereich befindlichen Instruments angewendet werden. Dies ist z.B. zweckmäßig bei der Coloskopie, bei der die Basis eines entdeckten Polypen exzentrisch dargestellt wird, während das Darmlumen auf das Monitorzentrum ausgerichtet bleibt . Es kann dann auch auf die Bedienung eines Zusatzinstruments umgeschaltet werden und dieses per Eye- Tracking bedient werden. So kann im Zuge einer Coloskopie ein entdeckter Polyp bei dieser Gelegenheit abgetragen werden, indem entweder die Endoskopspitze zur Darmwand mitbewegt oder der betreffende Arbeitskanal abgeknickt wird und die Endoskop- schlinge per Eye-Tracking über den Polypen gestülpt wird.
Nach dem Umschalten der Eye-Tracking- Funktion von einem Gerät zum nächsten und auch dem Einfrieren einer erreichten Position ist dann das nicht mehr vom Eye-Tracking geführte/gesteuerte Instrument in seiner Position fixiert, als ob es von einer Assistenzperson sicher gehalten würde. Probleme der Kommunikation entfallen dabei, der Anwender hat damit die Möglichkeit, sowohl die Endoskop/Bildführung als auch einzelne Aktuatoren selbständig zu steuern. Sobald der Bildbereich verändert benötigt wird, ist das Eye-Tracking-System wieder für die Bilddarstellung zu aktivieren und die Kamera bzw. Beobachtungsoptik, wie vorstehend erläutert, zu bewegen. Da für jeweils eingefrorene Positionen, während dieses Zustandes, das Eye-Tracking- System ungenutzt ist, besteht die Möglichkeit, mit dem System verschiedene Instrumente nacheinander alternativ zu steuern.
Bei dem zur Durchführung des erfindungsgemäßen Verfahrens benutzten Eye-Tracking-System kann die zur Erfassung der Augenbewegungen bzw. der Blickachse der Augen notwendige Kamera beispielsweise an einem Headset, am Monitor oder an einem für die Erfassung der Augenbewegungen geeigneten Ort plaziert sein.
Bei einer Verfahrensvariante wird vom bildaufnehmenden Endo-
skop oder sonstigen Sichtgerät eine Führungsmarkierung projiziert, die das Zentrum der Bildaufnahmeoptik und damit des aufgenommenen Bildes markiert. Auf diese eine Führungsmarkierung, die im Normalfall im Zentrum der Bilddarstellung auf dem Anzeigemittel angezeigt wird, fokussiert das Eye-Tracking. Als Führungsmarkierung können ein Lichtpunkt oder Lichtstrahl z.B. durch einen Laser- Pointer verwendet werden, der in der Fokus- achse des Videoobjektivs liegt. Der Laserstrahl kann auch gleichzeitig zur Messung des Abstands - etwa mit einem optischen Abstandsmesssystem - zwischen dem Optiksystem und dem Beobachtungsgegenstand/Instrument bzw. dem betrachteten Bereich und damit zur dreidimensionalen Navigation benutzt werden. Per Eye-Tracking kann die Markierung und damit die Kamera bzw. der Bildbereich verfahren werden.
Bei einer bevorzugten Verfahrensvariante wird das Eye- Tracking-Steuersignal mit einstellbarer Trägheit verarbeitet. Dies ermöglicht es, das Steuersignal nachteilig beeinflussende Effekte wie das Augenflackern (Nystagmus) zu kompensieren.
Vorzugsweise wird vorgesehen, dass die Autofokuseinrichtung, die Vergrößerungseinstellung und/oder die Abstandsmessung der Spitze des Geräts zum beobachteten Objekt mittels Eye-Tracking ausgewählt und/oder zugeschaltet werden.
Die Befehlseingabe für ein durch Eye-Tracking zu steuerndes Gerät, Instrument oder Zusatzinstrument, insbesondere die Auswahl eines Instruments, die Umschaltung auf das Instrument oder Umschaltungen der Instrumenteneinstellung, kann sprachgesteuert oder auch durch Bedienmittel, insbesondere Joystick, Tasten, Bedienpad, durchgeführt werden.
Beispielhaft ergeben sich bei endoskopischen Untersuchungen und Manipulationen, die von einer Bedienungsperson (Anwender) über den Bildschirm geführt erfolgen, durch Eye-Tracking folgende Möglichkeiten:
1. Das bildaufnehmende Optiksystem kann, per Eye-Tracking gesteuert, über entsprechende Halterungs- und Führungseinheiten positioniert werden. Über Zusatzfunktionen kann definiert werden, dass die Blickerfassung des Anwenders den betrachtenden Punkt/ "region of interest" in die Mitte des Bildbereichs rückt und dieser somit mittig auf dem Monitor positioniert ist. Alternativ kann der Ort des Interesses außerhalb der Bildmitte liegen, d.h. er bleibt exzentrisch auf dem erzeugten Bild. Die exzentrische Bilderfassung bietet sich an, wenn durch den Anwender ein im Bildbereich befindliches Arbeitsmittel per Eye-Tracking gesteuert werden soll. Die Kontrolle und Positionierung des Arbeitsmittels in Bezug auf das im Bild exzentrische Objekt können so erleichtert werden.
2. Durch Umschalten der Steuerung von der Bild (nach) führung auf ein Instrument oder ein anderes, zweites (oder drittes) Instrument wird das Endoskop bzw. jeweils erste Instrument in seiner Position fixiert. Das gewählte Instrument kann ein beliebiges Hilfsmittel sein, das sich im Bildbereich des Endoskops befindet und positioniert/manipuliert werden muss. Es kann sich auch um zusätzliche Untersuchungsinstrumente oder aber auch um Materialien oder Gegenstände handeln, die über Endoskope visualisiert und über Eye-Tracking gesteuert in (Körper- ) Höhlen, Gefäße, oder Hohlorgane vorübergehend oder permanent durch den Anwender kontrolliert eingebracht werden, bzw. im Bereich der technischen Endoskopie um Untersuchungs- und Manipulationstechniken im Sinne des Non-destructive Testing entsprechen.
Der Anwender kann per Eye-Tracking Abläufe direkt selbst steuern, die bisher durch Assistenzpersonen erfolgten. Bei Teamarbeit mögliche Kommunikationsstörungen können vermieden werden und ist kein oder weniger Assistenzpersonal nötig.
Die Erfindung wird im folgenden weiter anhand eines Ausfüh-
rungsbeispiels und der Zeichnungen beschrieben. Diese Darstellung dient lediglich zu Veranschaulichungszwecken und soll die Erfindung nicht auf die konkret angegebenen Merkmalskombina- tionen einschränken. Es zeigen
Fig. 1 eine schematische Ansicht eines Aufbaus für eine endoskopische Testung und Manipulation unter Anwendung des erfindungsgemäßen Verfahrens,
Fig. 2 eine schematische Teildarstellung des distalen Endes eines flexiblen Endoskops und
Fig. 3 eine schematische Darstellung des Kontrollkörpers des flexiblen Endoskops.
Im folgenden wird ein Ausführungsbeispiel der Erfindung anhand von Fig. 1 erläutert, die einen Endoskop-Arbeitsplatz zeigt. Ein Anwender 2 steht in einem Untersuchungsraum 4, in dem sich ein zu untersuchendes Objekt 6 befindet. Ein mit verschiedenen Einrichtungen bestücktes Endoskop 8 und ein dicht am Untersuchungsgegenstand dargestelltes Arbeitsinstrument 10 befinden sich in Arbeitsposition an einem Arbeitsbereich und sind an einer Halte- und Positioniereinrichtung 12, 14 angebracht, die in Richtung von Pfeilen 16 bewegbar sind.
Das als Videoendoskop ausgeführte Endoskop 8 wird im folgenden anhand von Fig. 2 und 3 mehr im einzelnen beschrieben. Die Spitze des Endoskops 8 zeigt zwei Kanäle 82, 84. Der Kanal 82 enthält ein nicht dargestelltes Videokabel und Objektiv mit Autofokus -Funktion für die Bildaufnahme. Im Kanal 84 befinden sich Lichtleitfasern für die Beleuchtung des Arbeits- bzw. Operationsbereichs 20 und außerdem Markierungseinrichtungen. Eine nicht dargestellte, z.B. projizierte, Führungsmarkierung befindet sich am Untersuchungsgegenstand (Objekt) . Das Endoskop 8 umfasst des weiteren zwei Arbeitskanäle 122, 124 und eine Jet-Düse 126.
An dem in Fig. 3 dargestellten Kontrollkörper des flexiblen Endoskops befinden sich die Betätigungsorgane bzw. Anschlüsse zu dessen Bedienung und Steuerung. Der Eye-Tracking-Antrieb 140, 142 ist am Manipulationsende des Kontrollkörpers angeordnet und enthält eine Rechts/Links- und Auf/Ab-Einheit . Eine Drucktaste 144 ist für das Umschalten zwischen manueller Steuerung und Eye-Tracking-Steuerung vorgesehen. Funktionstasten 146, 148 sind für das Absaugen bzw. Spülen/Insufflation vorgesehen. Mittels Hebeln 150, 152 kann die Steuerung auf/ab und rechts/links manuell durchgeführt werden. Mit 154 und 156 sind Anschlüsse zu Arbeitskanälen bezeichnet.
Die Halte- und Positioniereinrichtung 12, 14 bzw. deren Antrieb ist mit einer Steuerung 30 über Steuerleitungen 32, 34 für die Führung und Positionierung des Endoskops 8 und dessen Betätigung verbunden.
Das Endoskop 8 ist über eine Steuerleitung 38 mit einer Steuerungselektronik 36 verbunden. Eine Kaltlichtquelle 40 ist über Lichtleiter 42 mit dem Endoskop 8 bzw. dessen Beleuchtungskanal 84 verbunden.
Der Anwender 2 blickt auf einen im gezeigten Ausführungsbeispiel als Anzeigemittel über dem Operationstisch aufgehängten Monitor 18. Dieser zeigt ein Videobild des Operationsbereichs 20, das über eine Bildwandlerkette 86 vom Endoskop 8 geliefert wird. Für eine eventuelle Spracheingabe (Pfeil 44) und manuelle Eingabe sind ein Audioeingang 46 und ein Eingabefeld 48 an der Steuerzentrale vorgesehen, die auch die weiteren Steuereinheiten 30, 36, 40, 72 enthält. Die Bewegungen des Endoskops 8 werden in der Regel jedoch nicht manuell, sondern mittels Eye-Tracking gesteuert und durchgeführt. Zu diesem Zweck befinden sich unterhalb des Monitors 18 eine Eye-Tracking-Be- obachtungseinheit 60 mit einer Infrarot-Lichtquelle 62 und einer Videokamera 64, die auf die Augen 22 des Anwenders 2 gerichtet sind (Pfeile 66, 68) als Teil eines handelsüblichen Eye-Tracking- Systems . Der Anwender 2 beobachtet den darge-
stellten Bereich 20 auf dem Monitor 18 (Pfeil 70) und die Videokamera 64 beobachtet die Augenbewegungen, wobei die Auswertung in einem über eine Steuerleitung 71 verbundenen Rechner der Eye-Tracking-Steuerung 72 erfolgt, deren Ausgangssteuersignale auf die Steuerung 30 der Halte- und Positioniereinrichtung 12, 14 gegeben werden.
Dieser Aufbau ermöglicht es dem Anwender 2, zumindest bei relativ einfachen Manipulationen ohne Assistenzpersonal zu arbeiten. Bei aufwendigen Eingriffen, bei denen z.B. bildaufnehmende Endoskope mit multiplen Arbeitskanälen verwendet werden, ist es so auch nicht mehr nötig, 3 bis 4 Assistenzpersonen für die Bedienung der verschiedenen Instrumente einzusetzen, deren Tätigkeiten genau aufeinander und auf den Anwender abgestimmt werden müssen. Vielmehr kann beispielsweise der Anwender bei erreichtem Zielobjekt über zwei Kontrollräder die Endoskop- spitze (eines flexiblen Endoskops) bewegen und das Bild einstellen, während Assistenzpersonen über Arbeitskanäle Untersuchungsinstrumente, Biopsiezangen, Scheren etc. vorschieben, zurückziehen, öffnen und schließen, etc. mit den entsprechenden Koordinationsproblemen mehrerer Personen, die am selben Objekt arbeiten.
Die verschiedenen operativen Arbeitsschritte des Anwenders können von diesem nacheinander unter Einsatz der Eye-Tracking- Steuerung durchgeführt werden, während die Positionen der gerade nicht benötigten Instrumente und Ansichten eingefroren werden. So werden z.B. bei einer Polypenabtragung im Dickdarm das Hauptbild eingefroren und das Eye-Tracking auf eine andere Funktion wie Vorschub oder Bewegung der Abtragungsschlinge um den Polypenstiel herum mit den Augen gesteuert.
Claims
1. Verfahren zur räumlichen Steuerung und Navigation eines Geräts für die Durchführung von Beobachtungen und Eingriffen in Hohlräumen, Kanälen und Durchführungen im Inneren eines Körpers oder Gegenstands, insbesondere eines endoskopischen Geräts oder eines ein endoskopisches Gerät umfassenden Instruments, wobei das Gerät mit bildgebenden Mitteln ausgestattet ist oder seine Position unter Einsatz von bildgebenden Mitteln erfassbar ist, und ein Anzeigemittel vorgesehen ist, wobei das Gerät abhängig von der Darstellung von Beobachtungsbildern auf dem Anzeigemittel, der jeweiligen Position und vorgesehenen Aktion bewegt wird, dadurch g e k e n n z e i c h n e t , dass die Augenbewegungen der Bedienungsperson bei Beobachtung der Bilddarstellung auf dem Anzeigemittel nach der Eye- Tracking-Methode erfasst werden und zur Steuerung des Geräts und seiner Funktion verwendet werden.
2. Verfahren nach Anspruch 1, dadurch g e k e n n z e i c h n e t , dass die Bildaufnahme auf die Augenbewegung zentriert wird.
3. Verfahren nach Anspruch 1 oder 2 , dadurch g e k e n n z e i c h n e t , dass die Bildaufnahme eines bestimmten Arbeitsbereichs sowie die zugehörige Bilddarstellung auf dem Anzeigemittel eingefroren und beibehalten werden und selektiv ein oder mehrere Details im Arbeitsbereich mit Hilfe des Eye-Trackings betrachtet werden, wobei die jeweilige Bilddarstellung eines betrachteten, auf dem Anzeigemittel dezentral dargestellten Ausschnitts auf Anforderung durch das Eye- Tracking zentriert oder nicht zentriert wird.
4. Verfahren nach Anspruch 3 , dadurch g e k e n n z e i c h n e t , dass die Spitze des Geräts oder ein Arbeitskanal des Geräts zum betrachteten Ausschnitt des Arbeits- bereichs nachgeführt wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch g e k e n n z e i c h n e t , dass die bildgebenden Mittel unter Anwendung von Röntgenstrahlen, Radiographie, Computer- Tomographie, Magnetresonanz- , Ultraschall -Verfahren, sichtbarem Licht und Infrarotstrahlen arbeiten.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch g e k e n n z e i c h n e t , dass für die Bildaufnahme eine Kamera benutzt wird, die Kamera über Eye-Tracking bewegt und/oder ihre Einstellungen über Eye-Tracking gesteuert werden.
7. Verfahren nach Anspruch 6 , dadurch g e k e n n z e i c h n e t , dass die Autofokuseinrichtung, die Vergrößerungseinstellung und/oder die Abstandsmessung der Endoskop- spitze zum beobachteten Objekt mittels Eye-Tracking ausgewählt und/oder zugeschaltet werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch g e k e n n z e i c h n e t , dass vom Gerät eine Führungs- markierung projiziert wird, die das Zentrum der Bildaufnahme markiert .
9. Verfahren nach Anspruch 8 , dadurch g e k e n n z e i c h n e t , dass als Führungsmarkierung ein Lichtpunkt oder Lichtstrahl verwendet wird und der Lichtstrahl zur Messung des Abstands zwischen Optik und Objektbereich verwendet wird.
10. Verfahren nach Anspruch 9, dadurch g e k e n n z e i c h n e t , dass der gemessene Abstand als Steuergrpöße für die Navigation des endoskopischen Instruments verwendet wird.
11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch g e k e n n z e i c h n e t , dass das Eye-Tracking-Steuersi- gnal mit einstellbarer Trägheit verarbeitet wird.
12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch g e k e n n z e i c h n e t , dass die Eye-Tracking-Steuerung von der Bildaufnahme und -nachführung auf die Betätigung oder Nachführung des Geräts und/oder die Betätigung von insbesondere endoskopischen Applikatoren, Zusatzinstrumenten oder Hilfsmitteln umgeschaltet wird.
13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch g e k e n n z e i c h n e t , dass der Antrieb des Geräts durch Eye-Tracking gesteuert wird.
14. Verfahren nach einem der Ansprüche 1 bis 13, dadurch g e k e n n z e i c h n e t , dass das Gerät mittels Eye- Tracking betätigt wird.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch g e k e n n z e i c h n e t , dass einer oder mehrere Applikatoren des Geräts oder Hilfsmittel mittels Eye-Tracking gesteuert geführt und/oder betätigt werden.
16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch g e k e n n z e i c h n e t , dass mittels Eye-Tracking das Einbringen von Materialien, Gegenständen, insbesondere die Navigation von Schläuchen und Röhren, in den Arbeits- oder Untersuchungsraum, und/oder die Entnahme von Objektmaterial und -proben aus dem Arbeits- oder Untersuchungsraum mittels Applikatoren gesteuert wird.
17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch g e k e n n z e i c h n e t , dass die Befehlseingabe für ein durch Eye-Tracking zu steuerndes Instrument, insbesondere die Auswahl eines Instruments, die Umschaltung auf das Instrument oder Umschaltungen der Instrumenteneinstellung, mittels Eye- Tracking durchgeführt wird.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch g e k e n n z e i c h n e t , dass die Befehlseingabe durch Bedienmittel, insbesondere Joystick, Tasten, Bedienpad, oder sprachgesteuert durchgeführt wird.
19. Vorrichtung zur Bilddarstellung bei einem mittels Bildübertragung überwachten Geräts für die Durchführung von Beobachtungen und Eingriffen in Hohlräumen, Kanälen und Durchführungen im Inneren eines Körpers oder Gegenstands, insbesondere eines endoskopischen Geräts oder eines ein endoskopisches Gerät umfassenden Instruments, umfassend den Arbeitsbereich (20) des Geräts (8) beobachtende bildgebende Mittel (82, 84, 40), ein Anzeigemittel (18) , das den Arbeitsbereich (20) des Geräts sowie dessen Position und Aktion anzeigt, eine motorisch antreibbare Einrichtung, die das Gerät (8) abhängig von der Bilddarstellung auf dem Anzeigemittel, der jeweiligen Position und der vorgesehenen Aktion haltert und bewegt, dadurch g e k e n n z e i c h n e t , dass eine Einrichtung (62, 64) vorgesehen ist, die die Augenbewegungen der Bedienungsperson (2) bei Beobachtung der Bilddarstellung auf dem Anzeigemittel (8) nach der Eye-Tracking- Methode erfasst und die ein Ausgangssignal zur Steuerung der Bildaufnahme und -nachführung und der Wiedergabe auf dem Anzeigemittel (8) ausgibt.
20. Vorrichtung nach Anspruch 19, dadurch g e k e n n z e i c h n e t , dass die bildgebenden Mittel unter Anwendung von Röntgenstrahlen, Radiographie, Computer-Tomographie, Magnetresonanz-, Ultraschall-Verfahren, sichtbarem Licht und Infrarotstrahlen arbeiten.
21. Vorrichtung nach Anspruch 19, dadurch g e k e n n z e i c h n e t , dass die bildgebenden Mittel eine den Arbeitsbereich (20) des Geräts (8) beobachtende Optik (82, 84) mit Lichtquelle (40) umfassen, wobei die Abbildung (82, 84) selbstfokussierend ist.
22. Vorrichtung nach einem der Ansprüche 19 bis 21, dadurch g e k e n n z e i c h n e t , dass auf dem Anzeigemittel ein Bedienbereich einblendbar ist, über den Steuerungs- funktionen auswählbar und zuschaltbar sind.
23. Vorrichtung nach einem der Ansprüche 19 bis 22, dadurch g e k e n n z e i c h n e t , dass eine Navigations- steuerung für das Gerät und/oder zusätzliche Instrumente vorgesehen ist.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/203,007 US10925463B2 (en) | 2009-02-24 | 2010-02-16 | Navigation of endoscopic devices by means of eye-tracker |
JP2011551460A JP5568574B2 (ja) | 2009-02-24 | 2010-02-16 | 内視鏡装置をナビゲーションする方法、および画像表示のための装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009010263.9 | 2009-02-24 | ||
DE102009010263A DE102009010263B4 (de) | 2009-02-24 | 2009-02-24 | Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2010097315A1 true WO2010097315A1 (de) | 2010-09-02 |
Family
ID=42124723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2010/051945 WO2010097315A1 (de) | 2009-02-24 | 2010-02-16 | Navigation endoskopischer vorrichtungen mittels eye-tracker |
Country Status (4)
Country | Link |
---|---|
US (1) | US10925463B2 (de) |
JP (1) | JP5568574B2 (de) |
DE (1) | DE102009010263B4 (de) |
WO (1) | WO2010097315A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014504179A (ja) * | 2010-11-29 | 2014-02-20 | クンツ,ライナー | トロカールシステム |
CN107049210A (zh) * | 2017-01-25 | 2017-08-18 | 山东省肿瘤防治研究院 | 一种基于增强现实的腔镜显示控制系统 |
EP2701573B1 (de) * | 2011-04-26 | 2018-08-22 | Otto-von-Guericke Universität Magdeburg Medizinische Fakultät | Endoskop |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT1401669B1 (it) | 2010-04-07 | 2013-08-02 | Sofar Spa | Sistema di chirurgia robotizzata con controllo perfezionato. |
WO2013038355A1 (en) * | 2011-09-16 | 2013-03-21 | Koninklijke Philips Electronics N.V. | Live 3d x-ray viewing |
CN102579138A (zh) * | 2012-04-06 | 2012-07-18 | 苏州迪凯尔医疗科技有限公司 | 导航视图视角自动调整法 |
US20140024889A1 (en) * | 2012-07-17 | 2014-01-23 | Wilkes University | Gaze Contingent Control System for a Robotic Laparoscope Holder |
WO2015023513A1 (en) * | 2013-08-14 | 2015-02-19 | Intuitive Surgical Operations, Inc. | Endoscope control system |
US10432922B2 (en) | 2014-03-19 | 2019-10-01 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking for stereo viewer |
WO2015143067A1 (en) | 2014-03-19 | 2015-09-24 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking |
US10682038B1 (en) * | 2014-09-19 | 2020-06-16 | Colorado School Of Mines | Autonomous robotic laparoscope based on eye tracking |
EP3705024B1 (de) * | 2017-10-31 | 2025-07-02 | FUJIFILM Corporation | Inspektionshilfsvorrichtung, endoskopvorrichtung, inspektionshilfsverfahren und inspektionshilfsprogramm |
US11690677B2 (en) * | 2017-12-31 | 2023-07-04 | Asensus Surgical Us, Inc. | Use of eye tracking for tool identification and assignment in a robotic surgical system |
DE102018110642B4 (de) * | 2018-05-03 | 2024-02-22 | Carl Zeiss Meditec Ag | Mikroskopieverfahren zur Abbildung eines Objekts sowie Mikroskop |
CN108524011A (zh) * | 2018-05-09 | 2018-09-14 | 杨琨 | 基于眼动仪原理的视野焦点指示系统及方法 |
WO2021029117A1 (ja) * | 2019-08-09 | 2021-02-18 | 富士フイルム株式会社 | 内視鏡装置、制御方法、制御プログラム、及び内視鏡システム |
WO2023017651A1 (ja) | 2021-08-13 | 2023-02-16 | ソニーグループ株式会社 | 医療用観察システム、情報処理装置及び情報処理方法 |
CN118042999A (zh) * | 2021-09-27 | 2024-05-14 | 柯惠Lp公司 | 具有不同长度的进入端口的外科机器人系统的操作系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5526812A (en) * | 1993-06-21 | 1996-06-18 | General Electric Company | Display system for enhancing visualization of body structures during medical procedures |
DE19529950C1 (de) | 1995-08-14 | 1996-11-14 | Deutsche Forsch Luft Raumfahrt | Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie |
WO1997037582A1 (en) * | 1996-04-03 | 1997-10-16 | Street Graham S B | Apparatus and method for stereoscopic endoscopy |
DE19731301A1 (de) | 1997-07-13 | 1999-01-14 | Smi Senso Motoric Instr Gmbh | Verfahren zum Steuern von Mikroskopen und angekoppelten Geräten mittels Blickrichtungsanalyse, Blickrichtungsmeßgerät und Okularaufsatz hierfür |
US6406472B1 (en) * | 1993-05-14 | 2002-06-18 | Sri International, Inc. | Remote center positioner |
US6847336B1 (en) * | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
DE19983513B4 (de) | 1998-09-01 | 2005-03-24 | Synthetic Enviroments, Inc. | Verfahren für das Auswählen eines grafischen Objektes und System für die Steuerung einer Schnittstelle eines Rechnersystems hierfür |
DE102004063566A1 (de) | 2004-03-15 | 2005-10-13 | Agilent Technologies, Inc. (n.d.Ges.d.Staates Delaware), Palo Alto | Verwenden einer Augenerfassung zum Bereitstellen einer Steuerungs- und Leistungsverwaltung von elektronischen Vorrichtungen |
WO2007050029A2 (en) | 2005-10-28 | 2007-05-03 | Tobii Technology Ab | Eye tracker with visual feedback |
WO2008066460A1 (en) | 2006-11-29 | 2008-06-05 | Tobii Technology Ab | Eye tracking illumination |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5969049A (ja) * | 1982-10-15 | 1984-04-19 | オリンパス光学工業株式会社 | 内視鏡診断システム |
JPH0642644Y2 (ja) * | 1988-10-15 | 1994-11-09 | オリンパス光学工業株式会社 | 内視鏡湾曲装置 |
JP3126065B2 (ja) | 1991-12-09 | 2001-01-22 | オリンパス光学工業株式会社 | 計測用内視鏡装置 |
JP2665052B2 (ja) * | 1993-05-14 | 1997-10-22 | エスアールアイ インターナショナル | 遠隔中心位置決め装置 |
US5876325A (en) * | 1993-11-02 | 1999-03-02 | Olympus Optical Co., Ltd. | Surgical manipulation system |
JP3540362B2 (ja) * | 1994-06-14 | 2004-07-07 | オリンパス株式会社 | 手術用マニピュレータの制御システム及びその制御方法 |
JP3482228B2 (ja) * | 1993-11-02 | 2003-12-22 | オリンパス株式会社 | 視線検出によるマニピュレータ制御システム |
US5803082A (en) * | 1993-11-09 | 1998-09-08 | Staplevision Inc. | Omnispectramammography |
US5481622A (en) * | 1994-03-01 | 1996-01-02 | Rensselaer Polytechnic Institute | Eye tracking apparatus and method employing grayscale threshold values |
EP0755530B1 (de) * | 1994-04-11 | 2000-06-07 | Leica Microsystems AG | Anordnung zur Positionsbestimmung eines Operationsmikroskops |
JPH07299027A (ja) * | 1994-05-10 | 1995-11-14 | Olympus Optical Co Ltd | 光源装置 |
US6463361B1 (en) * | 1994-09-22 | 2002-10-08 | Computer Motion, Inc. | Speech interface for an automated endoscopic system |
EP0788613B2 (de) * | 1994-10-26 | 2008-06-04 | Leica Microsystems (Schweiz) AG | Mikroskop, insbesondere operationsmikroskop |
US5836869A (en) * | 1994-12-13 | 1998-11-17 | Olympus Optical Co., Ltd. | Image tracking endoscope system |
JP3532660B2 (ja) * | 1995-06-09 | 2004-05-31 | オリンパス株式会社 | 体腔内観察装置 |
US5912721A (en) * | 1996-03-13 | 1999-06-15 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and its method as well as information display apparatus |
JPH10290392A (ja) | 1997-04-14 | 1998-10-27 | Olympus Optical Co Ltd | 画像処理装置 |
DE19961971B4 (de) * | 1999-12-22 | 2009-10-22 | Forschungszentrum Karlsruhe Gmbh | Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments |
US6456262B1 (en) * | 2000-05-09 | 2002-09-24 | Intel Corporation | Microdisplay with eye gaze detection |
US6578962B1 (en) * | 2001-04-27 | 2003-06-17 | International Business Machines Corporation | Calibration-free eye gaze tracking |
US6663559B2 (en) * | 2001-12-14 | 2003-12-16 | Endactive, Inc. | Interface for a variable direction of view endoscope |
JP4009639B2 (ja) * | 2002-07-31 | 2007-11-21 | オリンパス株式会社 | 内視鏡装置、内視鏡装置のナビゲーション方法、内視鏡画像の表示方法、及び内視鏡用画像表示プログラム |
GB0222265D0 (en) * | 2002-09-25 | 2002-10-30 | Imp College Innovations Ltd | Control of robotic manipulation |
HUP0301899A2 (hu) * | 2003-06-20 | 2005-05-30 | János Fehér | Eljárás és berendezés a szem látásfunkcióinak vizsgálatára |
DE10335369B4 (de) * | 2003-07-30 | 2007-05-10 | Carl Zeiss | Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung und Vorrichtung zum Durchführen des Verfahrens |
US7561143B1 (en) * | 2004-03-19 | 2009-07-14 | The University of the Arts | Using gaze actions to interact with a display |
WO2005091978A2 (en) * | 2004-03-22 | 2005-10-06 | Vanderbilt University | System and methods for surgical instrument disablement via image-guided position feedback |
WO2006111965A2 (en) * | 2005-04-20 | 2006-10-26 | Visionsense Ltd. | System and method for producing an augmented image of an organ of a patient |
WO2007035775A2 (en) * | 2005-09-19 | 2007-03-29 | Feng Ma | Imaging system and method utilizing primary radiation |
US20070265495A1 (en) * | 2005-12-15 | 2007-11-15 | Medivision, Inc. | Method and apparatus for field of view tracking |
US7899226B2 (en) * | 2007-04-03 | 2011-03-01 | General Electric Company | System and method of navigating an object in an imaged subject |
US20080297590A1 (en) * | 2007-05-31 | 2008-12-04 | Barber Fred | 3-d robotic vision and vision control system |
US8462949B2 (en) * | 2007-11-29 | 2013-06-11 | Oculis Labs, Inc. | Method and apparatus for secure display of visual content |
US20090202114A1 (en) * | 2008-02-13 | 2009-08-13 | Sebastien Morin | Live-Action Image Capture |
US8155479B2 (en) * | 2008-03-28 | 2012-04-10 | Intuitive Surgical Operations Inc. | Automated panning and digital zooming for robotic surgical systems |
US8808164B2 (en) * | 2008-03-28 | 2014-08-19 | Intuitive Surgical Operations, Inc. | Controlling a robotic surgical tool with a display monitor |
US9841811B2 (en) * | 2008-11-03 | 2017-12-12 | Bruce Reiner | Visually directed human-computer interaction for medical applications |
US20110202842A1 (en) * | 2010-02-12 | 2011-08-18 | Dynavox Systems, Llc | System and method of creating custom media player interface for speech generation device |
-
2009
- 2009-02-24 DE DE102009010263A patent/DE102009010263B4/de active Active
-
2010
- 2010-02-16 JP JP2011551460A patent/JP5568574B2/ja active Active
- 2010-02-16 US US13/203,007 patent/US10925463B2/en active Active
- 2010-02-16 WO PCT/EP2010/051945 patent/WO2010097315A1/de active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6406472B1 (en) * | 1993-05-14 | 2002-06-18 | Sri International, Inc. | Remote center positioner |
US5526812A (en) * | 1993-06-21 | 1996-06-18 | General Electric Company | Display system for enhancing visualization of body structures during medical procedures |
DE19529950C1 (de) | 1995-08-14 | 1996-11-14 | Deutsche Forsch Luft Raumfahrt | Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie |
WO1997037582A1 (en) * | 1996-04-03 | 1997-10-16 | Street Graham S B | Apparatus and method for stereoscopic endoscopy |
US6847336B1 (en) * | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
DE19731301A1 (de) | 1997-07-13 | 1999-01-14 | Smi Senso Motoric Instr Gmbh | Verfahren zum Steuern von Mikroskopen und angekoppelten Geräten mittels Blickrichtungsanalyse, Blickrichtungsmeßgerät und Okularaufsatz hierfür |
DE19983513B4 (de) | 1998-09-01 | 2005-03-24 | Synthetic Enviroments, Inc. | Verfahren für das Auswählen eines grafischen Objektes und System für die Steuerung einer Schnittstelle eines Rechnersystems hierfür |
DE102004063566A1 (de) | 2004-03-15 | 2005-10-13 | Agilent Technologies, Inc. (n.d.Ges.d.Staates Delaware), Palo Alto | Verwenden einer Augenerfassung zum Bereitstellen einer Steuerungs- und Leistungsverwaltung von elektronischen Vorrichtungen |
WO2007050029A2 (en) | 2005-10-28 | 2007-05-03 | Tobii Technology Ab | Eye tracker with visual feedback |
WO2008066460A1 (en) | 2006-11-29 | 2008-06-05 | Tobii Technology Ab | Eye tracking illumination |
Non-Patent Citations (2)
Title |
---|
BYUNGKYU KIM ET AL: "Smart colonoscope system", PROCEEDINGS OF THE 2002 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS. (IROS 2002). LAUSANNE, SWITZERLAND, SEPT. 30 - OCT. 4, 2002; [IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS], NEW YORK, NY : IEEE, US L, vol. 2, 30 September 2002 (2002-09-30), pages 1367 - 1372, XP010609609, ISBN: 978-0-7803-7398-3 * |
DAVID P NOONAN ET AL: "Gaze contingent articulated robot control for robot assisted minimally invasive surgery", INTELLIGENT ROBOTS AND SYSTEMS, 2008. IROS 2008. IEEE/RSJ INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 22 September 2008 (2008-09-22), pages 1186 - 1191, XP031348637, ISBN: 978-1-4244-2057-5 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014504179A (ja) * | 2010-11-29 | 2014-02-20 | クンツ,ライナー | トロカールシステム |
US10827907B2 (en) | 2010-11-29 | 2020-11-10 | Reiner Kunz | Trocar system |
EP2701573B1 (de) * | 2011-04-26 | 2018-08-22 | Otto-von-Guericke Universität Magdeburg Medizinische Fakultät | Endoskop |
CN107049210A (zh) * | 2017-01-25 | 2017-08-18 | 山东省肿瘤防治研究院 | 一种基于增强现实的腔镜显示控制系统 |
Also Published As
Publication number | Publication date |
---|---|
US20120069166A1 (en) | 2012-03-22 |
DE102009010263A1 (de) | 2010-09-02 |
JP5568574B2 (ja) | 2014-08-06 |
US10925463B2 (en) | 2021-02-23 |
JP2012518504A (ja) | 2012-08-16 |
DE102009010263B4 (de) | 2011-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009010263B4 (de) | Verfahren zur Navigation eines endoskopischen Instruments bei der technischen Endoskopie und zugehörige Vorrichtung | |
EP0975257B1 (de) | Endoskopisches system | |
EP3363358B1 (de) | Vorrichtung zum festlegen und wiederauffinden eines bezugspunkts während eines chirurgischen eingriffs | |
DE69322202T2 (de) | System und Verfahren zur Verbesserung von endoskopischer Chirurgie | |
DE102014226240A1 (de) | System zur roboterunterstützten medizinischen Behandlung | |
WO2008058520A2 (de) | Vorrichtung zur bereitstellung von bildern für einen operateur | |
EP3054888A1 (de) | Assistenzeinrichtung zur bildgebenden unterstützung eines operateurs während eines chirurgischen eingriffs | |
DE102019134352B4 (de) | Chirurgieroboter für endoskopische Anwendungen | |
WO2018011106A2 (de) | Endoskopische vorrichtung und verfahren zur endoskopischen untersuchung | |
JP6387367B2 (ja) | 血管穿孔機の内視鏡支援による配置 | |
DE102010060877B4 (de) | Trokaranordnung | |
WO2005037120A1 (de) | Vorrichtung zur vituellen lagebetrachtung wenigstens eines in einen körper intrakorporal eingebrachten medizinischen instruments | |
DE112021004722T5 (de) | Steuersystem für einen medizinischen arm, medizinische armvorrichtung, steuerungsverfahren für einen medizinischen arm und programm | |
DE102007030747A1 (de) | Verfahren und Einrichtung zum Durchführen eines minimalinvasiven Eingriffs in einem menschlichen oder tierischen Hohlorgan | |
DE102022118388B4 (de) | Chirurgiesystem für die minimalinvasive robotische Chirurgie | |
DE102010023345B4 (de) | Medizinisches Biplan-Röntgensystem und Verfahren zur Ansteuerung des Biplan-Röntgensystems | |
DE102023104936A1 (de) | Chirurgiesystem für minimalinvasive robotische Chirurgie System | |
DE102014107315A1 (de) | Medizinisches Instrumentarium und Verfahren zum Betreiben eines medizinischen Instrumentariums | |
DE102021125161A1 (de) | Medizinisches Instrument | |
WO2024018011A1 (de) | Steuervorrichtung und system, sowie system mit einem medizinischen operationsinstrument, einer datenerfassungsvorrichtung und einer datenverarbeitungseinrichtung | |
WO2021058727A1 (de) | Vorrichtung zum navigieren eines medizinischen instruments relativ zu einer patientenanatomie | |
DE102007043729A1 (de) | Medizinisches System | |
DE102011006966A1 (de) | Verfahren zum Steuern der Bewegung einer magnetgeführten Endoskopkapsel und nach diesem Verfahren betriebene Endoskopieeinrichtung | |
DE19505775A1 (de) | Vorrichtung zur Untersuchung der Augen sowie zur Durchführung von Eingriffen an Augen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10710811 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2011551460 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2010710811 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13203007 Country of ref document: US |