[go: up one dir, main page]

DE102016210288A1 - Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung - Google Patents

Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung Download PDF

Info

Publication number
DE102016210288A1
DE102016210288A1 DE102016210288.5A DE102016210288A DE102016210288A1 DE 102016210288 A1 DE102016210288 A1 DE 102016210288A1 DE 102016210288 A DE102016210288 A DE 102016210288A DE 102016210288 A1 DE102016210288 A1 DE 102016210288A1
Authority
DE
Germany
Prior art keywords
displayed
user
operating device
screen
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016210288.5A
Other languages
English (en)
Inventor
Omer Yosha
Janine Perkuhn
Stefan Schulz
Christian TENDYCK
Thomas Werner
Thomas Schwarz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102016210288.5A priority Critical patent/DE102016210288A1/de
Priority to US16/307,918 priority patent/US10635170B2/en
Priority to PCT/EP2017/063698 priority patent/WO2017211817A1/de
Priority to KR1020187030197A priority patent/KR102182667B1/ko
Priority to CN201780035890.1A priority patent/CN109313501A/zh
Publication of DE102016210288A1 publication Critical patent/DE102016210288A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • B60K35/235Head-up displays [HUD] with means for detecting the driver's gaze direction or eye points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/658Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the instruments being ergonomically adjustable to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/90Calibration of instruments, e.g. setting initial or reference parameters; Testing of instruments, e.g. detecting malfunction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/122Instrument input devices with reconfigurable control functions, e.g. reconfigurable menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Eyetrackereinheit (19) einer Bedienvorrichtung (15), wobei mittels der Bedienvorrichtung (15) zumindest ein Gerät in Abhängigkeit von zumindest einer Benutzereingabe gesteuert wird und wobei bei dem Verfahren durch eine Steuereinheit der Bedienvorrichtung (15) in zumindest einem vorbestimmten Nutzungsschritt (29) der Bedienvorrichtung (15) jeweils zumindest ein graphisches Element (33) angezeigt wird und zumindest eine Blickrichtungsangabe (21) zu dem einen Bildschirm (18) betrachtenden Benutzer mittels der Eyetrackereinheit (19) ermittelt wird. Die Erfindung sieht vor, dass aus dem zumindest einen angezeigten Element (33) ein optisch salientes Element (33), welches der Benutzer zum erfolgreichen Durchführen des Nutzungsschrittes (29) mit den Augen fokussieren muss, festgelegt wird und in Abhängigkeit von einer Anzeigeposition des optisch salienten Elements (33) auf dem Bildschirm (18) und in Abhängigkeit von der zumindest einen Blickrichtungsangabe (21) Kalibrierdaten (28) zum Kalibrieren der Eyetrackereinheit (19) erzeugt werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung. Mittels der Bedienvorrichtung kann zumindest ein Gerät in Abhängigkeit von zumindest einer Benutzereingabe gesteuert werden. Zu der Erfindung gehört auch die Bedienvorrichtung zum Bedienen des zumindest einen Geräts. Die Bedienvorrichtung ist insbesondere für ein Kraftfahrzeug vorgesehen.
  • Mittels einer Eyetrackereinheit kann eine Blickrichtung eines Benutzers erfasst werden. So kann beispielsweise erkannt werden, welches Element auf einem Bildschirm ein Benutzer gerade fokussiert oder anblickt. Eine solche Eyetrackereinheit ist zum Beispiel aus der US 2015/0278599 A1 bekannt. Darin ist auch beschrieben, dass die Eyetrackereinheit kalibriert werden muss, damit aus den Blickrichtungsangaben der Eyetrackereinheit korrekt die Koordinaten des auf dem Bildschirm betrachteten oder fokussierten Blickpunkts berechnen zu können.
  • Ein Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung eines Kraftfahrzeugs ist zum Beispiel aus der DE 10 2014 008 852 A1 bekannt. Danach muss ein Benutzer einen Bildschirm betrachten, während seine Augen mittels eines Eyetrackingsystems gefilmt werden. Auf dem Bildschirm wird währenddessen ein graphisches Objekt angezeigt, zum Beispiel ein Kreuz. Es wird davon ausgegangen, dass der Benutzer dieses graphische Objekt mit den Augen fokussiert, sodass die Koordinaten des fokussierten Bereichs bekannt sind. Die währenddessen mittels des Eyetrackingsystems ermittelten Blickrichtungsangaben können somit auf die bekannten Koordinaten abgebildet oder transformiert werden.
  • Aus der WO 2014/020323 A1 ist bekannt, den von einem Benutzer auf einen Bildschirm aktuell fokussierten Punkt dadurch herauszufinden, dass ein Mauszeiger auf dem Bildschirm dargestellt wird, den ein Benutzer mit einer Computermaus bedienen muss. Wenn der Benutzer an der Computermaus eine Taste klickt, wird davon ausgegangen, dass er in diesem Moment auf den Mauszeiger am Bildschirm blickt. Es wird also davon ausgegangen, dass die von der Eyetrackereinheit bereitgestellte Blickrichtungsangabe in diesem Moment mit der Position des Mauszeigers übereinstimmt.
  • In einem Fachbeitrag von Perra et al. (David Perra, Rohit Kumar Gupta, Jan-Micheal Frahm, "Adaptive Eye-Camera Calibration for Head-Worn Devices", CVPR – IEEE Conference on Computer Vision and Pattern Recognition, 2015) ist für eine am Kopf getragene Kamera beschrieben, wie in einem Kamerabild einer Umgebung optisch saliente Elemente erkannt werden können, die ein Benutzer mit hoher Wahrscheinlichkeit fokussiert.
  • Üblicherweise wird die Nutzerkalibrierung einer Eyetrackereinheit durchgeführt, indem eine Reihe von definierten Kalibrierpunkten vom Nutzer der Reihe nach für eine kurze Zeit angeschaut werden müssen. Die Eyetrackereinheit detektiert während dieser Zeit die Blickrichtung des Nutzers und erzeugt entsprechende Blickrichtungsangaben. Diese können mit den bekannten Koordinaten der Kalibrierpunkte verglichen werden, um hieraus Kalibrierdaten zum Ausgleichen eines Unterschieds bereitzustellen oder zu erzeugen.
  • Diese Lösung einer aktiven Kalibrierung durch Darstellen von definierten Kalibrierpunkten kostet Zeit und hindert den Benutzer daran, sofort mit der eigentlichen Systeminteraktion, d.h. der Benutzung der Bedienvorrichtung zum Bedienen des zumindest einen Geräts, zu beginnen.
  • Der Erfindung liegt die Aufgabe zugrunde, eine Kalibrierung einer Eyetrackereinheit einer Benutzervorrichtung mit geringem Zeitaufwand durchzuführen.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren offenbart.
  • Durch die Erfindung ist ein Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung bereitgestellt. Mittels der Bedienvorrichtung kann zumindest ein Gerät in Abhängigkeit von zumindest einer Benutzereingabe gesteuert werden. Durch das Kalibrieren wird eine Transformationsvorschrift oder Zuordnungsfunktion zum Zuordnen von Blickrichtungsangaben der Eyetrackereinheit, welche von einer aktuellen Augenposition oder Blickrichtung des Benutzers abhängig sind, zu einer Koordinate eines Bildschirms (Displays) angepasst oder abgestimmt. Bei kalibrierter Eyetrackereinheit kann somit die besagte Benutzereingabe über die Blickrichtung erfolgen.
  • Bei dem Verfahren wird durch eine Steuereinheit der Bedienvorrichtung in zumindest einem vorbestimmten Nutzungsschritt der Bedienvorrichtung jeweils auf dem Bildschirm zumindest ein graphisches Element angezeigt.
  • Der Nutzungsschritt kann zum Beispiel vorsehen, dass der Benutzer eine Benutzereingabe an dem Bildschirm tätigt. Entsprechend kann als graphisches Element zum Beispiel ein graphisches Bedienelement zum Empfangen der zumindest einen Benutzereingabe für die Bedienung des zumindest einen Geräts angezeigt werden. Der Nutzungsschritt kann zusätzlich oder alternativ dazu auch darin bestehen, dass der Benutzer eine angezeigte Information erfasst oder betrachtet. Entsprechend kann das zumindest eine graphische Element auch zumindest ein Ausgabeelement umfassen, welches einen Gerätezustand des zumindest einen Geräts beschreibt, z.B. eine aktuelle Drehzahl eines Motors. Zusätzlich oder alternativ dazu kann der Nutzungsschritt darin bestehen, dass der Benutzer Informationen erhält, zum Beispiel einen Medieninhalt angezeigt bekommt. Ein solcher Medieninhalt kann zum Beispiel ein Bild oder eine Fotografie oder ein Video sein. Entsprechend kann das zumindest eine graphische Element zumindest ein Medienelement zum Ausgeben eines Medieninhalts umfassen.
  • Während des zumindest einen Nutzungsschritts wird auch zumindest eine Blickrichtungsangabe zu dem den Bildschirm betrachtenden Benutzer mittels der Eyetrackereinheit ermittelt oder erzeugt. Mit anderen Worten wird durch die Eyetrackereinheit beschrieben, wohin ein Blick des Benutzers ausgerichtet ist. Eine Blickrichtungsangabe kann entsprechend zum Beispiel Koordinaten eines durch die Eyetrackereinheit ermittelten Betrachtungspunkts auf dem Bildschirm oder ein Blickrichtungsvektor sein.
  • Zum Kalibrieren gehört zu der ermittelten Blickrichtungsangabe auch eine Angabe des tatsächlich betrachteten Bereichs oder der tatsächlich betrachteten Stelle, also z.B. Koordinaten eine Kalibrierpunkts. Indem bekannt ist, welchen Nutzungsschritt der Benutzer gerade an der Bedienvorrichtung ausführt, kann allgemein ermittelt werden, welches graphische Element der Benutzer gerade zumindest mit einer vorbestimmten Mindestwahrscheinlichkeit betrachtet. Bei dem erfindungsgemäßen Verfahren wird diese tatsächlich vom Benutzer betrachtete Stelle ermittelt, indem aus dem zumindest einen angezeigten Element ein optisch auffälliges oder deutliches oder salientes Element festgelegt wird, welches ein vorbestimmtes Salienzkriterium erfüllt und welches der Benutzer zum erfolgreichen Durchführen des Nutzungsschrittes mit den Augen fokussieren muss. Wann ein graphisches Element salient ist, kann auch von der graphischen Umgebung abhängen. Allgemein soll „optisch salient“ hier bedeuten, dass es den Blick des Benutzers auf sich zieht, weil es einen visuellen Anreiz bietet und/oder für den Benutzer momentan inhaltlich von Bedeutung und/oder Interesse ist.
  • In Abhängigkeit von einer Anzeigeposition des optisch salienten Elements auf dem Bildschirm und in Abhängigkeit von der zumindest einen Blickrichtungsangabe werden dann Kalibrierdaten zum Kalibrieren der Eyetrackereinheit erzeugt. Handelt es sich bei den Blickrichtungsangaben zum Beispiel jeweils um einen Vektor oder eine Koordinate, so können die Kalibrierdaten zum Beispiel einen Korrekturvektor vorsehen, mit welchem die unkalibrierte Blickrichtungsangabe kombiniert wird, um hierdurch die kalibrierte oder korrigierte Blickrichtungsangabe zu erhalten. Es kann auch vorgesehen sein, zumindest einen Parameter einer Transformation, wie sie an sich aus dem Stand der Technik bekannt ist, um aus Sensordaten der Eyetrackereinheit die Blickrichtungsangaben zu berechnen, derart angepasst werden, dass eine Differenz zwischen der zumindest einen Blickrichtungsangabe einerseits und der Anzeigeposition des optisch salienten Elements andererseits minimiert wird.
  • Durch das erfindungsgemäße Verfahren ergibt sich der Vorteil, dass der Benutzer die Bedienvorrichtung in dem zumindest einen vorbestimmten Nutzungsschritt benutzen kann und währenddessen die benötigten Kalibrierdaten zum Kalibrieren der Eyetrackereinheit erzeugt werden. Die Bedienvorrichtung steht somit unmittelbar zur Nutzung zur Verfügung.
  • Zu der Erfindung gehören auch optionale Weiterbildungen, durch deren Merkmale sich zusätzliche Vorteile ergeben.
  • Mehrere Weiterbildungen der Erfindung betreffen das Salienzkriterium, d.h. die Frage, wie aus mehreren angezeigten graphischen Elementen das optisch saliente Element ermittelt werden kann.
  • So kann vorgesehen sein, dass mehrere graphische Elemente angezeigt werden, zum Beispiel mehrere Ausgabeelemente zum Beschreiben unterschiedlicher Gerätezustände oder mehrere Medienelemente zum Beispiel zum Beschreiben der Bedienvorrichtung im Rahmen eines Tutorials. Die mehreren grafischen Elemente werden dabei derart angezeigt, dass einige zeitweise unscharf und/oder abgedunkelt und/oder nur in Graustufen angezeigt werden und nur ein einziges während des Nutzungsschritts scharf und/oder unverändert hell und/oder farbig und/oder durch ein Markierungselement optisch markiert und damit optisch salient dargestellt wird. In dem also nur ein einziges graphisches Element scharf/hell/farbig/markiert dargestellt wird und das übrige graphische Element oder die übrigen graphischen Elemente dagegen im Verhältnis zu einer sonstigen Darstellung zeitweise unscharf/abgedunkelt/in Graustufen dargestellt sind, ist davon auszugehen, dass der Benutzer das eine Element als optisch salient empfindet und fokussieren wird. Somit werden also die Wahrnehmungsreflexe des Menschen genutzt, um seine Aufmerksamkeit oder seinen Fokus oder Blick auf ein vorbestimmtes graphisches Element zu lenken oder zu ziehen.
  • Zusätzlich oder alternativ dazu kann bei mehreren angezeigten graphischen Elementen vorgesehen sein, dass diese zeitlich nacheinander erscheinend und/oder eines zur Zeit in einer jeweiligen Animation seiner Größe und/oder Form und/oder Position und/oder Lage verändernd angezeigt werden. Durch nacheinander Erscheinen-Lassen der graphischen Elemente ist davon auszugehen, dass das jeweils zuletzt erscheinende Element vom Benutzer als optisch salient empfunden wird und mit dem Blick fokussiert wird. Indem ein graphisches Element animiert wird, wirkt es ebenfalls als optisch salient. Indem hierbei dessen Größe verändert wird, kann die Fläche, innerhalb welcher der Benutzer den Blick-Fokus hält, gezielt gesteuert werden. So kann ein kleiner werdendes oder größer werdendes Element den Fokus des Benutzers gezielt führen. Durch Verändern der Position kann eine Folge von Blickrichtungsangaben erzeugt werden, die eine Spur auf eine Anzeigefläche des Bildschirms beschreiben. Falls ungenügend Platz zum Verändern der Position vorhanden ist, kann durch Verändern der Lage des graphischen Elements, also zum Beispiel durch Rotieren, ebenfalls eine Bewegung oder Animation erreicht werden.
  • Eine weitere Möglichkeit, aus mehreren graphischen Elementen ein optisch salientes Element zu ermitteln, besteht darin, dass ermittelt wird, welches der angezeigten Elemente einen größten, nach dem Salienzkriterium ermittelten Salienzwert aufweist und das Element mit dem größten Salienzwert als optisch salientes Element festgelegt wird. Zum Ermitteln eines Salienzwerts kann zum Beispiel zu jedem graphischen Element jeweils folgende Kenngröße ermittelt werden: eine Anzahl und/oder Länge von Kontrastkanten, entlang welchen ein vorbestimmter Mindestkontrast vorhanden ist; ein an sich bekanntes Maß für den im graphischen Element vorhandenen Farbkontrast; ein an sich bekanntes Maß für den Farbkontrast zwischen dem graphischen Element und einer angrenzenden Umgebung des graphischen Elements. Welchen Einfluss die jeweiligen Eigenschaften eines graphischen Elements auf den Salienzwert haben, kann durch einfache Versuche mit Testpersonen ermittelt werden, indem zum Beispiel mehrere graphische Elemente, die sich im Wert zumindest einer Kenngröße (z.B. Kontrast, Form) unterscheiden, von den Testpersonen gemäß der empfundenen Salienz geordnet werden. Durch Ermitteln eines Salienzwerts ergibt sich der Vorteil, dass ein optisch salientes Element aus mehreren angezeigten graphischen Elementen auch dann ermittelt werden kann, wenn kein fester Ablauf des Nutzungsschrittes vorliegt. Dies kann zum Beispiel bei der Betrachtung von Medieninhalten, wie z.B. Bildern oder Fotografieren oder Videos, der Fall sein, wenn durch zumindest ein Medienelement jeweils ein solcher Medieninhalt angezeigt wird und innerhalb des Medieninhalts ein optisch salientes Element ermittelt werden soll.
  • Falls der Ablauf des Nutzungsschrittes vorgegeben ist, also eine Reihenfolge der zu bedienenden oder zu betrachtenden graphischen Elemente bekannt ist, so kann das jeweils nächste zu bedienende und/oder zu betrachtende graphische Element jeweils im Voraus als optisches salientes Element festgelegt werden, wenn zum Beispiel detektiert oder erkannt wurde, dass das vorangegangene optisch saliente Element vom Benutzer bedient und/oder betrachtet wurde. Das nächste Element ist dann optisch salient, weil es vom Benutzer aktiv mit dem Blick gesucht wird.
  • Besonders bevorzugt ist es, nur ein einziges graphisches Element zur Zeit anzuzeigen, das dann als optisch salientes Element festgelegt wird. Dies ist insbesondere für den Fall vorgesehen, dass nur ein einziges Bedienelement zum Empfangen einer Benutzereingabe angezeigt wird. Dies kann zum Beispiel vorgesehen sein, wenn in einem Nutzungsschritt der Benutzer sich bei der Bedienvorrichtung einloggen oder anmelden soll und hierzu zum Beispiel mit dem Finger auf einem Touchscreen (Berührungsbildschirm) einen Schieber bewegen muss.
  • Im Zusammenhang mit einem vorgegebenen Ablauf eines Nutzungsschrittes, bei dem nacheinander mehrere graphische Elemente vom Benutzer fokussiert werden müssen, muss erkannt werden, wann der Benutzer ein bestimmtes graphisches Element fertig betrachtet hat und zum nächsten graphischen Element wechselt. Auch in einem anderen Fall, selbst wenn nur ein einziges graphisches Element angezeigt wird, fixiert oder fokussiert der Benutzer mit seinem Blick das optisch saliente Element von Anfang an und/oder nicht durchgehend oder dauerhaft. Um diejenigen Blickrichtungsangaben zu ermitteln, die zu dem Zeitraum des Fixierens oder Fokussierens des optisch salienten Elements gehören, ist bevorzugt vorgesehen, dass anhand der zumindest einen Blickrichtungsangabe der Eyetrackereinheit ein Verweilen eines Blicks des Benutzers innerhalb eines Fokussierbereichs mit einer vorbestimmten Bereichsgröße für mehr als eine vorbestimmte Mindestzeitdauer erkannt wird. Ändern sich also die Blickrichtungsangaben, die durch die Eyetrackereinheit nacheinander erzeugt werden, derart geringfügig, dass alle Koordinaten der Blickrichtungsangaben innerhalb des Fokussierbereichs mit vorbestimmter Bereichsgröße liegen, und dauert dieser Zustand für mindestens die vorbestimmte Mindestzeitdauer an, so werden bei Erkennen dieses Verweilens die Kalibrierdaten aus den Blickrichtungsangaben, die während des Verweilens ermittelt wurden, erzeugt. Hier kann davon ausgegangen werden, dass der Benutzer ein graphisches Element fokussiert hat.
  • Es wird dabei zugrunde gelegt, dass das optisch saliente Element fokussiert wurde. Falls es sich um ein einziges graphisches Element handelt, dass angezeigt wurde, so kann dieses graphische Element mit hoher Wahrscheinlichkeit ausgewählt werden. Es kann auch das dem Fokussierbereich nächstliegende, angezeigte graphische Element als optisch salientes Element festgelegt werden, was eine weitere Ausführungsform des Salienzkriteriums ist.
  • Hierbei kann es aber auch vorkommen, dass der Benutzer während des Verweilens ein Objekt betrachtet, das sich neben dem Bildschirm befindet. Um sicherzustellen, dass überhaupt ein Element auf dem Bildschirm fokussiert ist, kann Folgendes vorgesehen sein. Anhand vorbestimmter Start-Kalibrierdaten oder Ausgangs-Kalibrierdaten oder Default-Kalibrierdaten kann zumindest eine vorläufig kalibrierte Blickrichtungsangabe berechnet werden. Nur zumindest eine solche Blickrichtungsangabe wird zum Erzeugen der finalen Konfigurationsdaten genutzt, die Koordinaten entsprechen, die ein vorbestimmtes Plausibilisierungskriterium erfüllen. Man geht hierbei davon aus, dass die Default-Kalibrierdaten eine vorbestimmte Höchstabweichung unterschreiten und somit die Koordinaten, die mittels der Default-Kalibrierdaten erzeugt wurden, auf einem Punkt zeigen, der einen Abstand kleiner als ein vorbestimmter Höchstabstand von dem tatsächlich fokussierten Punkt auf dem Bildschirm aufweist. Es kann und zum Beispiel dann vorgesehen sein, in der beschriebenen Weise als optisch salientes Element dasjenige graphische Element auszuwählen, das den Koordinaten am nächsten liegt.
  • Das Plausibilisierungskriterium kann nun besagen, dass die Blickrichtungsangaben nicht verwendet werden sollen oder unplausibel sind, falls der auf der Grundlage der Default-Kalibrierdaten ermittelte Abstand zu jedem angezeigten graphischen Element größer als ein vorbestimmter Mindestabstand ist.
  • Die während des Verweilens ermittelten Blickrichtungsangaben beschreiben also eine Punktwolke aus mehreren fokussierten Punkten. Mittels einer Methode der kleinsten Fehlerquadrate oder mittels eines RANSAC-Algorithmus kann dann zum Beispiel daraus als Kalibrierdaten ein einzelner Korrekturvektor erzeugt oder berechnet werden.
  • Falls mehrere Blickrichtungsangaben aus der Eyetrackereinheit empfangen werden, kann das Plausibilisierungskriterium umfassen, dass bei einem Wechsel und/oder einer Bewegung des optisch salienten Elements die Koordinaten aller als plausibel anerkannten Blickrichtungsangaben der relativen Positionsänderung entsprechen müssen, d.h. es werden nur entsprechende Blickrichtungsangaben ausgewählt. Durch die Bewegung des optisch salienten Elements ergibt sich eine relative Positionsänderung zwischen den jeweiligen aufeinander folgenden Darstellungen. Es kann also zum Beispiel eine Abfolge aus zumindest zwei unterschiedlichen optisch salienten Elemente dargestellt werden, die unterschiedliche Positionen auf dem Bildschirm aufweisen. Folgt der Benutzer mit dem Auge diesen optisch salienten Elementen, so werden nur solche Blickrichtungsangaben ausgewählt, die Koordinaten auf dem Bildschirm beschreiben, die dem Wechsel zwischen den optisch salienten Elementen relativ entsprechen, also die gleiche relative Positionsänderung beschreiben, wie sie sich durch den Wechsel des optisch salienten Elements ergeben. Falls ein einzelnes optisch salientes Element bewegt wird, so werden nur solche Blickrichtungsangaben ausgewählt, die Koordinaten auf dem Bildschirm beschreiben, die der relativen Positionsänderung, d.h. der Bewegung des optisch salienten Elements entsprechen, also diese Bewegung beschreiben. Hierbei kann sich natürlich aufgrund der fehlenden finalen Kalibrierung ein Offset oder Versatz ergeben, der dann mittels der erzeugten Kalibrierdaten ausgeglichen werden kann.
  • Falls der Bildschirm der Touchscreen ist und der Benutzer den Bildschirm berührt, kann ebenfalls mit großer Sicherheit davon ausgegangen werden, dass der Benutzer den Blick dabei auf die Berührstelle ausgerichtet hat. Wird mittels eines solchen Touchscreens die zumindest eine Benutzereingabe als Berührereignis erkannt, so wird bevorzugt bei erkanntem Berührereignis die jeweils vor und/oder während und/oder nach dem Berührereignis erzeugte Blickrichtungsangabe für die Kalibrierdaten verwendet. Zusätzlich oder alternativ dazu werden Bildschirm-Koordinaten des berührten graphischen Elements und/oder Berührkoordinaten des Berührereignisses zum Erzeugen der Kalibrierdaten zugrunde gelegt. Mit anderen Worten kann direkt aus dem Berührereignis und dessen Koordinaten auf dem Bildschirm bzw. den Koordinaten des durch das Berührereignis berührten graphischen Elements eine jeweilige Soll-Angabe für die Blickrichtung oder den fokussierten Bereich auf dem Bildschirm vorgegeben werden, d.h. ein Kalibrierpunkt definiert werden. Des Weiteren können all diejenigen Blickrichtungsangaben genutzt werden, die mit dem Berührereignis in Verbindung stehen, also innerhalb eines vorbestimmten Zeitraums oder innerhalb einer vorbestimmten Zeitdauer vor und/oder nach dem Berührereignis ermittelten Blickrichtungsangaben sowie während des Berührereignisses ermittelte Blickrichtungsangaben.
  • Um gezielt ein optisch salientes Element zum Empfangen eines Berührereignisses darzubieten, kann eine Bedienfläche zum Eingeben einer Tastbetätigung, also zum Beispiel ein sogenannter Button einer graphischen Benutzerschnittstelle (GUI – Graphical User Interface) und/oder eine Tastatur zum Empfangen einer Zeichenfolge angezeigt werden. Wird dann diese Bedienfläche berührt, ergibt sich also ein Berührereignis, so kann die jeweilige Koordinate der Bedienfläche oder der jeweiligen Taste der Tastatur zum Erzeugen der Kalibrierdaten zugrunde gelegt werden.
  • Es kann auch als graphisches Bedienelement ein Schiebelement zum Eingeben einer Wischgeste angezeigt werden. Die Wischgeste erfolgt hierbei entlang einer Bewegungslinie. Entsprechend können mehrere, einen Bewegungsverlauf entlang der Bewegungslinie beschreibende Blickrichtungsangaben empfangen und zum Erzeugen der Kalibrierdaten genutzt werden. Es wird davon ausgegangen, dass der Benutzer beim Ausführen der Wischgeste an den Bildschirm mit den Augen oder mit dem Blick seinem Finger oder einem anderen Eingabeobjekt folgt, mit welchem die Wischgeste ausgeführt wird. Es kann dann zum Beispiel auch das besagte Plausibilitätskriterium zugrunde gelegt werden, welches angibt, dass nur solche Blickrichtungsangaben genutzt werden, welche der Bewegung oder dem Bewegungsverlauf der Wischgeste entsprechen.
  • Im Zusammenhang mit dem Anzeigen eines Medienelements kann vorgesehen sein, dass als Medienelement ein Video mit einer Bedienungsanleitung für die Bedienvorrichtung und/oder das zumindest eine Gerät angezeigt wird. Es wird also ein sogenanntes Tutorial für die Bedienvorrichtung angezeigt oder präsentiert. Zu zumindest einem Zeitpunkt wird als jeweiliges optisch salientes Element ein momentan in dem Video angezeigtes und durch eine Sprachausgabe erklärtes und/oder in dem Video optisch hervorgehobenes graphisches Element festgelegt. Wird also zum Beispiel gerade ein Drehzahlanzeiger eines Kombiinstruments eines Kraftfahrzeugs erklärt, so ist davon auszugehen, dass der Benutzer einen in dem Video gezeigten Drehzahlanzeige mit dem Blick fokussiert.
  • Das Verfahren kann das Erzeugen von Kalibrierdaten zu einem einzelnen Nutzungsschritt oder zu mehreren Nutzungsschritten vorsehen. Werden mehreren Nutzungsschritte hintereinander durchgeführt, so kann vorgesehen sein, dass jeweils Kalibrierdaten erzeugt werden und mit den Kalibrierdaten jedes Nutzungsschritts die Eyetrackereinheit iterativ kalibriert wird, also schrittweise mehrmals nacheinander. Hierdurch ist in vorteilhafter Weise verhindert, dass bei fehlerhaft erzeugten Kalibrierdaten die Nutzung der Eyetrackereinheit unmöglich wird. Es kann vorgesehen sein, dass eine Veränderung der in einem Nutzungsschritt iterativ angepassten Kalibrierdaten kleiner als ein vorbestimmter Höchstwert gehalten wird, also die Auswirkung der Kalibrierdaten eines einzelnen Nutzungsschrittes begrenzt sind. Durch iteratives Kalibrieren kann zum Beispiel auch erreicht werden, dass nach einem Nutzerwechsel die Eyetrackereinheit iterativ an den neuen Nutzer angepasst wird. Es kann auch vorgesehen sein, dass die Bedienung der Bedienvorrichtung mittels der Eyetrackereinheit zunächst gesperrt wird und erst nach einer vorbestimmten Anzahl von Nutzungsschritten und damit Kalibrierschritten freigeschaltet wird. Alternativ zu einer vorbestimmten Anzahl von Kalibrierschritten kann auch vorgesehen sein, dass eine sich nach einem Kalibrierschritt ergebende Veränderung der Kalibrierdaten ermittelt wird und die Bedienung freigeschaltet wird, falls die Änderung durch einen Kalibrierschritt kleiner als ein vorbestimmter Höchstwert ist. Dann kann davon ausgegangen werden, dass die Eyetrackereinheit ausreichend genau auf den Nutzer abgestimmt ist.
  • Um das erfindungsgemäße Verfahren durchzuführen ist eine erfindungsgemäße Bedienvorrichtung für ein Kraftfahrzeug bereitgestellt, welche die Eyetrackereinheit, den Bildschirm sowie eine Steuereinheit aufweist. Die Steuereinheit ist dazu eingerichtet, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Hierzu kann die Steuereinheit zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller aufweisen. Des Weiteren kann die Steuereinheit einen Programmcode aufweisen, der dazu eingerichtet ist, die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Steuereinheit gespeichert sein.
  • Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt:
  • 1 eine schematische Darstellung eines Kraftfahrzeugs mit einer Ausführungsform der erfindungsgemäßen Bedienvorrichtung;
  • 2 eine schematische Darstellung eines Anzeigeinhalts, der zu einem Nutzungsschritt der Bedienvorrichtung gehört und zugleich zum Erzeugen von Kalibrierdaten gemäß einer Ausführungsform des erfindungsgemäßen Verfahrens genutzt wird; und
  • 3 eine schematische Darstellung eines Anzeigeinhalts eines weiteren Nutzungsschritts, der zugleich zum Erzeugen von Kalibrierdaten gemäß einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens genutzt wird.
  • Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind.
  • Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
  • 1 zeigt aus einer Vogelperspektive eine Teilansicht eines Kraftfahrzeugs 10, bei dem es sich zum Beispiel um einen Kraftwagen, insbesondere einen Personenkraftwagen oder Lastkraftwagen handeln kann. Zur Orientierung sind von dem Kraftfahrzeug 10 Vorderräder 11, ein Fahrersitz 12, ein Lenkrad 13 und eine Mittelkonsole 14 dargestellt.
  • In dem Kraftfahrzeug 10 kann eine Bedienvorrichtung 15 bereitgestellt sein, mittels welcher zumindest ein Gerät 16 des Kraftfahrzeugs 10 bedient werden kann. Die Bedienvorrichtung 15 kann zum Beispiel Bestandteil eines Infotainmentsystems (Information-Unterhaltungssystem) des Kraftfahrzeugs 10 sein. Bei dem zumindest einen Gerät 16 kann es sich zum Beispiel um ein Radio und/oder Telefon und/oder Navigationssystem und/oder eine Klimatisierungseinrichtung und/oder ein Medienwiedergabegerät für Video und/oder Audio-Dateien handeln. Die Bedienvorrichtung 15 kann eine Steuereinheit 17, einen Touchscreen 18 und eine Eyetrackereinheit 19 aufweisen. Der Touchscreen 18 stellt einen Bildschirm dar. Der Touchscreen 18 kann zum Beispiel in der Mittelkonsole 14 des Kraftfahrzeugs angeordnet sein. Anstelle eines Touchscreens kann auch ein z.B. eine Kopfoben-Anzeige (Head-up-Display) oder eine nicht-berührungssensitiver Bildschirm bereitgestellt sein.
  • Ein Erfassungsbereich 20 der Eyetrackereinheit 19 kann zum Beispiel auf den Fahrersitzt 12 ausgerichtet sein, sodass eine Blickrichtung eines Fahrers erfasst werden kann. Der Touchscreen 18 und die Eyetrackereinheit 19 können jeweils in aus dem Stand der Technik bekannter Weise ausgestaltet sein. Im Betrieb kann die Eyetrackereinheit 19 Blickrichtungsangaben 21 erzeugen und an die Steuereinheit 17 ausgeben. Die Steuereinheit 17 kann Grafikdaten 22 zum Steuern eines Anzeigeinhalts 23 an den Touchscreen 18 ausgeben. Des Weiteren kann die Steuereinheit 17 von dem Touchscreen 18 Berührdaten 24 empfangen, welche Koordinaten eines Berührereignisses 25 auf dem Touchscreen 18 beschreiben können. Ein Berührereignis 25 kann zum Beispiel eine Berührung einer Anzeigefläche des Touchscreens 18 durch einen Finger eines Benutzers, zum Beispiel des Fahrers, sein.
  • Damit anhand der Blickrichtungsangaben 21 erkannt werden kann, welchen Teil oder wo auf dem Anzeigeinhalt 23 der Benutzer seinen Blick gerichtet hat, ist durch die Steuereinheit 17 eine Transformation oder Abbildung 26 vorgesehen, welche die Blickrichtungsangaben 21 in Koordinaten 27 wandelt, welche den Schnittpunkt eines Blickrichtungsvektors des Blickes des Benutzers mit dem Anzeigeinhalt 23 auf der Anzeigefläche des Touchscreens 18 beschreiben. Hierzu muss die Transformation 26 mittels Konfigurationsdaten 28 angepasst sein, wie dies an sich aus dem Stand der Technik bekannt ist. Durch die Steuereinheit 17 wird die Kalibrierung allerdings nicht in einem separaten Kalibrierverfahren oder Kalibrierschritt durchgeführt, für welches der Benutzer die Bedienvorrichtung 18 für keinen anderen Verwendungszweck nutzen kann. Stattdessen wird ein Nutzungsschritt der Bedienvorrichtung 15 zusätzlich dazu genutzt, Kalibrierdaten 28 zu erzeugen.
  • In 2 ist dies anhand eines Nutzungsschritts 29 gezeigt, der einen sogenannten an Unlock vorsieht, bei welchem der Benutzer mittels eines Bedienen Objekts 30, beispielsweise seines Fingers, auf dem Touchscreen 18 eine Wischgeste 31 entlang einer Bewegungsbahn 32 ausführen muss, um zum Beispiel ein Bedienmenü der Bedienvorrichtung 15 auf dem Touchscreen 18 angezeigt zu bekommen. Als Orientierung ist dem Benutzer ein graphisches Element 33 durch die Steuereinheit 17 auf dem Touchscreen 18 angezeigt. Das graphische Element 33 ist ein Bedienelement, das der Benutzer mit dem Bedienobjekt 30 berühren muss und entlang der Bewegungsbahn 32 ziehen muss. Hierdurch führt er implizit die Wischgeste 31 aus. Dabei wird die Annahme getroffen, dass der Nutzer in diesem Moment auch seinen Fokus des Blickes auf der ausgeführten Bewegung hat. Somit kann eine Anpassung zwischen tatsächlich erkanntem und durch die Blickrichtungsangaben 21 signalisiertem Fokus und dem geschätzten Fokus in Form der Position oder Koordinaten des Elements 33 auf dem Touchscreen 18 vorgenommen werden. Genauso können dem Benutzer bestimmte Bedienflächen oder Buttons oder Slider zur Betätigung angezeigt werden (nicht dargestellt). Auch hier ist anzunehmen, dass der Nutzer seinen Fokus im Augenblick der Ausführung der Bedienhandlung auf dem jeweiligen Interaktionselement, das heißt dem graphischen Bedienelement, hat. Aufbauend auf dieser Grundlage lässt sich technisch ein Versatz bzw. eine Abweichung zwischen dem tatsächlichen Nutzerfokus (auf das jeweilige graphische Element 33 gerichtet) und dem gerade von der Eyetrackereinheit ermittelten Blickrichtungsangabe 21 berechnen und mittels der Konfigurationsdaten 28 ausgleichen.
  • Generell lässt sich dieser Ansatz auf beliebige graphische Elemente einer graphischen Benutzerschnittstelle GUI beziehen. In einer bevorzugten optimalen Anwendung wird nur ein einzelnes Element auf dem Bildschirm angezeigt (siehe 2).
  • Erkennt die Bedienvorrichtung 15 anhand eines Verweilens der Blickrichtung auf einem bestimmten Punkt oder innerhalb eines begrenzten Rahmens den Nutzerfokus, kann hier unter der Annahme, dass der Benutzer gerade auf ein einziges angezeigtes Element blickt, die Differenz zwischen dem Fokus und der Position dieses Elements direkt und mittels der Kalibrierdaten 28 angepasst oder ausgeglichen werden.
  • Dabei erfolgt die Berechnung und Anpassung aufgrund der kurz vor und/oder nach einem Berührereignis 25 erkannten Blickpunkten. Mithilfe mathematischer Verfahren, die an sich aus dem Stand der Technik bekannt sind, werden diese dann auf die feststehende Position des angezeigten graphischen Elements kalibriert.
  • Somit ist bei der Bedienvorrichtung die Kalibrierung vor dem Nutzer verborgen und nicht wahrnehmbar durchgeführt, während er bestimmte Bedienabläufe oder Nutzungsschritte 29 ausführt.
  • Da aber nicht auszuschließen ist, dass der Nutzer auch zeitweise außerhalb des gewünschten und angezeigten Bereiches blickt, werden die Messwerte bevorzugt plausibilisiert. Optimiert werden kann die Vorgehensweise noch, indem präsentierte Elemente zunächst sehr klein dargestellt werden und danach auf eine vorbestimmte, finale Größe gezoomt werden. Die Bedienung eines Sliders erlaubt sogar die Auswertung des Nutzerfokus entlang einer klar definierten Linie oder Bewegungsbahn 32 (Sliderverlauf). Dies liefert zum einen präzisere Ergebnisse, da sich die Messwerte zunächst auf einer viel kleineren Fläche konzentrieren, und erhöht zum anderen auch die Wahrscheinlichkeit, dass der Nutzer auf das Element 33 blickt, da mehr Animation seine Aufmerksamkeit einfordert.
  • Eine weitere Ausführungsform ist in 3 veranschaulicht, bei welcher die aktive Kalibrierung vor dem Nutzer verborgen und nicht wahrnehmbar durchgeführt wird. Hierzu ist in 3 über der Zeit t zu drei aufeinander folgenden Zeitschritten T1, T2, T3 jeweils der Anzeigeinhalt 23 des Touchscreens 18 veranschaulicht, während als ein Medienelement ein Video mit einem Tutorial geführt wird, welches dem Nutzer das z.B. Zielsystem erläutert. Dieses kann beliebig, dem Anwendungsfall angepasst gestaltet werden. So kann z.B. eine GUI-Applikation erläutert werden, welche auf einem Kacheldesign basiert. Beim ersten Systemstart gelangt der Nutzer zunächst in das Tutorial, in welchem ihm die Möglichkeiten der Bedienvorrichtung präsentiert werden. Die GUI-Oberfläche wird zunächst nicht angezeigt, sondern nach und nach in den Zeitschritten T1, T2, T3 aufgebaut. Es werden Kacheln in beliebiger Reihenfolge eingeblendet und mit ein paar Worten akustisch vorgestellt. Es ist sehr wahrscheinlich, dass der Nutzer beim Einblenden der jeweils neuen Kachel 34 auf diese blickt. Werden in dieser Zeit Messwerte der Eyetrackereinheit als Blickrichtungsangaben 21 aufgezeichnet, so kann anhand dieser in Verbindung mit der Kachelposition eine Default-Kalibrierung oder Standard-Kalibrierung 35 angepasst werden.
  • Da auch hier nicht auszuschließen ist, dass der Nutzer auch mal eine Kachel nicht anblickt, müssen die Messwerte plausibilisiert werden. Dies ist möglich, da mithilfe der Default-Kalibrierung 35 zwar keine absolute Position des Blicks auf dem Anzeigeinhalt 23 der GUI ermittelt werden kann, jedoch relative Positionen zueinander. Lagen zum Beispiel zwei präsentierte Kacheln 34 nebeneinander, so müssen auch die aufgezeichneten Blickdaten der Blickrichtungsangaben 21 nebeneinander liegen. Nicht plausible Werte können verworfen und bei der Kalibrierung vernachlässigt werden.
  • Optimiert werden kann die vorgestellte Vorgehensweise noch, indem präsentierte Kacheln zunächst sehr klein dargestellt werden und nach kurzer Zeit auf die finale Größe gezoomt werden. Dies liefert zum einen präzisere Ergebnisse, da sich die Messwerte zunächst auf einer viel kleineren Fläche konzentrieren, und erhöht zum anderen auch die Wahrscheinlichkeit, dass der Nutzer auf die Kachel blickt, da mehr Animation seine Aufmerksamkeit einfordert.
  • Ebenfalls kann durch Ausblenden und/oder Abdunkeln bereits vorgestellter Kacheln 34 die Ablenkung des Nutzers reduziert und seine Aufmerksamkeit auf die aktuell präsentierte Kachel gelenkt werden. Dies ist in 3 durch eine gestrichelte Darstellung der bereits zum vorangegangenen Zeitschritt T1, T2 angezeigten Kacheln 34 veranschaulicht.
  • Statt eines komplett leeren Anzeigeinhalts 23 der GUI zum Systemstart, welche sich erst nach und nach befüllt, kann diese auch schon zu Beginn vollständig vorhanden sein, jedoch mit abgedunkelten und/oder verschwommenen Inhalten. Die aktuell präsentierte Kachel würde hervorgehoben und anschließend wieder abgedunkelt werden.
  • Während die Bedienvorrichtung läuft, kann kontinuierlich kalibriert und nachkalibriert werden, ohne dass der Nutzer in der Programmnutzung beeinträchtigt wird. Hierzu kann die betrachtete Oberfläche mit dem Anzeigeinhalt 23 analysiert und auf markante Punkte hin untersucht werden. Dies kann entweder automatisiert während des Betriebs oder bei bekannter Darstellung der Anzeigeinhalte 23 im Voraus durchgeführt werden. Auf die so ermittelten Punkte wird sich im Programmablauf des Nutzungsschritts (zum Beispiel des Nutzungsschritts 29 in 2) die Aufmerksamkeit des Nutzers konzentrieren. Über einen definierten Zeitraum werden Blickdaten als Blickrichtungsangaben 21 gesammelt und als Punktwolke interpretiert. Es wird eine Transformation bestimmt, welche diese Punktwolke fehlerminimierend auf die zuvor ermittelten Punkte matcht oder abbildet. Diese Transformation kann direkt zur Kalibrierungskorrektur der Default-Kalibrierung 35 der Eyetrackereinheit genutzt werden. Des Weiteren kann die Kalibrierung dynamisch zur Laufzeit angepasst werden – wenn sich zum Beispiel der Aufbau ändert oder der Nutzer wechselt – da sie kontinuierlich während der Programmnutzung abläuft.
  • Die Bedienvorrichtung 15 vermeidet somit die aktive Nutzerkalibrierung, welche im Allgemeinen als störend empfunden wird. Des Weiteren wird die Eyetrackereinheit 19 bevorzugt nicht nur einmal zu Beginn kalibriert, was dann keinen Setup- oder Nutzenwechsel mehr ohne Neukalibrierung erlaubt, sondern passt sich adaptiv sich verändernden Verhältnissen an. So kann sich das System bei Nutzerwechsel adaptiv anpassen.
  • Typischerweise enthält eine GUI Bereiche, die vom Nutzer vermehrt angeschaut und auch einige Zeit fixiert werden. Dies können zum Beispiel Button oder Slider sein. Diese Features werden als Interest-Points (Aufmerksamkeits-Punkte) definiert und im Vorfeld festgelegt. lm weiteren Verlauf werden diese Punkte mit ihrer bekannten Anzeigeposition als Kalibrierpunkte genutzt. Wie oben beschreiben bedient der Nutzer die GUI wie gewünscht, nicht zwangsläufig mit seinem Blick, sondern zum Beispiel auch mit einem Eingabeobjekt 30. Es werden während der Bedienung Blickdaten als Blickrichtungsangaben 21 gesammelt und wie oben beschrieben auf die definierten Kalibrierpunkte oder Interest-Points gematcht oder abgebildet, um die Default-Kalibrierung 35 zu korrigieren. Hierfür kann eine kleinste-Fehlerquadrate-Methode verwendet werden oder beispielsweise ein RANSAC-Algorithmus.
  • Es ist ebenfalls möglich, eine Kalibrierung beim Visualisieren von Inhalten durchzuführen, in denen nicht bereits im Vorfeld Features oder Interest-Points extrahiert werden können, wie zum Beispiel beim Betrachten von Fotos oder Videos. In diesem Fall würden Interest-Points mittels Bildverarbeitung auf der Grundlage eines Salienzkriteriums extrahiert werden.
  • Insgesamt zeigt das Beispiel, wie durch die Erfindung eine automatische Eye-Tracking-Kalibrierung bereitgestellt werden kann.
  • Bezugszeichenliste
  • 10
    Kraftfahrzeug
    11
    Vorderräder
    12
    Fahrersitz
    13
    Lenkrad
    14
    Mittelkonsole
    15
    Bedienvorrichtung
    16
    Gerät
    17
    Steuereinheit
    18
    Touchscreen
    19
    Eyetrackereinheit
    20
    Erfassungsbereich
    21
    Blickrichtungsangabe
    22
    Grafikdaten
    23
    Anzeigeinhalt
    24
    Berührdaten
    25
    Berührereignis
    26
    Transformation
    27
    Koordinaten
    28
    Kalibrierdaten
    29
    Nutzungsschritt
    30
    Eingabeobjekt
    31
    Wischgeste
    32
    Bewegungsbahn
    33
    Element
    34
    Kachel
    35
    Default-Kalibrierung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2015/0278599 A1 [0002]
    • DE 102014008852 A1 [0003]
    • WO 2014/020323 A1 [0004]
  • Zitierte Nicht-Patentliteratur
    • David Perra, Rohit Kumar Gupta, Jan-Micheal Frahm, “Adaptive Eye-Camera Calibration for Head-Worn Devices”, CVPR – IEEE Conference on Computer Vision and Pattern Recognition, 2015 [0005]

Claims (15)

  1. Verfahren zum Kalibrieren einer Eyetrackereinheit (19) einer Bedienvorrichtung (15), wobei mittels der Bedienvorrichtung (15) zumindest ein Gerät in Abhängigkeit von zumindest einer Benutzereingabe gesteuert wird und wobei bei dem Verfahren durch eine Steuereinheit der Bedienvorrichtung (15) in zumindest einem vorbestimmten Nutzungsschritt (29) der Bedienvorrichtung (15) jeweils: – auf einem Bildschirm (18) zumindest ein graphisches Bedienelement zum Empfangen der zumindest einen Benutzereingabe und/oder zumindest ein Ausgabeelement zum Beschreiben eines Gerätezustands des zumindest einen gesteuerten Geräts und/oder zumindest ein Medienelement zum Beschreiben eines Sachverhalts angezeigt wird, so dass während des Nutzungsschritts (29) zumindest ein graphisches Element (33) angezeigt wird, und – zumindest eine Blickrichtungsangabe (21) zu dem den Bildschirm (18) betrachtenden Benutzer mittels der Eyetrackereinheit (19) ermittelt wird, dadurch gekennzeichnet, dass aus dem zumindest einen angezeigten Element (33) ein optisch salientes Element (33), welches ein vorbestimmtes Salienzkriterium erfüllt und welches der Benutzer zum erfolgreichen Durchführen des Nutzungsschrittes (29) mit den Augen fokussieren muss, festgelegt wird und in Abhängigkeit von einer Anzeigeposition des optisch salienten Elements (33) auf dem Bildschirm (18) und in Abhängigkeit von der zumindest einen Blickrichtungsangabe (21) Kalibrierdaten (28) zum Kalibrieren der Eyetrackereinheit (19) erzeugt werden.
  2. Verfahren nach Anspruch 1, wobei mehrere graphische Elemente (33) angezeigt werden, von denen eines oder einige zeitweise unscharf und/oder abgedunkelt und/oder nur in Graustufen und nur ein einziges während des Nutzungsschritts (29) scharf und/oder unverändert hell und/oder farbig und/oder durch ein Markierungselement optisch markiert und hierdurch optisch salient dargestellt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei mehrere graphische Elemente (33) angezeigt werden und diese zeitlich nacheinander erscheinend und/oder eines zur Zeit in einer jeweiligen Animation seine Größe und/oder Form und/oder Position und/oder Lage verändernd angezeigt werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei mehrere graphische Elemente (33) angezeigt werden und ermittelt wird, welches der angezeigten Elemente (33) einen größten, nach dem Salienzkriterium ermittelten Salienzwert aufweist, und das Element (33) mit dem größten Salienzwert als optisch salientes Element (33) festgelegt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei vorgegebenem Ablauf eines Nutzungsschritts (29) das jeweils nächste zu bedienende und/oder zu betrachtende graphische Element (33) im Voraus als optisch salientes Element (33) festgelegt wird.
  6. Verfahren nach Anspruch 1, wobei nur ein einziges graphisches Element (33), insbesondere ein Bedienelement zum Empfangen der zumindest einen Benutzereingabe, angezeigt und als optisch salientes Element (33) festgelegt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei anhand der zumindest einen Blickrichtungsangabe (21) ein Verweilen eines Blicks des Benutzers innerhalb eines Fokussierbereichs mit einer vorbestimmten Bereichsgröße für mehr als eine vorbestimmte Mindestzeitdauer erkannt wird und bei Erkennen des Verweilens die Kalibrierdaten (28) aus Blickrichtungsangaben (21), die während des Verweilens ermittelt wurden, erzeugt werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei anhand vorbestimmter Default-Kalibrierdaten (35) zumindest eine vorläufig kalibrierte Blickrichtungsangabe berechnet wird und nur zumindest eine solche Blickrichtungsangabe (21) zum Erzeugen der Kalibrierdaten (28) genutzt wird, die Koordinaten (27) entsprechen, die ein vorbestimmtes Plausibilisierungskriterium erfüllen.
  9. Verfahren nach Anspruch 8, wobei mehrere Blickrichtungsangaben (21) empfangen werden das Plausibilisierungskriterium umfasst, dass bei einem Wechsel und/oder einer Bewegung des optisch salienten Elements (33) die Koordinaten (27) aller ausgewählten Blickrichtungsangaben (21) der relativen Positionsänderung entsprechen müssen.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Bildschirm (18) als Touchscreen ausgestaltet ist und mittels des Bildschirms (18) die zumindest eines Benutzereingabe als Berührereignis (25) erkannt wird und bei erkanntem Berührereignis (25) die jeweils vor und/oder während und/oder nach dem Berührereignis (25) erzeugte Blickrichtungsangabe (21) und/oder Koordinaten (27) des berührten graphischen Elements (33) auf dem Bildschirm (18) und/oder Berührkoordinaten des Berührereignisses (25) zum Erzeugen der Kalibrierdaten (28) zugrunde gelegt werden.
  11. Verfahren nach Anspruch 10, wobei eine Bedienfläche zum Eingeben einer Tastbetätigung und/oder eine Tastatur zum Empfangen einer Zeichenfolge angezeigt wird.
  12. Verfahren nach Anspruch 10 oder 11, wobei als graphisches Bedienelement ein Schiebelement zum Eingeben einer Wischgeste (31) entlang einer Bewegungslinie angezeigt wird und mehrere einen Bewegungsverlauf entlang der Bewegungslinie beschreibende Blickrichtungsangaben (21) empfangen und zum Erzeugen der Kalibrierdaten (28) genutzt werden.
  13. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Medienelement ein Video mit einer Bedienungsanleitung für die Bedienvorrichtung (15) und/oder das zumindest eine Geräte angezeigt wird und zu zumindest einem Zeitpunkt als jeweiliges optisch salientes Element (33) ein momentan in dem Video angezeigtes und durch eine Sprachausgabe erklärtes und/oder in dem Video optisch hervorgehobenes graphisches Element (33) festgelegt wird.
  14. Verfahren nach einem der vorhergehenden Ansprüche, wobei mehrere Nutzungsschritte (29) hintereinander durchgeführt werden und jeweils Kalibrierdaten (28) erzeugt werden und mit den Kalibrierdaten (28) jedes Nutzungsschritts (29) die Eyetrackereinheit (19) iterativ kalibriert wird.
  15. Bedienvorrichtung (15) für ein Kraftfahrzeug (10), aufweisend eine Eyetrackereinheit (19), einen Bildschirm (18) und eine Steuereinheit, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
DE102016210288.5A 2016-06-10 2016-06-10 Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung Pending DE102016210288A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102016210288.5A DE102016210288A1 (de) 2016-06-10 2016-06-10 Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
US16/307,918 US10635170B2 (en) 2016-06-10 2017-06-06 Operating device with eye tracker unit and method for calibrating an eye tracker unit of an operating device
PCT/EP2017/063698 WO2017211817A1 (de) 2016-06-10 2017-06-06 Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
KR1020187030197A KR102182667B1 (ko) 2016-06-10 2017-06-06 눈 트래커 유닛을 포함하는 조작 장치 및 조작 장치의 눈 트래커 유닛을 교정하기 위한 방법
CN201780035890.1A CN109313501A (zh) 2016-06-10 2017-06-06 具有眼动跟踪单元的操作装置和用于校准操作装置的眼动跟踪单元的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016210288.5A DE102016210288A1 (de) 2016-06-10 2016-06-10 Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung

Publications (1)

Publication Number Publication Date
DE102016210288A1 true DE102016210288A1 (de) 2017-12-14

Family

ID=59014639

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016210288.5A Pending DE102016210288A1 (de) 2016-06-10 2016-06-10 Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung

Country Status (5)

Country Link
US (1) US10635170B2 (de)
KR (1) KR102182667B1 (de)
CN (1) CN109313501A (de)
DE (1) DE102016210288A1 (de)
WO (1) WO2017211817A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017214513A1 (de) * 2017-08-21 2019-02-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
DE102018208402A1 (de) * 2018-05-28 2019-11-28 Bayerische Motoren Werke Aktiengesellschaft Funktionsüberprüfungssystem
DE112018006164B4 (de) * 2018-01-05 2021-05-12 Mitsubishi Electric Corporation Sichtlinienrichtungskalibrierungsvorrichtung, sichtlinienrichtungskalibrierungsverfahren und sichtlinienrichtungskalibrierungsprogramm
US11340461B2 (en) 2018-02-09 2022-05-24 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11537202B2 (en) 2019-01-16 2022-12-27 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US12140771B2 (en) 2020-02-19 2024-11-12 Pupil Labs Gmbh Eye tracking module and head-wearable device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016210288A1 (de) 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
US11782270B2 (en) * 2018-08-29 2023-10-10 Kyocera Corporation Head-up display, head-up display system, and mobile body
US10936057B2 (en) * 2019-04-09 2021-03-02 Samsung Electronics Co., Ltd. System and method for natural three-dimensional calibration for robust eye tracking
CN110248091B (zh) * 2019-06-12 2021-06-04 Oppo广东移动通信有限公司 焦距调整方法及相关产品
CN113762907B (zh) * 2020-10-13 2024-09-24 北京沃东天骏信息技术有限公司 一种审核对象的方法和装置
WO2025024138A1 (en) * 2023-07-27 2025-01-30 Microsoft Technology Licensing, Llc Autocalibration of gaze indicator

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012052061A1 (en) * 2010-10-22 2012-04-26 Institut für Rundfunktechnik GmbH Method and system for calibrating a gaze detector system
FR2989874A1 (fr) * 2012-04-25 2013-11-01 Thales Sa Procede de calibrage d'un oculometre et dispositif associe
WO2014020323A1 (en) 2012-07-30 2014-02-06 Haddon John Cursor movement device
US20140180619A1 (en) * 2012-12-21 2014-06-26 Tobii Technology Ab Hardware calibration of eye tracker
US20140191927A1 (en) * 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
US20140226131A1 (en) * 2013-02-14 2014-08-14 The Eye Tribe Aps Systems and methods of eye tracking calibration
US20140320397A1 (en) * 2011-10-27 2014-10-30 Mirametrix Inc. System and Method For Calibrating Eye Gaze Data
US20140361996A1 (en) * 2013-06-06 2014-12-11 Ibrahim Eden Calibrating eye tracking system by touch input
US20150092983A1 (en) * 2012-04-02 2015-04-02 Thomson Licensing Method for calibration free gaze tracking using low cost camera
DE102013019117A1 (de) * 2013-11-15 2015-05-21 Audi Ag Verfahren zum Kalibrieren einer Blickrichtungserfassungseinrichtung für ein Kraftfahrzeug, Kalibrierungseinrichtung und Kraftfahrzeug
US20150234461A1 (en) * 2014-02-18 2015-08-20 Sony Corporation Display control device, display control method and recording medium
US20150278599A1 (en) 2014-03-26 2015-10-01 Microsoft Corporation Eye gaze tracking based upon adaptive homography mapping
US20150302585A1 (en) * 2014-04-22 2015-10-22 Lenovo (Singapore) Pte. Ltd. Automatic gaze calibration
US20150316981A1 (en) * 2014-04-30 2015-11-05 Microsoft Corportion Gaze calibration
US20150331485A1 (en) * 2014-05-19 2015-11-19 Weerapan Wilairat Gaze detection calibration
DE102014008852A1 (de) 2014-06-14 2015-12-17 Audi Ag Kalibrierung eines Kraftfahrzeug-Eyetrackingsystems
US20160139665A1 (en) * 2014-11-14 2016-05-19 The Eye Tribe Aps Dynamic eye tracking calibration
DE102015204281A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt
DE112014006382T5 (de) * 2014-02-19 2016-11-24 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, Anzeigesteuerverfahren der Anzeigesteuervorrichtung, Augen-Blickrichtungs-Detektionssystem und Kalibrations-Steuerverfahren von Augen-Blickrichtungs-Detektionssystem

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4396430B2 (ja) * 2003-11-25 2010-01-13 セイコーエプソン株式会社 視線誘導情報生成システムおよび視線誘導情報生成プログラム、並びに視線誘導情報生成方法
GB2412431B (en) 2004-03-25 2007-11-07 Hewlett Packard Development Co Self-calibration for an eye tracker
CN101872237B (zh) * 2009-04-23 2012-04-18 由田新技股份有限公司 瞳孔追踪方法与系统及用于瞳孔追踪的校正方法与模组
US20100293460A1 (en) * 2009-05-14 2010-11-18 Budelli Joe G Text selection method and system based on gestures
EP2309307B1 (de) * 2009-10-08 2020-12-09 Tobii Technology AB Augenverfolgung mithilfe einer grafischen Prozessoreinheit
KR101709497B1 (ko) * 2010-07-29 2017-02-23 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8675966B2 (en) * 2011-09-29 2014-03-18 Hewlett-Packard Development Company, L.P. System and method for saliency map generation
AU2011253980B2 (en) * 2011-12-12 2014-05-29 Canon Kabushiki Kaisha Method, apparatus and system for identifying distracting elements in an image
US10635167B2 (en) 2013-05-30 2020-04-28 Umoove Services Ltd. Smooth pursuit gaze tracking
EP3008665A4 (de) * 2013-06-12 2017-03-08 3M Innovative Properties Company Präsentation von ergebnissen einer visuellen aufmerksamkeitsmodellierung
KR101532766B1 (ko) * 2013-08-16 2015-06-30 (주)뉴인 동적 레이어 기반의 컨텐츠 재생 시스템
EP2879018A1 (de) 2013-11-29 2015-06-03 Universiteit van Amsterdam Schätzung der Blickpunkt aus unkalibrierten Augenmesspunkten
DE102016210288A1 (de) 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012052061A1 (en) * 2010-10-22 2012-04-26 Institut für Rundfunktechnik GmbH Method and system for calibrating a gaze detector system
US20140320397A1 (en) * 2011-10-27 2014-10-30 Mirametrix Inc. System and Method For Calibrating Eye Gaze Data
US20150092983A1 (en) * 2012-04-02 2015-04-02 Thomson Licensing Method for calibration free gaze tracking using low cost camera
FR2989874A1 (fr) * 2012-04-25 2013-11-01 Thales Sa Procede de calibrage d'un oculometre et dispositif associe
WO2014020323A1 (en) 2012-07-30 2014-02-06 Haddon John Cursor movement device
US20140180619A1 (en) * 2012-12-21 2014-06-26 Tobii Technology Ab Hardware calibration of eye tracker
US20140191927A1 (en) * 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
US20140226131A1 (en) * 2013-02-14 2014-08-14 The Eye Tribe Aps Systems and methods of eye tracking calibration
US20140361996A1 (en) * 2013-06-06 2014-12-11 Ibrahim Eden Calibrating eye tracking system by touch input
DE102013019117A1 (de) * 2013-11-15 2015-05-21 Audi Ag Verfahren zum Kalibrieren einer Blickrichtungserfassungseinrichtung für ein Kraftfahrzeug, Kalibrierungseinrichtung und Kraftfahrzeug
US20150234461A1 (en) * 2014-02-18 2015-08-20 Sony Corporation Display control device, display control method and recording medium
DE112014006382T5 (de) * 2014-02-19 2016-11-24 Mitsubishi Electric Corporation Anzeigesteuervorrichtung, Anzeigesteuerverfahren der Anzeigesteuervorrichtung, Augen-Blickrichtungs-Detektionssystem und Kalibrations-Steuerverfahren von Augen-Blickrichtungs-Detektionssystem
US20150278599A1 (en) 2014-03-26 2015-10-01 Microsoft Corporation Eye gaze tracking based upon adaptive homography mapping
US20150302585A1 (en) * 2014-04-22 2015-10-22 Lenovo (Singapore) Pte. Ltd. Automatic gaze calibration
US20150316981A1 (en) * 2014-04-30 2015-11-05 Microsoft Corportion Gaze calibration
US20150331485A1 (en) * 2014-05-19 2015-11-19 Weerapan Wilairat Gaze detection calibration
DE102014008852A1 (de) 2014-06-14 2015-12-17 Audi Ag Kalibrierung eines Kraftfahrzeug-Eyetrackingsystems
US20160139665A1 (en) * 2014-11-14 2016-05-19 The Eye Tribe Aps Dynamic eye tracking calibration
DE102015204281A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
David Perra, Rohit Kumar Gupta, Jan-Micheal Frahm, "Adaptive Eye-Camera Calibration for Head-Worn Devices", CVPR – IEEE Conference on Computer Vision and Pattern Recognition, 2015

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017214513A1 (de) * 2017-08-21 2019-02-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems für ein Fahrzeug und Assistenzsystem
DE112018006164B4 (de) * 2018-01-05 2021-05-12 Mitsubishi Electric Corporation Sichtlinienrichtungskalibrierungsvorrichtung, sichtlinienrichtungskalibrierungsverfahren und sichtlinienrichtungskalibrierungsprogramm
US11340461B2 (en) 2018-02-09 2022-05-24 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
DE102018208402A1 (de) * 2018-05-28 2019-11-28 Bayerische Motoren Werke Aktiengesellschaft Funktionsüberprüfungssystem
US11537202B2 (en) 2019-01-16 2022-12-27 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US12154383B2 (en) 2019-06-05 2024-11-26 Pupil Labs Gmbh Methods, devices and systems for determining eye parameters
US12140771B2 (en) 2020-02-19 2024-11-12 Pupil Labs Gmbh Eye tracking module and head-wearable device

Also Published As

Publication number Publication date
KR20180122012A (ko) 2018-11-09
KR102182667B1 (ko) 2020-11-25
US10635170B2 (en) 2020-04-28
CN109313501A (zh) 2019-02-05
WO2017211817A1 (de) 2017-12-14
US20190265788A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
DE102016210288A1 (de) Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
DE102014009303B4 (de) Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
EP2745218A1 (de) Verfahren zum bedienen einer elektronischen einrichtung oder einer applikation und entsprechende vorrichtung
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE102011112448A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102015012720B4 (de) Interaktives Bediensystem und Verfahren zum Durchführen einer Bedienhandlung bei einem interaktiven Bediensystem
DE102018100196A1 (de) Verfahren zum Betreiben einer Mensch-Maschinen-Schnittstelle sowie Mensch-Maschinen-Schnittstelle
WO2016124473A1 (de) Verfahren zum auswählen eines bedienelements eines kraftfahrzeugs und bediensystem für ein kraftfahrzeug
DE112016006769T5 (de) Gebärdenspracheneingaben in eine Benutzerschnittstelle eines Fahrzeugs
DE102015006610B4 (de) Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille
DE102012219814A1 (de) Bereitstellen einer Bedienungseingabe unter Verwendung eines Head-mounted Displays
DE102012218155A1 (de) Erleichtern der Eingabe auf einer berührungsempfindlichen Anzeige in einem Fahrzeug
DE102016225262A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102015222682A1 (de) Verfahren zum Aktivieren eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
DE102007026120B4 (de) Verfahren zur selbsttätigen Steuerung eines Zeigerelements in graphischen Nutzerschnittstellen eines digitalen Bildinformationssystems
DE102013210587A1 (de) Anzeigensystem mit Datenbrille
WO2014114428A1 (de) Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system
DE102016003073A1 (de) Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
DE10144329A1 (de) Verfahren zum Bewegen und Positionieren eines Cursors auf einem Bildschirm sowie Vorrichtung zum Durchführen des Verfahrens
EP3025214A1 (de) Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102013216126A1 (de) Verfahren und Vorrichtung zur Aktivierung einer Funktion
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
AT520234B1 (de) Vorrichtung zur interaktiven Präsentation von visuellen Inhalten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication