-
Die Offenbarung betrifft ein System und Verfahren zur nutzerindividuellen Anpassung von Fahrzeugparametern. Die Offenbarung betrifft insbesondere ein System und Verfahren zur nutzerindividuellen Anpassung von Fahrzeugparametern zur Information von Nutzern eines Fahrzeugs, einschließlich Insassen automatisierter bzw. autonomer Kraftfahrzeuge. Die Anpassung von Fahrzeugparametern betrifft insbesondere durch Nutzer wahrgenommene bzw. wahrnehmbare Betriebsparameter des Fahrzeugs und/oder Fahrzeugparameter, die eine Information von Nutzern kennzeichnen.
-
Stand der Technik
-
Im Stand der Technik sind verschiedene Systeme bekannt, mit denen der Fahrer eines Fahrzeugs erfasst werden kann. Dabei werden typischerweise verschiedene Sensoren eingesetzt, beispielsweise Kameras oder Mikrofone, um den Fahrer oder dessen Verhalten, beispielsweise eine Bedienung des Fahrzeugs durch den Fahrer, zu erfassen.
-
Weiter können Sensoren eingesetzt werden, die eine physiologische Eigenschaft des Fahrers erfassen, beispielsweise eine Körpertemperatur oder Herzrate.
-
Darüber hinaus können spezielle Systeme ein oder mehrere der folgenden erfassen: eine Blickrichtung des Fahrers, Objekte in einer Umgebung um das Fahrzeug, oder eine Bereitschaft oder Fähigkeit des Fahrers, die Kontrolle über das Fahrzeug zu übernehmen. Zudem gibt es Anzeigesysteme, die mittels Projektion eine Anzeige im Sichtfeld des Fahrers ermöglichen (z.B. sog. „Head-Up“ Displays).
-
Die Erfassung von fahrerbezogenen Daten kann dazu eingesetzt werden, einen Gemütszustand des Fahrers zu ermitteln und gegebenenfalls zu beeinflussen.
-
Die Druckschrift
U.S. 2010/0134302 A1 beschreibt ein System und ein Verfahren zum Steuern der Emotion eines Autofahrers. Das System umfasst eine Erfassungseinheit, eine Steuereinheit und eine Emotionssteuereinheit. Die Erkennungseinheit erfasst Emotionsinformationen, einschließlich der Stimme, des Ausdrucks, der Geste, der Herzfrequenz und der Körpertemperatur des Autofahrers. Die Steuereinheit vergleicht die erfasste Emotionsinformation mit einer zuvor gespeicherten Referenz-Emotionsinformation des Autofahrers, um zu bestimmen, ob die Emotion des Autofahrers gesteuert werden soll, und gibt ein Steuersignal zur Steuerung der Emotion des Autofahrers gemäß einem Bestimmungsergebnis aus. Die Emotionssteuereinheit steuert die Emotion des Autofahrers gemäß dem Steuersignal der Steuereinheit.
-
Die Druckschrift
U.S. 2018/061415 A1 beschreibt Verfahren und Systeme zum Bestimmen einer Emotion eines menschlichen Fahrers eines Fahrzeugs und zum Verwenden der Emotion zum Erzeugen einer Fahrzeugreaktion. Das Verfahren umfasst das Erfassen eines Gesichts des menschlichen Fahrers durch eine Kamera des Fahrzeugs. Die Erfassung ist so konfiguriert, dass sie eine Vielzahl von Bildern über einen Zeitraum erfasst, und die Vielzahl von Bildern analysiert wird, um einen Gesichtsausdruck und Änderungen des Gesichtsausdrucks des menschlichen Fahrers über den Zeitraum zu identifizieren. Das Verfahren umfasst ferner das Erfassen einer Spracheingabe des menschlichen Fahrers durch ein Mikrofon des Fahrzeugs. Die Spracheingabe wird über den Zeitraum erfasst. Die Spracheingabe wird analysiert, um ein Sprachprofil und Änderungen des Sprachprofils des menschlichen Fahrers über die Zeitdauer zu identifizieren. Das Verfahren verarbeitet durch einen Prozessor des Fahrzeugs eine Kombination des Gesichtsausdrucks und des Stimmprofils, die während des Zeitraums erfasst werden, um die Emotion des menschlichen Fahrers vorherzusagen. Das Verfahren erzeugt die Fahrzeugantwort, die auf die Emotion des menschlichen Fahrers anspricht. Die Fahrzeugantwort ist konfiguriert, um mindestens eine Einstellung an einer Einstellung des Fahrzeugs vorzunehmen. Die Einstellung wird basierend auf der Emotion des menschlichen Fahrers ausgewählt. Die Fahrzeugreaktion kann verwendet werden, um den Fahrer ruhiger zu machen und/oder dazu beizutragen, abgelenktes Fahren zu reduzieren. Die Vorhersage der Emotion kann zusätzlich erhöht werden, indem Berührungs- und/oder Gestenmerkmale des menschlichen Fahrers erfasst und analysiert werden, wenn eine Schnittstelle mit einer grafischen Benutzeroberfläche oder Oberflächen des Fahrzeugs oder von Systemen des Fahrzeugs gebildet wird.
-
Die Erfassung von nutzerbezogenen Daten kann dazu eingesetzt werden, einen Gemütszustand des Nutzers eines elektronischen Gerätes zu ermitteln und darauf basierend eine Kommunikation mit dem Nutzer zu verbessern. Die Druckschrift
WO 2002/063599 A1 beschreibt ein Verfahren, das zur Durchführung von Fokuserkennung, Mehrdeutigkeitsauflösung und Stimmungsklassifizierung in Übereinstimmung mit multimodalen Eingangsdaten unter variierenden Betriebsbedingungen bereitgestellt wird, um eine effektive Konversationscomputerumgebung für eine oder mehrere Nutzer bereitzustellen.
-
Im Zuge des allgemeinen Mobilitätswandels wird es immer wichtiger, nicht nur den Fahrer eines Fahrzeugs im Fokus zu behalten, sondern jegliche Nutzer bzw. Insassen, ungeachtet dessen, ob es sich um einen Fahrer oder Bei- bzw. Mitfahrer oder Passagier handelt. In der vorliegenden Offenbarung werden insbesondere die Begriffe „Nutzer“ und „Insasse“ als gleichbedeutend verwendet. Besonders im Falle der Nutzung von automatisierten bzw. autonomen Fahrzeugen ist davon auszugehen, dass nur noch in seltenen Situationen ein Insasse die Rolle eines klassischen Fahrers im Fahrzeug einnimmt, oder ein Fahrer völlig obsolet wird.
-
Bekannte Systeme sind jedoch oft ausschließlich auf den Fahrer eines Fahrzeugs ausgerichtet und insbesondere darauf, ob der Fahrer in der Lage ist, die Kontrolle über das Fahrzeug zu behalten oder zu übernehmen. Zudem unterscheiden bekannte Systeme nicht basierend auf der Rolle eines Insassen (z.B. Fahrer, Beifahrer) oder basierend auf Persönlichkeitsmerkmalen von Insassen. Im Stand der Technik sind daher primär Systeme bekannt, die ausschließlich oder insbesondere den Zustand des Fahrers eines Fahrzeugs erfassen und in diesem engen Kontext ausschließlich oder insbesondere Eigenschaften des Fahrers, die für das Führen des Fahrzeugs im Straßenverkehr relevant sind (z.B. Aufmerksamkeit, Müdigkeit, Ablenkung).
-
Eine Erfassung von Zuständen von Insassen allgemein erfolgt nicht. Insbesondere erfolgt keine individuelle Erfassung von Zuständen der Insassen eines Fahrzeugs. Insassen mit beispielsweise besonderer Neigung zu Beunruhigung oder Nervosität werden ebenso wenig erfasst, wie Insassen mit erhöhter Toleranz gegenüber auch außergewöhnlichen Ereignissen im Straßenverkehr. Persönlichkeits- bzw. Zustandsmerkmale (z.B. emotionale Zustände, Nervosität, Aufregung, Apathie) und Merkmale, die typischerweise auf bestimmte Persönlichkeits- bzw. Zustandsmerkmale schließen lassen (z.B. Geschlecht, Alter, Herzfrequenz, Blickführung).
-
Daher besteht der Bedarf an Systemen und Verfahren, die Persönlichkeits- bzw. Zustandsmerkmale aller Insassen eines Fahrzeugs bei der Erfassung berücksichtigen und so eine individuelle Information der Insassen ermöglichen. Hierbei sollten die Systeme in der Lage sein, die Information und/oder verschiedene Parameter der Informationsbereitstellung, beispielsweise die Art und Weise, Häufigkeit oder Aufbereitung der Information, an die Persönlichkeits- bzw. Zustandsmerkmale eines oder mehrerer Insassen anzupassen. Zudem sollte das System in der Lage sein, jedem einzelnen einer Vielzahl von Insassen eine individuelle Information unabhängig von den übrigen Insassen bereitzustellen.
-
Im Stand der Technik ist bekannt, auf Basis von digitalen Footprints sogenannte Psychographics zu erstellen, welche Persönlichkeitsmerkmale aus Nutzerbezogenen Daten, beispielsweise Nutzerkonten in sozialen Netzwerken, Browserhistorien, Tweets, und dergleichen mehr, generieren. Die generierten Persönlichkeitsmerkmale können beispielsweise beinhalten: Beruf, politische oder religiöse Ansichten, Alter, Geschlecht, oder Familienstand.
-
Weiter ist bekannt, dass zwischen Persönlichkeitsmerkmalen und Gefühlszuständen im Fahrzeug kausale Zusammenhänge bestehen und dass bestimmte Funktionen im Fahrzeug (z.B. die Auswahl beruhigender Musik) einen positiven Einfluss auf das Stressempfinden des Fahrers haben kann. Je weniger ein Insasse in das Fahrgeschehen involviert ist, desto weniger Informationen stehen dem Insassen zur Beurteilung einer aktuellen Fahrsituation zur Verfügung bzw. werden von diesem bewusst wahrgenommen. Dies gilt für klassische Bei- bzw. Mitfahrer ebenso wie für Insassen eines automatisierten oder autonomen Fahrzeugs. Dieser Mangel an bewusst aufgenommenen Informationen und/oder die reduzierte oder völlig fehlende Möglichkeit, in bestimmten Situationen in das Fahrgeschehen eingreifen zu können, kann das Wohlbefinden der Insassen beeinträchtigen. Um das Wohlbefinden aller Insassen sicher zu stellen, wäre es daher notwendig, einen Gemütszustand der Insassen zu ermitteln und im Falle einer festgestellten Beunruhigung bzw. Beeinträchtigung steuernd einzugreifen.
-
Dieser Effekt kann dadurch verstärkt werden, dass im Zuge der zunehmenden Automatisierung bzw. der Einführung des autonomen Fahrens, die Insassen sich während der Fahrt mehr und mehr anderen Tätigkeiten widmen, beispielsweise dem Konsum von Infotainment Content in Form von Musik, Filmen oder Text. Die Wahrnehmung einer aktuellen Fahrsituation tritt damit mehr und mehr in den Hintergrund, wobei das Auftreten einer außergewöhnlichen Situation - oder einer Situation, die zumindest subjektiv als außergewöhnlich wahrgenommen werden könnte - leicht zur vorstehend beschriebenen Beeinträchtigung des Wohlbefindens des bzw. der Insassen führen kann.
-
Bekannte Systeme bzw. Verfahren beziehen jedoch keine Persönlichkeits- bzw. Zustandsmerkmale des bzw. der Insassen bei der Beeinflussung emotionaler Zustände des bzw. der Insassen ein. Weiter beziehen bekannte Systeme bzw. Verfahren keine derartigen Merkmale aus Drittquellen außerhalb des Fahrzeugs ein, oder solche, die außerhalb des Fahrzeugs erhoben, generiert oder anderweitig verarbeitet werden.
-
Daher besteht der Bedarf an Systemen und Verfahren, die einen Gemütszustand eines oder mehrerer Insassen individuell und zuverlässig erfassen, unter der Berücksichtigung von Persönlichkeits- und/oder Zustandsmerkmalen der ein oder mehreren Insassen, und die ermitteln können, ob eine individuelle Beeinflussung des Gemütszustandes erforderlich ist, beispielsweise mit dem Ziel, den oder die Insassen zu beruhigen. Hierbei sollte das System in der Lage sein, eine individuelle Entscheidung für jeden der ein oder mehreren Insassen basierend auf dessen bzw. deren Persönlichkeits- bzw. Zustandsmerkmalen zu treffen.
-
Es besteht insbesondere der Bedarf an Systemen und Verfahren, die eine individuelle Beeinflussung des Gemütszustandes eines oder mehrerer Insassen in einem Fahrzeug auf multimodale Art und Weise ermöglichen können, beispielsweise durch visuell, audiovisuell, akustisch, haptisch, thermisch, oder olfaktorisch wirkende Mittel, oder eine Kombination daraus. Hierbei sollte die (multimodale) Art und Weise individuell auf jeden der ein oder mehreren Insassen basierend auf dessen bzw. deren Persönlichkeits- bzw. Zustandsmerkmalen abgestimmt sein bzw. werden.
-
Es besteht weiter insbesondere der Bedarf an Systemen und Verfahren, die eine nutzerindividuelle Anpassung von Fahrzeugparametern ermöglichen, wobei die Anpassung der Fahrzeugparameter wie vorstehend beschrieben zur Information des bzw. der Nutzer erfolgen kann, und/oder zur Anpassung von Betriebsparametern des Fahrzeugs, insbesondere solcher Parameter, die von dem bzw. den Nutzern wahrgenommen werden oder wahrgenommen werden können. Hierbei sollte die Anpassung eines oder mehrerer Fahrzeugparameter derart erfolgen, dass beispielsweise eine individuelle Beeinflussung des Gemütszustandes eines oder mehrerer Insassen bzw. Nutzer ermöglicht, beispielsweise durch Anpassung von Parametern, die eine Fahrdynamik des Fahrzeugs (z.B. Quer- und/oder Längsdynamik), eine Trajektorie des Fahrzeugs (z.B. Wahl einer oder mehrerer Fahrspuren, Routenwahl) und/oder sonstige Parameter betreffen.
-
Es besteht weiter insbesondere der Bedarf an Systemen und Verfahren, die Persönlichkeits- bzw. Zustandsmerkmale aus Quellen sowohl innerhalb als auch außerhalb des Fahrzeugs beziehen können. Hierbei sollen Daten aus unterschiedlichen Quellen miteinander kombiniert werden können.
-
Offenbarung der Erfindung
-
Es ist eine Aufgabe der vorliegenden Offenbarung, Verfahren und Systeme bereitzustellen, die einen oder mehrere der beschriebenen Nachteile vermeiden und/oder einen oder mehrere der beschriebenen Vorteile ermöglichen.
-
Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.
-
In einem ersten Aspekt gemäß Ausführungsformen der vorliegenden Offenbarung ist ein Verfahren zur nutzerindividuellen Anpassung von einem oder mehreren Parametern eines Fahrzeugs angegeben. Die nutzerindividuelle Anpassung bezieht sich auf einen oder mehrere Nutzer des Fahrzeugs. Das Verfahren umfasst: Ermitteln, für jeden der ein oder mehreren Nutzer, eines ersten kognitiven Modells, das konfiguriert ist, ein oder mehrere Persönlichkeits- und/oder Zustandsmerkmale für einen jeweiligen Nutzer abzubilden; Ermitteln, für jeden der ein oder mehreren Nutzer, eines Zustands des jeweiligen Nutzers basierend auf dem ersten kognitiven Modell; Ermitteln, für jeden der ein oder mehreren Nutzer, einer jeweiligen Abweichung des ermittelten jeweiligen Zustands von einem Normalzustand basierend auf dem ersten kognitiven Modell; Ermitteln, basierend auf dem ersten kognitiven Modell und basierend auf den ermittelten ein oder mehreren Abweichungen, ob individuell für die ein oder mehreren Nutzer eine Anpassung der ein oder mehreren Parameter des Fahrzeugs erfolgen soll; und, falls eine Anpassung erfolgen soll: Ermitteln der anzupassenden ein oder mehreren Parameter basierend auf dem ersten kognitiven Modell und basierend auf den ermittelten ein oder mehreren Abweichungen; und Anpassen der ein oder mehreren Parameter basierend auf dem ersten kognitiven Modell.
-
In einem zweiten Aspekt nach Aspekt 1 umfasst Ermitteln des ersten kognitiven Modells Ermitteln des ersten kognitiven Modells basierend auf einem zweiten kognitiven Modell, wobei das zweite kognitive Modell durch ein oder mehrere zum Fahrzeug externe Backend Komponenten bereitgestellt wird.
-
In einem dritten Aspekt nach einem der vorhergehenden Aspekte 1 oder 2 umfasst das Verfahren weiter: Ermitteln des zweiten kognitiven Modells basierend auf externen Daten, wobei die externen Daten von ein oder mehreren Drittquellen bezogen werden und konfiguriert sind, ein oder mehrere Persönlichkeits- und/oder Zustandsmerkmale für einen jeweiligen Nutzer zu kennzeichnen.
-
In einem vierten Aspekt nach dem vorhergehenden Aspekt 3 werden die externen Daten durch die ein oder mehreren Backend Komponenten von den ein oder mehreren Drittquellen bezogen.
-
In einem fünften Aspekt nach einem der vorhergehenden Aspekte 1 bis 4 umfasst das Verfahren weiter Übertragen des zweiten kognitiven Modells an das Fahrzeug, vorzugsweise an ein Steuergerät des Fahrzeugs und/oder mittels einer Datenkommunikation zwischen dem Fahrzeug und den ein oder mehreren Backend Komponenten.
-
In einem sechsten Aspekt nach einem der vorhergehenden Aspekte 1 bis 5 umfasst das Verfahren weiter Durchführen des Schrittes des Ermittelns des ersten kognitiven Modells: kontinuierlich oder in regelmäßigen Abständen, die regelmäßigen Abstände vorzugsweise umfassend einen Zeitraum zwischen 30 Minuten und 24 Stunden; und/oder bedarfsweise, bei besonderen Ereignissen betreffend das Fahrzeug, die besonderen Ereignisse vorzugsweise umfassend ein oder mehrere von: Fahrtbeginn; Fahrtende; Auslösen von Funktionen von im Fahrzeug betriebenen Fahrassistenzsystemen; und/oder Auslösen von Funktionen von im Fahrzeug betriebenen Sicherheitssystemen.
-
In einem siebten Aspekt nach einem der vorhergehenden Aspekte 1 bis 6 umfasst Ermitteln des ersten kognitiven Modells: Ermitteln des ersten kognitiven Modells basierend auf einem dritten kognitiven Modell, wobei das dritte kognitive Modell auf fahrzeugseitigen Daten basiert, welche im Fahrzeug und/oder mittels im Fahrzeug vorhandener Komponenten erfasst werden.
-
In einem achten Aspekt nach dem vorhergehenden Aspekt 7 umfasst das Verfahren weiter Ermitteln des dritten kognitiven Modells basierend auf einer Sensorik des Fahrzeugs; vorzugsweise die Sensorik umfassend ein oder mehrere von: eine erste Sensorvorrichtung, die konfiguriert ist, einen Gesichtsausdruck eines oder mehrerer Nutzer zu erfassen, die erste Sensorvorrichtung vorzugsweise umfassend eine oder mehrere Kameras oder optische Sensoren; eine zweite Sensorvorrichtung, die konfiguriert ist, eine Blickrichtung eines oder mehrerer Nutzer zu erfassen, die zweite Sensorvorrichtung vorzugsweise umfassend eine oder mehrere Kameras oder optische Sensoren; eine dritte Sensorvorrichtung, die konfiguriert ist, eine Bedienung von einem oder mehreren Bedienelementen des Fahrzeugs durch einen oder mehrerer Nutzer zu erfassen; und eine fünfte Sensorvorrichtung, die konfiguriert ist, Geräusche im Fahrzeug und/oder Spracheingaben eines oder mehrerer Nutzer zu erfassen; die fünfte Sensorvorrichtung vorzugsweise umfassend ein oder mehrere Mikrofone.
-
In einem neunten Aspekt nach einem der vorhergehenden Aspekte 1 bis 8 umfasst Ermitteln der anzupassenden ein oder mehreren Parameter Ermitteln einer auszugebenden Information; wobei die auszugebende Information ein oder mehrere umfasst von: einer audiovisuellen Information; einer akustischen Information; und einer visuellen Information; und wobei Anpassen der ein oder mehreren Parameter Ausgeben der auszugebenden Information an die ein oder mehreren Nutzer umfasst.
-
In einem zehnten Aspekt nach dem vorhergehenden Aspekt 9 umfasst Ausgeben der auszugebenden Information an die ein oder mehreren Nutzer ein oder mehrere von: Anzeigen einer visuellen Information auf einer Fensterfläche des Fahrzeugs; Anzeigen eines visuellen Teils einer audiovisuellen Information auf einer Fensterfläche des Fahrzeugs; Wiedergeben einer akustischen Information über ein oder mehrere akustische Ausgabeeinheiten des Fahrzeugs; Wiedergeben eines akustischen Teils einer audiovisuellen Information über ein oder mehrere akustische Ausgabeeinheiten des Fahrzeugs; und Anzeigen zumindest eines Teils der auszugebenden Information auf einer oder mehreren Anzeigeeinheiten des Fahrzeugs.
-
In einem elften Aspekt nach einem der vorhergehenden Aspekte 1 bis 10 umfasst das Verfahren weiter Ermitteln ein oder mehrerer Kontextparameter, die konfiguriert sind, einen Kontext der Nutzung des Fahrzeugs durch die ein oder mehreren Nutzer zu kennzeichnen; wobei die Schritte des Ermittelns, ob eine Anpassung der ein oder mehreren Parameter des Fahrzeugs erfolgen soll und/oder des Ermittelns der anzupassenden ein oder mehreren Parameter weiter auf den ermittelten ein oder mehreren Kontextparametern basiert.
-
In einem zwölften Aspekt nach dem vorhergehenden Aspekt 11 umfasst der Normalzustand einen jeweiligen Normalzustand für jeden der ein oder mehreren Nutzer; und/oder der Normalzustand umfasst einen jeweiligen kontextabhängigen Normalzustand für jeden der ein oder mehreren Nutzer, wobei der jeweilige kontextabhängige Normalzustand von den ein oder mehreren Kontextparametern abhängig ist.
-
In einem dreizehnten Aspekt ist ein System zur nutzerindividuellen Anpassung von einem oder mehreren Parametern eines Fahrzeugs angegeben. Das System umfasst ein Steuergerät; und/oder ein oder mehrere Backend Komponenten; wobei das Steuergerät und/oder die ein oder mehreren Back-End Komponenten konfiguriert sind, das vorliegend offenbarte Verfahren, insbesondere nach einem der vorhergehenden Aspekte 1 bis 12, auszuführen.
-
In einem vierzehnten Aspekt nach dem vorhergehenden Aspekt 13 umfasst das System weiter: ein System zur Bereitstellung des dritten kognitiven Modells; ein System zum Zusammenführen des dritten kognitiven Modells und des zweiten kognitiven Modells in das erste kognitive Modell; ein System zur Bereitstellung des zweiten kognitiven Modells; und/oder ein System zum Importieren und/oder Zusammenführen von Persönlichkeits- bzw. Zustandsmerkmalen aus Drittquellen.
-
In einem fünfzehnten Aspekt ist ein Fahrzeug angegeben. Das Fahrzeug umfasst ein Steuergerät, wobei das Steuergerät konfiguriert ist, einen oder mehrere Schritte des vorliegend offenbarten Verfahrens, insbesondere nach einem der vorhergehenden Aspekte 1 bis 12, auszuführen.
-
Gemäß einem weiteren Aspekt wird ein Softwareprogramm beschrieben. Das Softwareprogramm kann eingerichtet sein, um auf einem Prozessor ausgeführt zu werden, und um dadurch vorliegend offenbarte Verfahren auszuführen.
-
Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein Softwareprogramm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch vorliegend offenbarte Verfahren auszuführen.
-
Die hier offenbarten Systeme und Verfahren bieten ein oder mehrere der nachstehend genannten Vorteile.
-
Vorrichtungen, Verfahren und Systeme gemäß der vorliegenden Offenbarung ermöglichen eine Erfassung und Verarbeitung von Persönlichkeits- und/oder Zustandsmerkmalen für ein oder mehrere Nutzer bzw. Insassen in einem Fahrzeug zur individuellen Modellierung der ein oder mehreren Nutzer bzw. Insassen. Weiter kann basierend auf Parametern, die einen Zustand, insbesondere Gemütszustand, der ein oder mehreren Nutzer bzw. Insassen im Fahrzeug kennzeichnen eine individuelle, auf den erfassten bzw. verarbeiteten Persönlichkeits- bzw. Zustandsmerkmalen basierende Information der ein oder mehreren Nutzer bzw. Insassen erfolgen. Dies kann eine Verbesserung einer Vielzahl von Funktionen ermöglichen, die solche Parameter verarbeiten.
-
Vorrichtungen, Verfahren und Systeme gemäß der vorliegenden Offenbarung ermöglichen weiter, einen Zustand bzw. Gemütszustand eines oder mehrerer Nutzer bzw. Insassen zuverlässig zu erfassen und für jeden einzelnen der ein oder mehreren Nutzer bzw. Insassen individuell zu ermitteln, ob eine Beeinflussung des Gemütszustandes erforderlich oder empfehlenswert ist, beispielsweise mit dem Ziel, den oder die Nutzer bzw. Insassen zu beruhigen. Dies kann eine Akzeptanz der Nutzer bzw. Insassen automatisierter und/oder autonomer Systeme und Verfahren steigern und/oder das Wohlbefinden der Nutzer bzw. Insassen verbessern, wobei individuelle Persönlichkeits- bzw. Zustandsmerkmale der ein oder mehreren Nutzer bzw. Insassen berücksichtigt werden können.
-
Vorrichtungen, Verfahren und Systeme gemäß der vorliegenden Offenbarung ermöglichen weiter eine individuelle multimodale Beeinflussung des Gemütszustandes eines oder mehrerer Nutzer bzw. Insassen in einem Fahrzeug basierend auf der Erfassung und Verarbeitung von Persönlichkeits- und/oder Zustandsmerkmalen für die ein oder mehrere Nutzer bzw. Insassen, beispielsweise durch visuell, audiovisuell, akustisch, haptisch, thermisch, oder olfaktorisch wirkende Mittel, oder eine Kombination daraus. Dies kann eine individuell angepasste Beeinflussung des Gemütszustands bzw. Wohlbefindens der Nutzer bzw. Insassen ermöglichen, wobei individuelle Persönlichkeits- bzw. Zustandsmerkmale der ein oder mehreren Nutzer bzw. Insassen berücksichtigt werden können.
-
Vorrichtungen, Verfahren und Systeme gemäß der vorliegenden Offenbarung ermöglichen weiter eine nutzerindividuelle Anpassung von Fahrzeugparametern, wobei die Anpassung der Fahrzeugparameter wie vorstehend beschrieben zur Information des bzw. der Nutzer bzw. Insassen erfolgen kann, und/oder zur Anpassung von Betriebsparametern des Fahrzeugs, insbesondere solcher Parameter, die von dem bzw. den Nutzern wahrgenommen werden oder wahrgenommen werden können. Die Anpassung eines oder mehrerer Fahrzeugparameter erfolgt derart, dass beispielsweise eine individuelle Beeinflussung des Gemütszustandes eines oder mehrerer Insassen bzw. Nutzer ermöglicht, beispielsweise durch Anpassung von Parametern, die eine Fahrdynamik des Fahrzeugs (z.B. Quer- und/oder Längsdynamik), eine Trajektorie des Fahrzeugs (z.B. Wahl einer oder mehrerer Fahrspuren, Routenwahl) und/oder sonstige Parameter betreffen. Dies kann eine individuell angepasste Beeinflussung des Gemütszustands bzw. Wohlbefindens der Nutzer bzw. Insassen ermöglichen, wobei nutzerindividuelle Persönlichkeits- bzw. Zustandsmerkmale bei der Anpassung von Fahrzeugparametern berücksichtigt werden.
-
Figurenliste
-
Ausführungsbeispiele der Offenbarung sind in den Figuren dargestellt und werden im Folgenden näher beschrieben. Dabei werden im Folgenden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente dieselben Bezugszeichen verwendet.
- 1 illustriert schematisch das Zusammenwirken einzelner Komponenten eines Systems zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs gemäß Ausführungsformen der vorliegenden Offenbarung;
- 2 illustriert schematisch den Aufbau eines Systems zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs gemäß Ausführungsformen der vorliegenden Offenbarung;
- 3 illustriert schematisch den Aufbau eines Systems zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs gemäß Ausführungsformen der vorliegenden Offenbarung; und
- 4 zeigt ein Flussdiagramm eines Verfahrens zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs gemäß Ausführungsformen der vorliegenden Offenbarung.
-
Ausführungsformen der Offenbarung
-
Im Folgenden werden, sofern nicht anders vermerkt, für gleiche und gleichwirkende Elemente gleiche Bezugszeichen verwendet.
-
1 illustriert schematisch das Zusammenwirken einzelner Komponenten eines Systems 100 zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs 80 gemäß Ausführungsformen der vorliegenden Offenbarung. Wenn in der vorliegenden Offenbarung auf einen Nutzer 60 Bezug genommen wird, sind darunter grundsätzlich alle Nutzer 60, 60', 60" zu subsummieren, einschließlich eines Nutzers 60, der als Fahrer agieren kann, eines Nutzers 60', der als Beifahrer (z.B. sich neben dem Fahrer befindend) agieren kann oder eines Nutzers 60", der als Mitfahrer (z.B. auf einem Sitzplatz des Fahrzeugs 80) agieren kann. Sofern nachfolgend nicht ausdrücklich auf eine unterschiedliche Behandlung einzelner Nutzertypen eingegangen wird, ist unter dem Begriff Nutzer 60 jeglicher Nutzer 60, 60', 60" zu verstehen. Nutzerindividuell ist im vorliegenden Kontext zu verstehen als: individuell angepasst auf einen oder mehrere Nutzer 60, 60', 60".
-
Der Begriff „Fahrzeug“ umfasst PKW, LKW, Busse, Wohnmobile, Krafträder, etc., die der Beförderung von Personen, Gütern, etc. dienen. Insbesondere umfasst der Begriff Kraftfahrzeuge zur Personenbeförderung. Fahrzeuge 80 mit Elektroantrieb (insbesondere Hybrid- oder Elektrofahrzeuge) werden von einem Elektromotor angetrieben und umfassen ein oder mehrere elektrische Energiespeicher (z.B. Batterien, Hochvoltspeicher), die über eine Ladevorrichtung des Fahrzeugs an eine Ladestation angeschlossen und aufgeladen werden können. Zum Aufladen der elektrischen Speicher solcher Hybrid- oder Elektrofahrzeuge können verschiedene Ladetechniken verwendet werden.
-
Vorzugsweise umfasst das Fahrzeug eine Umgebungssensorik (nicht in 1 dargestellt), die konfiguriert ist, um Umfeld- bzw. Umgebungsdaten zu erfassen, die eine Umgebung und/oder Objekte in der Umgebung des Fahrzeugs 80 kennzeichnen. Vorzugsweise umfasst die Umgebungssensorik wenigstens ein LiDAR-System und/oder wenigstens ein Radar-System und/oder wenigstens eine Kamera und/oder wenigstens ein Ultraschall-System. Die Umgebungssensorik kann auf Umgebungsdaten basierende Umfeldparameter bereitstellen, die einen Umgebungsbereich des Fahrzeugs kennzeichnen.
-
Unter dem Begriff „automatisiertes Fahren“ kann im Rahmen der vorliegenden Offenbarung ein Fahren mit automatisierter Längs- oder Querführung oder ein autonomes Fahren mit automatisierter Längs- und Querführung verstanden werden. Bei dem automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens oder Rangierens handeln. Der Begriff „automatisiertes Fahren“ umfasst ein automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind ein assistiertes, teilautomatisiertes, hochautomatisiertes oder vollautomatisiertes Fahren. Diese Automatisierungsgrade wurden von der Bundesanstalt für Straßenwesen (BASt) definiert (siehe BASt-Publikation „Forschung kompakt“, Ausgabe 11/2012). Beim assistierten Fahren führt der Fahrer dauerhaft die Längs- oder Querführung aus, während das System die jeweils andere Funktion in gewissen Grenzen übernimmt. Beim teilautomatisierten Fahren (TAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum und/oder in spezifischen Situationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (HAF) übernimmt das System die Längs- und Querführung für einen gewissen Zeitraum, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber in einer gewissen Zeit in der Lage sein, die Fahrzeugführung zu übernehmen. Beim vollautomatisierten Fahren (VAF) kann das System für einen spezifischen Anwendungsfall das Fahren in allen Situationen automatisch bewältigen; für diesen Anwendungsfall ist kein Fahrer mehr erforderlich. Die vorstehend genannten vier Automatisierungsgrade entsprechen den SAE-Level 1 bis 4 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beispielsweise entspricht das hochautomatisierte Fahren (HAF) Level 3 der Norm SAE J3016. Ferner ist in der SAE J3016 noch der SAE-Level 5 als höchster Automatisierungsgrad vorgesehen, der in der Definition der BASt nicht enthalten ist. Der SAE-Level 5 entspricht einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.
-
Das System 100 kann im Wesentlichen auf einem Steuergerät 120 des Fahrzeugs 80 und/oder auf einer oder mehreren Backend-Komponenten 150 (z.B. Server, Dienste) implementiert werden.
-
Das Fahrzeug 80 umfasst neben dem Steuergerät 120 weiter eine Kommunikationseinheit 130, die zur Datenkommunikation 140 mit zum Fahrzeug 80 externen Komponenten (z.B. Backend 150) konfiguriert ist, und eine Benutzerschnittstelle 110, die beispielsweise als Touchscreen im Fahrzeug 80 realisiert sein kann (z.B. auf dem oder im Armaturenbereich des Fahrzeugs 80 oder als Teil eines Rear-Seat-Entertainment Systems im Fond des Fahrzeugs 80; nicht gezeigt). Die Kommunikationseinheit 130 kann weiter konfiguriert sein, eine Datenverbindung zu mobilen Endgeräten bereitzustellen, insbesondere zu solchen, die sich im Fahrzeug 80 und/oder in der Umgebung des Fahrzeugs 80 befinden und/oder vom Nutzer 60 verwendet werden. Einzelne Komponenten des Systems 100 (z.B. Steuergerät 120, Kommunikationseinheit 130, benutzerschnittstelle 110) sind lediglich schematisch dargestellt, sodass die Darstellung nicht unbedingt bzw. zwingende Rückschlüsse auf eine Platzierung der jeweiligen Komponente, auf eine Anordnung in einem spezifischen Teilbereich des Fahrzeugs 80, oder auf sonstige Eigenschaften der jeweiligen Komponente zulassen muss. Ebenso ist es nicht zwingend erforderlich, dass eine System 100 immer sämtliche in 1 dargestellten Komponenten umfassen muss. Die Darstellung in 1 zeigt somit eine beispielhafte Ausführungsform.
-
Das System 100 kann teilweise oder vollständig über die Benutzerschnittstelle 110 im Fahrzeug 80 bedient werden. Die Benutzerschnittstelle 110 kann eine oder mehrere multimodale Benutzerschnittstellen, insbesondere Benutzerschnittstellen, die für die Bedienung des Fahrzeugs 80 konfiguriert sind (z.B. Kommunikation, Infotainment, Klimatisierung, Sitzeinstellung, Fahrzeugeinstellungen) umfassen. Die Benutzerschnittstelle 110 ermöglicht die multimodale Erfassung von Eingaben eines Nutzers 60, beispielsweise über eine grafische Benutzeroberfläche (z.B. Touchscreen), über klassische Bedienelemente des Fahrzeugs 80 (z.B. Knöpfe, Schalter, iDrive Controller), per Sprachsteuerung (z.B. mittels Sensor 168), per Scanner (z.B. für Fingerabdrücke, Retina) und dergleichen mehr. Die Benutzerschnittstelle 110 ermöglicht weiter die multimodale Ausgabe von Informationen an einen Nutzer 60, beispielsweise über eine grafische Anzeigeelemente (z.B. Touchscreen, Head-Up Display 171, Instrumentenkombi, zentrales Informationsdisplay bzw. CID), über taktile Elemente (z.B. Vibration des Lenkrads oder von Teilen des Sitzes), per Sprachausgabe über eine im Fahrzeug vorhandene Lautsprecheranlage (z.B. Infotainmentsystem) oder akustische Signalgeber (z.B. Gong, Piepser) und dergleichen mehr. Die Benutzerschnittstelle 110 kann basierend auf entsprechenden Konfigurationsdaten eine grafische Benutzerschnittstelle implementieren, in der Anzeigeelemente und Bedienungselemente dargestellt werden, die vom Nutzer 60 für die Bedienung des Fahrzeugs 80 genutzt werden können. Zusätzlich bzw. alternativ kann die Benutzerschnittstelle (weitere) Anzeige- und Bedienelemente beinhalten, beispielsweise Schalter, Knöpfe und Anzeigen.
-
Über die Kommunikationseinheit 130 kann das Steuergerät 120 mit (externen) Backend Komponenten 150 (z.B. Server bzw. Dienste) in Datenkommunikation 140 treten und so beispielsweise mit Backend Servern und/oder Diensten kommunizieren. Alternativ oder zusätzlich kann das Steuergerät 120 über die Kommunikationseinheit 130 mit dem mobilen Endgerät eines Nutzers 60 in Datenkommunikation treten und Daten und/oder Sensoren verwenden, die vom mobilen Endgerät bereitgestellt werden (wie vorstehend beschrieben).
-
Das Steuergerät 120 steht vorzugsweise mit einer Vielzahl von Komponenten in Datenverbindung über einen Datenbus (nicht gezeigt). Über den Datenbus (z.B. CAN-Bus, FlexRay) kann das Steuergerät 120 beispielsweise mit der Benutzerschnittstelle 110, der Kommunikationseinheit 130, der Ladevorrichtung 88 und/oder einer Vielzahl von weiteren Komponenten in Datenverbindung stehen. Weiter kann das Steuergerät 120 konfiguriert sein, Signale bzw. Daten vom Datenbus zu empfangen und/oder Signale bzw. Daten über den Datenbus zu senden.
-
Weiter kann das System 100 eine oder mehrere zum Fahrzeug 80 externe Backend Komponenten 150 und/oder eine Infrastruktur aufweisen, die ein oder mehrere Ressourcen (z.B. Server, Dienste/Services) bereitstellen. Die ein oder mehreren Backend Komponenten 150 können zeitweise oder dauerhaft mit dem Steuergerät 120 des Fahrzeugs 80 und/oder mit dem mobilen Endgerät in Datenkommunikation 140 stehen. Vorzugsweise können ressourcenintensive Verarbeitungsschritte (z.B. Verarbeitung natürlicher Sprache und/oder von Bild bzw. Videodaten, Spracherkennung, Verarbeitung großer externer Datenmengen) an die externe Backend Komponente 150 ausgelagert werden, die durch das Steuergerät 120 im Fahrzeug 80 und/oder durch das mobile Endgerät nur schwer oder gar nicht vorgenommen werden könnten. Hierbei kann auch auf eventuelle Anforderungen bzgl. Rechenleistung, Speicherleistung, verfügbarer Bandbreite, Anbindung an externe Datenquellen und dergleichen mehr, Rücksicht genommen werden.
-
Die ein oder mehreren Backend Komponenten implementieren zumindest ein affektives Modell 152 von Passagieren außerhalb des Fahrzeugs 150 (sog. „off-board Cognitive User Model“ bzw. offboard CUM; „off-board“ bezieht sich im vorliegenden Kontext auf eine außerhalb des Fahrzeugs 80 implementierte Komponente), eine off-board Komponente 154 zum Importieren und/oder Zusammenführen von Persönlichkeits- bzw. Zustandsmerkmalen aus Drittquellen 156 mit dem off-board CUM 152 und einem Übertragungskanal 142 von CUM Informationen in ein Fahrzeug 80. Die Datenkommunikation 140 zwischen den ein oder mehreren kann ein oder mehrere Übertragungskanäle vom bzw. zum Fahrzeug 80 implementieren, beispielsweise den Übertragungskanal 142. Drittquellen schließen alle Datenquellen ein, die mittels der ein oder mehreren Backend Komponenten 150 implementiert werden und/oder die über die ein oder mehreren Backend Komponenten 150 erreichbar sind, beispielsweise über Netzwerkverbindungen (z.B. Internet, Intranet). Die Funktionen der einzelnen Elemente sind im Folgenden mit Bezug auf 2 näher beschrieben.
-
2 illustriert schematisch den Aufbau eines Systems 100 zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs 80 gemäß Ausführungsformen der vorliegenden Offenbarung. Das System 100 besteht zusätzlich zu den die die ein oder mehreren Backend Komponenten 150 implementierten oder durch diese erreichbaren Elemente (z.B. 152, 154, 156) zumindest aus den folgenden Elementen. Ein affektives Modell 102 von Passagieren innerhalb des Fahrzeugs („on-board“ Cognitive User Model bzw. CUM, auch: kognitives Nutzermodell) wird typischerweise vom Steuergerät 120 implementiert. Die Bezeichnung „on-board“ bezieht sich im vorliegenden Kontext auf eine innerhalb des Fahrzeugs 80 implementierte Komponente. Das Modell 102 ist konfiguriert, Persönlichkeits- bzw. Zustandsmerkmale von ein oder mehreren Insassen abzubilden, basierend auf im oder durch das Fahrzeug 80 ermittelten Informationen. Mit Abbildung ist hier keine mathematische Funktion im engen Sinne gemeint, sondern eine informatische Repräsentation. Anwendbar sind zumindest verschiedene bekannte Modelle für Persönlichkeitsmerkmale.
-
Weiter fahrzeugseitig implementiert, vorzugsweise durch das Steuergerät 120, ist eine Komponente 104 zum Abgleich von off-board CUM 152 und on-board CUM 102. Diese Komponente 104 ist konfiguriert, ein oder mehrere off-board CUM zu importieren und mit ein oder mehreren on-board CUM konfliktfrei in ein kombiniertes CUM 103 zusammenzuführen. Eine Zusammenführung kann dabei kontinuierlich, in regelmäßigen Abständen (z.B. jede Stunde, täglich) oder bei besonderen Ereignissen (z.B. bei bzw. vor Fahrtantritt) erfolgen, sodass ein kombiniertes CUM 103 im Wesentlichen ständig, regelmäßig und/oder bedarfsweise aktualisiert wird bzw. werden kann. Der Import der ein oder mehreren off-board CUM wird in der Regel über den Übertragungskanal 142 bzw. die Datenkommunikation 140 allgemein realisiert.
-
Eine Zusammenführung erfolgt vorzugsweise regelbasiert. Dabei werden Merkmale aus verschiedenen Modellen in einem kombinierten Modell auf andere Merkmale mathematisch abgebildet. Dabei können Merkmale aufgeteilt oder zusammengefasst werden. Auch können Merkmale additiv hinzugenommen werden. Hierbei sind neben entsprechenden Regeln auch ein Semantic-Similarity-Based Zusammenführen vorstellbar. Hier werden beispielsweise verschiedene CUMs als Wissensgraphen („Knowledge-Graphs“) repräsentiert und diese dann mittels Graph-Embeddings in einen gemeinsamen Latent-Space abgebildet und daraus wiederum in ein zusammengeführtes Modell zurück transformiert. Ebenfalls fahrzeugseitig können ein oder mehrere Systeme vorgesehen sein, die auf die durch die ein oder mehreren CUM abgebildeten Persönlichkeits- bzw. Zustandsmerkmale zugreifen und beispielsweise ein oder mehrere Funktionen des Fahrzeugs 80 entsprechend anpassen. Beispielsweise ein System 106 zur Verbesserung des emotionalen Zustands der Passagiere kann auf Basis des on-board 102, off-board 152 oder kombinierten 103 CUM aktiv werden. Hierbei können Persönlichkeits- und/oder Zustandsmerkmale betreffend ein oder mehrere Nutzer bzw. Insassen 60, 60', 60" des Fahrzeugs 80 mit off-board CUM zusammengeführt werden, Informationen aus Drittquellen in ein CUM im Fahrzeug übertragen, und diese Informationen genutzt werden, um den emotionalen Zustand der ein oder mehreren Nutzer bzw. Insassen 60, 60', 60" des Fahrzeugs 80 zu verbessern.
-
Ein on-board CUM kann insbesondere durch Nutzung der Nutzer bzw. Insassen von Schnittstellen (z.B. Entertainment, Fahrstrategie, Fahrerassistenzsysteme, Beleuchtung, Telefonie, Navigation) eine kontextspezifische (z.B. „während der Fahrt“) Erfassung von Persönlichkeits- bzw. Zustandsmerkmalen ermöglichen. Dies kann beispielsweise fahrer- bzw. bedienspezifische Persönlichkeitsmerkmale betreffen, welche transparent während des Fahrbetriebs angelernt bzw. aktualisiert und/oder durch einen Nutzer 60, 60', 60" vorkonfiguriert werden können.
-
3 illustriert schematisch den Aufbau eines Systems 100 zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs 80 gemäß Ausführungsformen der vorliegenden Offenbarung. 2 zeigt schematisch Verbindungen zwischen einzelnen Komponenten des Systems 100. Aus Gründen der Übersichtlichkeit sind nicht alle möglichen Komponenten des Systems 100 in 2 dargestellt.
-
In Bezug auf die 1 und 2 umfasst das System 100 weiter eine Sensorik 160 beinhaltend ein oder mehrere Sensoren 161, 162, 163, 164, 165, etc. Typischerweise ist die Sensorik 160 bzw. ein oder mehrere der Sensoren bzw. Sensorvorrichtungen 161, 162, 163, 164, 165 mit dem Steuergerät 120 verbunden. Einzelne Verbindungen sind aus Gründen der Übersichtlichkeit nicht in 1 dargestellt. In einer bevorzugten Ausführungsform beinhaltet die Sensorik 160 eine oder mehrere der folgenden Sensorvorrichtungen: eine Sensorvorrichtung 161, die konfiguriert ist, einen Gesichtsausdruck eines Nutzers 60, 60', 60" zu erfassen (z.B. umfassend eine oder mehrere Kameras), eine Sensorvorrichtung 162, die konfiguriert ist, eine Blickrichtung eines Nutzers 60, 60', 60" zu erfassen (z.B. umfassend eine oder mehrere Kameras), eine Sensorvorrichtung 163, die konfiguriert ist, eine Bedienung eines Nutzers 60, 60', 60" von einem oder mehreren Bedienelementen des Fahrzeugs 80 zu erfassen (z.B. mittelbar über ein oder mehrere Steuergeräte im Fahrzeug 80), eine Sensorvorrichtung 164, die konfiguriert ist, eine oder mehrere Betriebsparameter des Fahrzeugs 80 zu erfassen (z.B. mittelbar über ein oder mehrere Steuergeräte im Fahrzeug 80) und eine Sensorvorrichtung 165, die konfiguriert ist, Geräusche im Fahrzeug 80 und/oder Spracheingaben eines Nutzers 60, 60', 60" zu erfassen (z.B. umfassend ein oder mehrere Mikrofone). Ein oder mehrere weitere Sensoren bzw. Sensorvorrichtungen können konfiguriert sein, Geräusche oder akustische Signale außerhalb des Fahrzeugs zu erfassen, beispielsweise Geräusche anderer Fahrzeuge (z.B. Hupen, Motoren- bzw. Abrollgeräusche), Signalhörner von Einsatzfahrzeugen (z.B. Rettungsdienste, Polizei, Feuerwehr), akustische Signale anderer Verkehrsteilnehmer (z.B. Fahrradklingeln, verbale Äußerungen von Fußgängern), akustische Signale von Objekten der Verkehrsinfrastruktur (z.B. Signale von Lichtzeichen, Geräusche beim Abrollen über Markierungen oder Unebenheiten) und dergleichen mehr.
-
Das System 100 umfasst weiter ein Ausgabesystem 170 beinhaltend ein oder mehrere Anzeigen 171, 172, 173, 174, etc. und/oder ein oder mehrere akustische Ausgabeeinheiten 178. Typischerweise ist das Ausgabesystem 170 bzw. ein oder mehrere der Anzeigen 171, 172, 173, 174 bzw. Ausgabeeinheiten 178 mit dem Steuergerät 120 verbunden. Einzelne Verbindungen sind aus Gründen der Übersichtlichkeit nicht in 1 dargestellt. In einer bevorzugten Ausführungsform beinhaltet das Ausgabesystem 170 ein oder mehrere folgenden Ausgabevorrichtungen: eine Ausgabevorrichtung 171, die konfiguriert ist, eine Anzeige auf der Windschutzscheibe des Fahrzeugs 80 auszugeben (z.B. umfassend ein „Head-Up“ Display), eine oder mehrere Ausgabevorrichtungen 172, 174, die konfiguriert ist bzw. sind, eine Anzeige auf einem oder mehreren Seitenfenstern des Fahrzeugs 80 auszugeben, eine Ausgabevorrichtung 173, die konfiguriert ist, eine Anzeige auf der Heckscheibe des Fahrzeugs 80 auszugeben, eine oder mehrere akustische Ausgabeeinheiten 178, die konfiguriert ist bzw. sind, akustische Ausgaben im Fahrzeug 80 auszugeben (z.B. umfassend ein oder mehrere Lautsprecher, Verstärker).
-
Das System 100 umfasst weiter ein oder mehrere Subsysteme 121, 122, 123, 124, ..., vorzugsweise wobei die ein oder mehreren Subsysteme durch das Steuergerät 120 implementiert sind. In einigen Ausführungsformen kann zumindest ein Teil der ein oder mehreren Subsysteme 121, 122, 123, 124, etc. alternativ oder zusätzlich durch die ein oder mehreren Back-End Komponenten 150 implementiert werden. Hierbei kann eine Implementierung wahlweise sowohl im Steuergerät 120 als auch in ein oder mehreren Back-End Komponenten 150, wobei eine Gesamtfunktionalität eines Subsystems teilweise im Steuergerät 120 und teilweise in ein oder mehreren Back-End Komponenten 150 realisiert ist, oder exklusiv entweder im Steuergerät 120 oder in ein oder mehreren Back-End Komponenten 150, wobei die Gesamtfunktionalität dann vollständig im Steuergerät 120 oder vollständig in ein oder mehreren Back-End Komponenten 150 realisiert ist. Ein Beispiel für eine Implementierung sowohl im Steuergerät 120 als auch in ein oder mehreren Back-End Komponenten 150 betrifft die Verarbeitung von Video- oder Audiodaten, wobei eine Vorverarbeitung auf dem Steuergerät 120 eine Datenmenge wesentlich reduzieren oder minimieren kann, während eine Nachverarbeitung auf den ein oder mehreren Back-End Komponenten 150 dann die gewünschten Ergebnisse basierend auf der reduzierten oder minimierten Datenmenge liefert.
-
In einer bevorzugten Ausführungsform stellen die ein oder mehreren Subsysteme 121, 122, 123, 124, ..., ein oder mehrere der folgenden Funktionen bereit: Erfassen einer Verhaltensänderung eines oder mehrerer Nutzer 60, 60', 60" (z.B. Fokussierung auf ein oder mehrere Objekte außerhalb des Fahrzeugs 80), Erfassen eines Gesichtsausdrucks und/oder einer Änderung eines Gesichtsausdrucks eines oder mehrerer Nutzer 60, 60', 60" (z.B. Erfassen eines Gesichtsausdrucks, der einem beunruhigten oder besorgten Gemütszustand zugeordnet werden kann), Erfassen einer Blickrichtung und/oder einer Änderung der Blickrichtung eines oder mehrerer Nutzer 60, 60', 60" (z.B. Blickrichtung nach außen oder in Richtung ein oder mehrere Objekte außerhalb des Fahrzeugs 80), Erfassen eines Objektes in einer Blickrichtung eines oder mehrerer Nutzer 60, 60', 60" (z.B. andere Verkehrsteilnehmer), Erfassen eines wesentlichen Änderung eines oder mehrerer Betriebsparameter des Fahrzeugs 80, Erfassen von Umgebungsdaten, die eine oder mehrere Ereignisse kennzeichnen, die nicht mit einem regulären oder normalen Betrieb des Fahrzeugs 80 assoziiert werden, Ermitteln, ob eine oder mehrere wesentliche Änderungen eines oder mehrerer Betriebsparameter des Fahrzeugs 80 auf einen nicht regulären oder nicht normalen Betrieb des Fahrzeugs 80 schließen lassen, Kennzeichnen eines oder mehrerer Objekte außerhalb des Fahrzeugs 80 als einem regulären oder normalen Betrieb des Fahrzeugs 80 entsprechend und Ausgeben einer akustischen Mitteilung an ein oder mehrere Nutzer 60, 60', 60" des Fahrzeugs 80 betreffend ein oder mehrere Betriebsparameter des Fahrzeugs 80 und/oder betreffend ein oder mehrere Objekte in der Umgebung des Fahrzeugs 80.
-
Das System 100 ist gemäß der vorliegenden Offenbarung konfiguriert, einen Zustand (insbesondere einen Gemütszustand) eines oder mehrerer Nutzer 60, 60', 60" des Fahrzeugs 80 zu erfassen und eine Beeinträchtigung dessen (z.B. in Form einer Abweichung von einem als regulär, normal oder unbedenklich eingestuften Zustand) zu ermitteln. Ein regulärer Zustand bzw. ein Normalzustand ist konfiguriert, einen Zustand eines Nutzers 60, 60', 60" ohne Beeinträchtigung zu kennzeichnen und/oder einen Zustand in dem der jeweilige Nutzer keine Beunruhigung zeigt. Der Normalzustand kann einen jeweiligen kontextabhängigen Normalzustand für jeden der ein oder mehreren Nutzer 60, 60', 60" umfassen, wobei der jeweilige kontextabhängige Normalzustand von ein oder mehreren Kontextparametern abhängig ist. So kann der jeweilige Normalzustand beispielsweise von einer Tageszeit, einem Ort, einem Nutzungskontext, oder anderen Parametern abhängen. Ein jeweiliger Normalzustand eines Nutzers 60, 60', 60" kann im Fahrzeug 80 oder extern zum Fahrzeug 80 gespeichert werden. Weiter kann ein jeweiliger Normalzustand eines Nutzers 60, 60', 60" über einen Zeitraum als solcher erfasst werden, wobei der Zeitraum vorzugsweise mindesten einige Minuten, bevorzugt einige zehn Minuten, oder eine Stunde umfasst. Die Erfassung kann kontinuierlich erfolgen oder bedarfsweise über einen oder mehrere Zeiträume. Weiter kann die Erfassung in regelmäßigen Abständen wiederholt oder aktualisiert werden, um Veränderungen im Verhalten eines jeweiligen Nutzers 60, 60', 60" zu erfassen bzw. abzubilden.
-
Basierend darauf kann das System 100 ermitteln, ob eine Information an die ein oder mehreren Nutzer 60, 60', 60" des Fahrzeugs 80 ausgegeben werden soll, um die Beeinträchtigung des Zustands zu verringern oder zu minimieren, oder um einen als regulär, normal oder unbedenklich eingestuften Zustand wiederherzustellen. Die Information umfasst vorzugsweise visuelle, audiovisuelle und/oder akustische Signale. Der Zustand des Nutzers 60, 60', 60" wird vorzugsweise vom System 100 quantitativ und/oder qualitativ ermittelt. Weiter vorzugsweise ist das System 100 konfiguriert, einen als regulär, normal oder unbedenklich eingestuften Zustand zu ermitteln und/oder aktuell zu halten, vorzugsweise jeweils für einen Nutzer 60, 60', 60" aus einer Vielzahl von Nutzern 60, 60', 60". Alle Zustände, einschließlich momentan vorhandene oder aktuell ermittelte, sowie als regulär, normal oder unbedenklich eingestufte Zustände werden vorzugsweise kontextbasiert ermittelt, aktuell gehalten und/oder gespeichert, sodass kontextbasiert eine Bewertung erfolgen kann (z.B. abhängig von Zeit, Datum, Ort, Tageszeit, Wochentag, Wetter, Temperatur und dergleichen mehr).
-
In einem ersten Anwendungsbeispiel erfasst das System 100 gemäß der vorliegenden Offenbarung eine Änderung des Gesichtsausdrucks eines Nutzers 60, 60', 60" und ermittelt, basierend auf einer Vielzahl von Gesichtsausdrücken des Nutzers 60, 60', 60", einen besorgnisausdrückenden Gemütszustand des Nutzers 60, 60', 60". Weiter erfasst das System eine Blickrichtung des Nutzers 60, 60', 60", die auf ein in der Umgebung des Fahrzeugs 80 befindliches Fremdfahrzeug gerichtet ist. Das System 100 erfasst ein oder mehrere aktuelle Betriebsparameter des Fahrzeugs 80 (z.B. Fahrtrichtung und - geschwindigkeit) und Betriebsparameter des Fremdfahrzeugs (z.B. Fahrtrichtung und - geschwindigkeit) und ermittelt, ob aufgrund der erfassten Betriebsparameter des Fahrzeugs 80 sowie des Fremdfahrzeugs eine Gefahr besteht (z.B. Berührung, Zusammenstoß). Das System 100 ermittelt im ersten Anwendungsbeispiel, dass basierend auf den erfassten Betriebsparametern des Fahrzeugs 80 sowie des Fremdfahrzeugs keine Gefahrensituation vorliegt und gibt eine entsprechende Ausgabe an den Nutzer 60, 60', 60" aus. Die Ausgabe umfasst eine Projektion einer grün eingefärbten, transparenten Fläche auf das Fenster, das in der erfassten Blickrichtung des Nutzers 60, 60', 60" liegt, wobei die projizierte Fläche sich bezogen auf die erfasste Blickrichtung des Nutzers 60, 60', 60" im Wesentlichen in Überlagerung mit dem Fremdfahrzeug befindet. Dem Nutzer 60, 60', 60" wird so subtil suggeriert, dass vom durch den Nutzer 60, 60', 60" anvisierten Fremdfahrzeug keine Gefahr ausgeht.
-
In einem zweiten Anwendungsbeispiel erfasst das System 100 gemäß der vorliegenden Offenbarung eine Änderung des Gesichtsausdrucks zweier Nutzer 60, 60', 60" und ermittelt, basierend auf einer Vielzahl von Gesichtsausdrücken des jeweiligen Nutzers 60, 60', 60", einen von einem jeweiligen regulären bzw. als normal eingestuften Gesichtsausdruck der Nutzer 60, 60', 60". Weiter erfasst das System 100 ein oder mehrere aktuelle Betriebsparameter des Fahrzeugs 80 und ermittelt, basierend auf den erfassten ein oder mehreren aktuelle Betriebsparameter des Fahrzeugs 80 (z.B. mittels Reifendrucksensorik ermittelte Reifendrücke), einen Defekt am Fahrzeug 80 in Form eines plötzlichen Reifendruckverlustes. Das System 100 ermittelt weiter, basierend auf den erfassten ein oder mehrere Betriebsparametern des Fahrzeugs 80 (z.B. betreffend Ausstattungsmerkmale des Fahrzeugs 80), dass das Fahrzeug 80 mit Run-Flat Reifen ausgestattet ist, und das Fahrzeug 80 daher mit reduzierter Geschwindigkeit weiter betrieben werden kann. Das System 100 ermittelt somit im zweiten Anwendungsbeispiel, dass basierend auf den erfassten Betriebsparametern des Fahrzeugs 80 keine Gefahrensituation vorliegt und gibt eine entsprechende Ausgabe an den Nutzer 60, 60', 60" aus. Die Ausgabe umfasst im zweiten Anwendungsbeispiel eine Sprachausgabe, mittels derer die Nutzer 60, 60', 60" über den Defekt informiert werden und darüber, dass eine Weiterfahrt möglich ist. In einer bevorzugten Ausführungsform ist das System 100 konfiguriert, Daten aus dem Navigationssystem zu berücksichtigen. Basierend auf diesen Daten kann das System 100 eine Restfahrtstrecke ermitteln und mit einer durch den Reifendefekt bedingten, empfohlenen maximalen verbleibenden Fahrtstrecke zu vergleichen. Basierend auf dem Vergleich kann das System 100 den bzw. die Nutzer 60, 60', 60" darüber informieren, dass ein ins Navigationssystem eingegebenes Ziel noch erreicht werden kann, oder alternativ, dass eine Werkstätte zur Reparatur des Defektes angesteuert werden sollte.
-
In einem dritten Anwendungsbeispiel berücksichtigt das System 100 gemäß der vorliegenden Offenbarung eine Vielzahl an Kontextparametern, die einen Nutzungskontext kennzeichnen, und individuelle Schwellwerte für jeden der im Fahrzeug befindlichen Nutzer 60, 60', 60". Die Kontextparameter sind konfiguriert, einen Nutzungskontext zu kennzeichnen, beispielsweise umfassend Zeit, Datum, Ort, Tageszeit, Wochentag, Wetter, und/oder Temperatur. Im dritten Anwendungsbeispiel weisen ein erster Nutzer 60, 60', 60" und ein zweiter Nutzer 60, 60', 60" unterschiedliche Schwellwerte auf, wobei der erste Nutzer 60, 60', 60" eher selten zur Beunruhigung neigt und der zweite Nutzer 60, 60', 60", beispielsweise aufgrund einer schlechten Erfahrung, öfter zu Beunruhigung neigt. Die Kontextparameter weisen eine Fahrt bei schlechtem Wetter und hoher Verkehrsdichte aus. Das System 100 stellt in diesem Fall eine Beunruhigung des zweiten Nutzers 60, 60', 60" fest, während eine Erfassung des ersten Nutzer 60, 60', 60" keine Anzeichen dafür liefert. Entsprechend gibt das System 100 eine Information an den zweiten Nutzer 60, 60', 60" aus, dass sich die Betriebsparameter des Fahrzeugs im Normalbereich befinden und dass trotz höherer Verkehrsdichte eine pünktliche Ankunft am Ziel erwartet wird. Dies kann über eine optische Anzeige (z.B. im Rear-Seat Infotainment) exklusiv für den zweiten Nutzer 60, 60', 60" erfolgen, oder alternativ bzw. zusätzlich per Sprachausgabe für alle Nutzer 60, 60', 60" unabhängig einer für den/die jeweiligen Nutzer 60, 60', 60" festgestellte Beunruhigung.
-
Die Schwellwerte können wahlweise basierend auf den Kontextparametern bzw. abhängig davon ermittelt werden. So ist das System 100 konfiguriert, in Abhängigkeit der Kontextparameter und/oder in Abhängigkeit der individuellen Schwellwerte eine Bewertung der konkreten Fahrsituation und ggfs. Information der Nutzer 60, 60', 60" zu bewirken. So ist es beispielsweise möglich, dass einzelne Nutzer 60, 60', 60" einem ersten Kontext (z.B. tagsüber, im Stadtverkehr, bei niedrigen Geschwindigkeiten) relativ hohe Schwellwerte aufweisen (d.h. eher nicht zur Beunruhigung neigen) und in einem zweiten Kontext (z.B. abends oder nachts, auf Autobahnen oder Landstraßen, bei mittleren oder höheren Geschwindigkeiten) relativ geringe Schwellwerte aufweisen (d.h. eher zur Beunruhigung neigen).
-
In einem vierten Anwendungsbeispiel erfasst das System 100 gemäß der vorliegenden Offenbarung eine Änderung des Gesichtsausdrucks eines oder mehrerer Nutzer 60, 60', 60" und ermittelt, basierend auf einer Vielzahl von Gesichtsausdrücken des jeweiligen Nutzers 60, 60', 60", einen von einem jeweiligen regulären bzw. als normal eingestuften Gesichtsausdruck der Nutzer 60, 60', 60". Weiter erfasst das System 100 ein oder mehrere Umfeldparameter, die einen Betrieb des Fahrzeugs 80 kennzeichnen und ermittelt, basierend auf den erfassten ein oder mehreren Umfeldparametern eine ungewöhnliche Geräuschentwicklung außerhalb des Fahrzeugs 80, welche durch ein Einsatzfahrzeug mit Signalhorn bedingt ist. Das System 100 ermittelt weiter, basierend auf den erfassten ein oder mehreren Umfeldparametern, eine voraussichtliche Trajektorie des Einsatzfahrzeugs und setzt diese in Relation zu einer geplanten bzw. alternativen Trajektorie des Fahrzeugs 80 selbst. Hierbei kann das System 100 eine eventuelle Reaktion auf die Präsenz des Einsatzfahrzeugs berücksichtigen und gegebenenfalls von der geplanten Trajektorie abweichen (z.B. Bildung einer Rettungsgasse, Ausweichen auf Stand- oder Grünstreifen). Das System 100 ermittelt somit im vierten Anwendungsbeispiel, dass basierend auf den erfassten ein oder mehreren Umfeldparametern keine Gefahrensituation vorliegt und gibt eine entsprechende Ausgabe an den Nutzer 60, 60', 60" aus. Die Ausgabe umfasst im vierten Anwendungsbeispiel eine Sprachausgabe, mittels derer die Nutzer 60, 60', 60" über die Präsenz des Einsatzfahrzeugs. In einer bevorzugten Ausführungsform ist das System 100 konfiguriert, den oder die Nutzer 60, 60', 60" über eine eventuell erforderliche zeitweise Abweichung von einer geplanten Trajektorie hinzuweisen (z.B. zur Bildung einer Rettungsgasse, Ausweichen auf Stand- oder Grünstreifen) und darüber, dass eine Weiterfahrt in kürze möglich sein wird.
-
In einem fünften Anwendungsbeispiel erfasst das System 100 gemäß der vorliegenden Offenbarung ein oder mehrere Umfeldparameter, die einen Betrieb des Fahrzeugs 80 kennzeichnen und ermittelt, basierend auf den erfassten ein oder mehreren Umfeldparametern eine ungewöhnliche Geräuschentwicklung außerhalb des Fahrzeugs 80, welche durch eine von einem anderen Verkehrsteilnehmer ausgehende Geräuschentwicklung (z.B. Hupen eines anderen Fahrzeugs; alternativ Fahrradklingel, verbale Äußerung eines Fußgängers) bedingt ist. Das System 100 kann insbesondere konfiguriert sein, noch vor der Erfassung einer Änderung des Gesichtsausdrucks eines oder mehrerer Nutzer 60, 60', 60" und einer auf einer Vielzahl von Gesichtsausdrücken des jeweiligen Nutzers 60, 60', 60" basierendem Vergleich mit einem jeweiligen regulären bzw. als normal eingestuften Gesichtsausdruck der Nutzer 60, 60', 60" aktiv zu werden. Das System 100 ermittelt weiter, basierend auf den erfassten ein oder mehreren Umfeldparametern, dass die Geräuschentwicklung bzw. das Schallzeichen des anderen Verkehrsteilnehmers an einen dritten Verkehrsteilnehmer gerichtet ist bzw. war, und dass keine Gefahrensituation vorliegt. Das System gibt demnach eine entsprechende Ausgabe an den bzw. die Nutzer 60, 60', 60" aus. Die Ausgabe umfasst im fünften Anwendungsbeispiel eine Sprachausgabe, mittels derer der oder die Nutzer 60, 60', 60" über die Verkehrssituation informiert wird bzw. werden.
-
Das System 100 kann weiter konfiguriert sein, eine Effektivität der Ausgabe von Informationen an ein oder mehrere Nutzer 60, 60', 60" zu ermitteln. Eine Effektivität kann beispielsweise basierend auf einer quantifizierbaren und/oder qualitativ erfassbaren Änderung des Zustands eines Nutzers 60, 60', 60" ermittelt werden. Hierbei kann das System konfiguriert sein, innerhalb vorbestimmter Intervalle oder ausgelöst durch eine erfasste Veränderung des Zustands eines oder mehrerer Nutzer 60, 60', 60" eine Veränderung (bzw. das Fehlen einer Veränderung) zu erfassen und die Effektivität entsprechend zu ermitteln. Bei einer fehlenden oder zu geringen Effektivität kann das System 100 erneut eine Ausgabe von Informationen an den bzw. die Nutzer 60, 60', 60" vornehmen. Das Fehlen einer Veränderung nach Erfassen eines Zustands eines Nutzers 60, 60', 60" und einer erfolgten Ausgabe von Informationen an den Nutzer 60, 60', 60" kann mit einer geringen Effektivität assoziiert werden. In einem solchen Fall kann das System 100 konfiguriert sein, eine Modalität der Ausgabe zu verändern, um die Effektivität zu erhöhen (z.B. Sprachausgabe anstatt oder zusätzlich zu einer optischen Ausgabe).
-
Das System 100 kann insbesondere konfiguriert sein, eine Anpassung von Fahrzeugparametern vorzunehmen, welche einen Fahrbetrieb des Fahrzeugs 80 kennzeichnen. In den vorgenannten Anwendungsbeispielen kann das System 100 zusätzlich oder alternativ eine nutzerindividuelle Anpassung der Fahrzeugparameter dahingehend vornehmen, dass eine Fahrdynamik des Fahrzeugs an einen jeweiligen ermittelten Gemütszustand der ein oder mehreren Nutzer 60, 60', 60" angepasst wird. Hierbei kann das System 100 beispielsweise eine Quer- und/oder Längsbeschleunigung anpassen, um eine Beruhigung der ein oder mehreren Nutzer 60, 60', 60" zu bewirken, welche durch eine wahrgenommene und/oder wahrnehmbare Quer- und/oder Längsbeschleunigung hervorgerufen wurde und/oder mit einer solchen korrelieren könnte. Beispielhafte Fahrzeugparameter beinhalten ein oder mehrere von: Gangwahl, Drehzahlniveaus, gewählte Fahrprogramme (z.B. sportlich, ökonomisch, komfortbetont), Akustikparameter (z.B. betreffend eine Abgasanlage), Gradienten und/oder Minimal- bzw. Maximalwerte für eine Betätigung von Fahrdynamischen Komponenten (z.B. Fahrpedal, Bremse), Fahrwerksabstimmung, und dergleichen mehr.
-
4 zeigt ein Flussdiagramm eines Verfahrens 400 zur nutzerindividuellen Anpassung von Parametern eines Fahrzeugs 80 gemäß Ausführungsformen der vorliegenden Offenbarung. Die nutzerindividuelle Anpassung bezieht sich auf einen oder mehrere Nutzer 60, 60', 60" des Fahrzeugs 80. Das Verfahren beginnt bei Schritt 401. In Schritt 402 wird, für jeden der ein oder mehreren Nutzer 60, 60', 60", ein erstes kognitives Modell ermittelt, das konfiguriert ist, ein oder mehrere Persönlichkeits- und/oder Zustandsmerkmale für einen jeweiligen Nutzer abzubilden. In Schritt 404 wird, für jeden der ein oder mehreren Nutzer 60, 60', 60", ein Zustand des jeweiligen Nutzers 60, 60', 60" basierend auf dem ersten kognitiven Modell 103 ermittelt. In Schritt 406 wird, für jeden der ein oder mehreren Nutzer 60, 60', 60", eine jeweilige Abweichung des ermittelten jeweiligen Zustands von einem Normalzustand basierend auf dem ersten kognitiven Modell 103 ermittelt. In Schritt 408 wird, basierend auf dem ersten kognitiven Modell und basierend auf den ermittelten ein oder mehreren Abweichungen, ermittelt, ob individuell für die ein oder mehreren Nutzer 60, 60', 60" eine Anpassung der ein oder mehreren Parameter des Fahrzeugs 80 erfolgen soll. Falls eine Anpassung erfolgen soll, folgt Schritt 410, falls nicht, wird das Verfahren 400 in Schritt 404 fortgesetzt. In Schritt 410 werden die anzupassenden ein oder mehreren Parameter basierend auf dem ersten kognitiven Modell und basierend auf den ermittelten ein oder mehreren Abweichungen ermittelt und in Schritt 412 werden die ein oder mehreren Parameter basierend auf dem ersten kognitiven Modell angepasst.
-
Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 2010/0134302 A1 [0006]
- US 2018061415 A1 [0007]
- WO 2002/063599 A1 [0008]
-
Zitierte Nicht-Patentliteratur
-
- Norm SAE J3016 [0050]
- SAE J3016 [0050]