AT521647B1 - Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten - Google Patents
Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten Download PDFInfo
- Publication number
- AT521647B1 AT521647B1 ATA50788/2018A AT507882018A AT521647B1 AT 521647 B1 AT521647 B1 AT 521647B1 AT 507882018 A AT507882018 A AT 507882018A AT 521647 B1 AT521647 B1 AT 521647B1
- Authority
- AT
- Austria
- Prior art keywords
- ego
- vehicle
- sensor data
- representation
- scenario
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Combustion & Propulsion (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Biomedical Technology (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Datenaufbereitung von dynamischen räumlichen Szenarien, ein Computer-gestütztes Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes sowie ein Computergestütztes Verfahren und ein System zum Analysieren von Sensordaten. Es wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts durch ein anderes Objekt abgedeckt wird, erzeugt. Der zeitliche Verlauf ist dazu aus Sensordaten ermittelt, wobei die Sensordaten geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren.
Description
VERFAHREN UND SYSTEM ZUR DATENAUFBEREITUNG, ZUM TRAINIEREN EINES KUNSTLICHEN NEURONALEN NETZES UND ZUM ANALYSIEREN VON SENSORDATEN
[0001] Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Datenaufbereitung von dynamischen räumlichen Szenarien für die Verarbeitung durch ein künstliches neuronales Netz, ein Computer-gestütztes Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes sowie ein Computer-gestütztes Verfahren und ein System zum Analysieren von Sensordaten.
[0002] Moderne Fahrzeuge sind zunehmend mit Fahrerassistenzsystemen (engl. Advanced Driver Assistance Systems, ADAS) ausgestattet, welche den Fahrer in bestimmten Fahrsituationen unterstützen. Die Unterstützung reicht von reinem Anzeigen möglicherweise relevanter Information (z.B. Ausgeben einer Warnung durch einen Spurwechselassistent) über teilautonome Eingriffe (z.B. Regulierung des auf die Radachsen aufgebrachten Moments durch ein Antiblockiersystem) bis hin zu vollautonomen Eingriffen in die Steuerung des Fahrzeugs (z.B. adaptive Geschwindigkeitsregelung durch einen Abstandsregeltempomat, engl. Adaptive Cruise Control, ACC).
[0003] Die Grundlage für solche Fahrerassistenzsysteme bilden in der Regel Sensordaten, etwa bereitgestellte Signale von Ultraschallsensoren, Radarsensoren oder Kameras, anhand denen die gegenwärtige Fahrsituation bestimmt und in Reaktion darauf die Funktion des jeweiligen Fahrerassistenzsystems ausgeführt werden kann. Insbesondere bei Fahrerassistenzsystem, die (autonom) in die Steuerung des Fahrzeugs eingreifen, muss anhand der Sensordaten die gegenwärtige Fahrsituation höchst zuverlässig klassifiziert werden können.
[0004] Im Allgemeinen werden dabei bestimmte, einer Fahrsituation zugeordnete Regeln bzw. Kriterien aufgestellt, bei deren Erfüllung auf ein Vorliegen einer bekannten Fahrsituation geschlossen werden kann. Das Erfüllen der Regel bzw. Kriterien wirkt dabei z.B. als Auslöser für eine Aktion des Fahrerassistenzsystems. Beispielsweise kann ein Verkehrsszenario, in dem ein benachbartes Fahrzeug vor dem Ego-Fahrzeug genannten, mit dem Fahrerassistenzsystem ausgestatteten Fahrzeug in die gleiche Fahrspur einschert, dadurch erkannt werden, dass ein sensorisch erfasster transversaler Abstand senkrecht zur Fahrtrichtung zum benachbarten Fahrzeug abnimmt und schließlich, zumindest im Wesentlichen, den Wert 0 annimmt, wenn das benachbarte Fahrzeug sich unmittelbar vor dem Ego-Fahrzeug befindet.
[0005] Das Programmieren von Algorithmen, die dazu geeignet sind, solche Fahrsituationen bzw. Szenarien (zuverlässig) zu erkennen, ist im Allgemeinen extrem aufwändig und insbesondere bei einer Vielzahl von zu berücksichtigenden Fahrsituationen gegebenenfalls sogar unmöglich. Daher wird verstärkt maschinelles Lernen eingesetzt, um Charakteristika in Sensordaten, die auf eine Fahrsituation hinweisen, automatisch zu finden. Bei den zugrunde gelegten Sensordaten handelt es sich üblicherweise um, z.B. manuell, bezüglich verschiedener Fahrsituationen klassifizierte Sensordaten (engl. labeled sensor data), anhand deren beispielsweise ein künstliches neuronales Netz die relevanten Kriterien für die jeweilige Fahrsituation extrahieren kann. Dabei müssen die klassifizierten Sensordaten in der Regel in einer vorgegebenen Form vorliegen, d.h. entsprechend aufbereitet sein, um von dem künstlichen neuronalen Netz sinnvoll verarbeitet werden zu können.
[0006] Einen Ansatz für eine solche Aufbereitung stellen so genannte Gitterkarten (engl. grid maps) dar, welche die entsprechenden Fahrsituationen aus der Vogelperspektive zeigen. Die Dynamik einer zu Grunde liegenden Fahrsituation wird dabei wiedergegeben, indem beispielsweise alle im Laufe der Zeit eingenommen Positionen der jeweiligen Verkehrsteilnehmer in der entsprechenden Gitterkarte abgebildet werden.
[0007] Solche Gitterkarten werden beispielsweise in Gruner et. al., „Spatiotemporal Representation of Driving Scenarios and Classification using Neural Networks“, 2017 IEEE Intelligent Vehicle Symposium, S. 1782-1788, diskutiert.
[0008] In Cara and de Gelder, „Classification for safety-critical car-cyclist scenarios using machine learning“, 2015 IEEE 18th International Conference on Intelligent Transportation Systems, S. 1955-2000, werden verschiedene Algorithmen zur Klassifizierung von Fahrzeug-Fahrradfahrer-Szenarien verglichen. Dabei wird bei einem angeleiteten Lernen (supervised learning) eine Trainingsmenge von ausgezeichneten Objekten (labeled objects) verwendet, um sog. Klassifikatoren (classifier) zu trainieren. Nach dem Training sind die Klassifikatoren in der Lage, ein neues unbekanntes Szenario auszuzeichnen, indem sie es einer geschätzten Klasse zuteilen.
[0009] Es ist eine Aufgabe der vorliegenden Erfindung, die Verarbeitung von Sensordaten, die geeignet sind, ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren, weiter zu verbessern. Es ist insbesondere eine Aufgabe der Erfindung, die Aufbereitung von solchen Sensordaten für die Verarbeitung durch ein künstliches neuronales Netz zu verbessern, insbesondere einen Informationsverlust bei der Aufbereitung zu verhindern oder zumindest zu reduzieren.
[0010] Diese Aufgabe wird gelöst durch ein Verfahren und ein System zur Datenaufbereitung, ein Verfahren und ein System zum Trainieren eines künstlichen neuronalen Netzes und ein Verfahren und ein System zum Analysieren von Sensordaten gemäß den unabhängigen Ansprüchen.
[0011] Ein erster Aspekt der Erfindung betrifft ein Verfahren zur Datenaufbereitung von dynamischen räumlichen Szenarien, insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines EgoFahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt wird, erzeugt. Der zeitliche Verlauf ist dazu aus Sensordaten ermittelt, wobei die Sensordaten geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren.
[0012] Ein räumliches Szenario im Sinne der Erfindung wird insbesondere aus einer zeitlichen Abfolge von räumlichen, insbesondere statischen, Szenen gebildet. Die räumlichen Szenen geben dabei beispielsweise die räumliche Anordnung von dem wenigstens einen anderen Objekt relativ zum Ego-Objekt, z.B. die Konstellationen von Verkehrsteilnehmern, an. Ein räumliches Szenario kann insbesondere eine Fahrsituation enthalten, in der ein Fahrerassistenzsystem das Ego-Fahrzeug genannte, mit dem Fahrerassistenzsystem ausgestattete Fahrzeug zumindest teilweise steuert, z.B. wenigstens eine Fahrzeugfunktion des Ego-Fahrzeugs autonom ausführt.
[0013] Dynamisch im Sinne der Erfindung bedeutet insbesondere zeitliche Abfolge bzw. zeitlicher Verlauf. Verkehrsszenarien sind beispielsweise dynamisch, da die einzelnen Verkehrsteilnehmer sich im Laufe der Zeit relativ zueinander bewegen, d.h. ihre Positionen relativ zueinander ändern.
[0014] Eine Darstellung im Sinne der Erfindung ist insbesondere eine graphische Darstellung, z.B. eine Grafik oder ein Diagramm. Die Darstellung enthält vorzugsweise eine, insbesondere zwei- oder dreidimensionale, Abbildung. Alternativ oder zusätzlich kann die Darstellung auch eine mathematische Darstellung enthalten, z.B. eine Zuordnungsvorschrift bzw. eine Funktion. Die Darstellung kann beispielsweise den zeitlichen Verlauf eines Winkelsektors, der aus der Perspektive des Ego-Objekts von dem anderen Objekt abgedeckt wird, in einer kartenähnlichen Abbildung zeigen.
[0015] Sensordaten im Sinne der Erfindung sind insbesondere von realen oder simulierten Sensoren, insbesondere Umgebungssensoren, erzeugte Daten, insbesondere in der Form von Signalen, d.h. reale oder simulierte Sensordaten. Die Sensoren sind dabei vorzugsweise dazu eingerichtet, ein Umfeld des Ego-Fahrzeugs zu erfassen und entsprechende Sensordaten zu erzeugen, so dass die Sensordaten das Umfeld des Ego-Fahrzeugs charakterisieren. Bei den Sensordaten handelt es sich vorzugsweise um Sensor-Fusions-Daten, die aus einer Kombination von durch die Sensoren bereitgestellten Signalen erhalten werden und gegebenenfalls be-
reits, zumindest bis zu einem gewissen Grad, aufbereitet sind.
[0016] Ein Ego-Objekt im Sinne der Erfindung ist insbesondere dasjenige Objekt, aus dessen Perspektive das dynamische räumliche Szenario betrachtet wird. Ein Ego-Objekt kann beispielsweise ein (Ego-)Fahrzeug sein, aus dessen Sicht ein Verkehrsszenario erfasst und gegebenenfalls analysiert und/oder bewertet wird, etwa um ein Fahrerassistenzsystem adäquat steuern bzw. auf das erfasste Verkehrsszenario reagieren lassen zu können. Daher werden Sensordaten, die beispielsweise zur weiteren Verarbeitung aufbereitet werden, vorzugsweise von Umgebungssensoren des Ego-Fahrzeugs erzeugt, wobei die Umgebungssensoren wie etwa Ultraschallsensoren, Radarsensoren, Kameras und/oder dergleichen zur Erfassung des Umfelds des Ego-Fahrzeugs eingerichtet sind.
[0017] Ein Winkelsektor im Sinne der Erfindung ist insbesondere derjenige Bereich, welcher aus der Perspektive des Ego-Objekts von einem anderen Objekt eingenommen wird. Aus Sicht eines Ego-Fahrzeugs korrespondiert der Winkelsektor beispielsweise mit demjenigen Bereich, der durch ein anderes Fahrzeug abgedeckt wird. Vorzugsweise wird der Winkelsektor dabei durch die Querschnittsfläche des Objekts bzw. dessen Kontur definiert. Beispielsweise kann der Winkelsektor durch eine maximale Ausdehnung der Querschnittsfläche bzw. Kontur entlang einer vorgegebenen Richtung, insbesondere in horizontaler Richtung, definiert sein.
[0018] Die Erfindung basiert insbesondere auf dem Ansatz, aus Sensordaten ermittelte Information bezüglich eines dynamischen räumlichen Szenarios, etwa einer Verkehrssituation, in einer Darstellung zu codieren. Die Darstellung kann daher auch als Abstraktion des Szenarios aufgefasst werden und dient insbesondere dazu, verschiedene Informationstypen, beispielsweise Positionen, Translationen, Anzahl von Objekten und/oder dergleichen, zusammenzufassen.
[0019] Die Darstellung wird vorzugsweise auf Grundlage der zeitlichen Entwicklung eines Winkelsektors erzeugt, in dem das Sichtfeld eines Ego-Objekts von einem anderen Objekt abgedeckt wird. Mit Hilfe des Winkelsektors können dabei insbesondere Konstellation von Objekten in räumlichen Szenen relativ zueinander beschrieben werden. Die Darstellung ist vorzugsweise eine grafische, insbesondere zwei- oder dreidimensionale, Abbildung, die - in abstrakter Weise sowohl die Position als auch die Bewegung der Objekte relativ zueinander zeigt. Beispielsweise kann die Bewegung eines Objekts in der Abbildung durch eine, insbesondere geometrische, Form repräsentiert werden.
[0020] Vorzugsweise kann auf der Grundlage seiner Analyse solch einer Abbildung eine charakteristische Form gefunden werden. Dabei ist die Form insbesondere charakteristisch für das dynamische räumliche Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt. Mit anderen Worten stellt die charakteristische Form ein Muster dar, das z.B. mittels eines künstlichen neuronalen Netzes durch Analyse einer solchen Darstellung, gegebenenfalls auch mehrerer solcher Darstellungen, die auf Basis der Sensordaten erzeugt wurden, gefunden werden kann.
[0021] Im Umkehrschluss kann auch, wenn die charakteristischen Formen bzw. Muster für verschiedene dynamische räumliche Szenarien bekannt sind und z.B. als Schablonen vorliegen, anhand einer Auswertung einer Darstellung das entsprechende dynamische räumliche Szenario ermittelt werden.
[0022] Die auf der zeitlichen Entwicklung des Winkelsektors basierende Darstellung eines dynamischen räumlichen Szenarios hat den Vorteil, dass ihr Informationsgehalt nicht oder zumindest nur geringfügig von Variationen des Szenarios abhängt. Verschiedene Varianten des Szenarios, etwa ein besonders schnell oder besonders langsam ausgeführtes Fahrmanöver, erzeugen zwar unterschiedliche Abbildungen in der Darstellung, jedoch mit im Wesentlichen gleicher oder zumindest ähnlicher Form.
[0023] Beispielsweise erzeugt das Auftragen des Winkelsektors, der bezüglich des Sichtfelds eines Ego-Fahrzeugs von einem anderen Fahrzeug abgedeckt wird und damit die Position des anderen Fahrzeugs relativ zum Ego-Fahrzeug darstellt, gegen die Zeit ein Muster, dessen Form für das vom anderen Fahrzeug durchgeführte Fahrmanöver charakteristisch ist. Entfernt sich
das andere Fahrzeug z.B. vom Ego-Fahrzeug, wird der abgedeckte Winkelsektor etwa kleiner, während er sich bei einer Annäherung entsprechend vergrößert. Bewegt sich das andere Fahrzeug z.B. bezüglich der Fahrtrichtung seitlich zum Ego-Fahrzeug, verschiebt sich der abgedeckte Winkelsektor. Das dabei entstehende Muster, das beispielsweise eine charakteristische Krümmung aufweist, kann dann einem Fahrmanöver zuverlässig zugeordnet werden, auch wenn die Abbildung in Abhängigkeit der Durchführung des Fahrmanövers, etwa aggressiv oder defensiv, in der Regel variiert, z.B. gestaucht oder gestreckt ist.
[0024] Die Darstellung der zeitlichen Entwicklung des Winkelsektors erlaubt es somit, verschiedene Typen von Information in kompakter Weise zusammenzufassen. Da hierbei ein Zeitablauf dargestellt wird, werden Uberlappungen, z.B. von graphischen Elementen, und ein damit verbundener Informationsverlust vermieden oder zumindest reduziert. Zugleich kann in Folge beispielsweise Speicherplatz eingespart und das Auswerten von Sensordaten beschleunigt werden. Gleichzeitig ermöglicht die Darstellung eine zuverlässige Identifikation von dynamischen räumlichen Szenarien.
[0025] Gegenüber Gitterkarten hat die Darstellung der zeitlichen Entwicklung des Winkelsektors z.B. den Vorteil, dass die gleiche Information durch eine wesentlich geringere Datenmenge abgebildet werden kann. In einer Gitterkarte tragen einzelne Pixel, die nicht durch ein anderes Fahrzeug belegt sind (d.h. „leere“ Pixel), beispielsweise nicht zum Informationsgehalt, der etwa von einem künstlichen neuronalen Netz genutzt werden kann, bei. Insbesondere kann die benötigte Datenmenge, um ein künstliches neuronales Netz zu trainieren, durch die Verwendung der Darstellung der zeitlichen Entwicklung des Winkelsektors um einen Faktor 27 reduziert werden.
[0026] Insgesamt ermöglicht es die vorliegende Erfindung, die Verarbeitung von Sensordaten weiter zu verbessern. Es kann insbesondere die Aufbereitung von Sensordaten für die Verarbeitung durch ein künstliches neuronales Netz verbessert werden, beispielsweise indem ein Informationsverlust bei der Aufbereitung verhindert oder zumindest reduziert wird.
[0027] Nachfolgend werden bevorzugte Ausführungsformen der Erfindung und deren Weiterbildungen beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird, beliebig miteinander sowie mit den im Weiteren beschriebenen Aspekten der Erfindung kombiniert werden können.
[0028] In einer bevorzugten Ausführungsform wird die Darstellung an ein künstliches neuronales Netz ausgegeben oder für die Verarbeitung durch das künstliche neuronale Netz bereitgestellt. Beispielsweise kann die Darstellung als Datenpaket, insbesondere als digitales Bild, auf einem Speichermedium gespeichert oder über eine Schnittstelle direkt an das künstliche neuronale Netz übertragen werden. Dadurch können auch große Mengen an Sensordaten zum Trainieren des künstlichen neuronalen Netzes, insbesondere zum Ermitteln von für ein vorgegebenes Szenario charakteristischen Mustern in der Darstellung, wie etwa der Form einer Figur in der Darstellung, herangezogen werden.
[0029] Ein zweiter Aspekt der Erfindung betrifft ein Computer-gestütztes Verfahren zum Trainieren eines künstlichen neuronalen Netzes auf der Grundlage von Sensordaten, welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten erzeugt. Die erzeugte Darstellung zusammen wird mit einer Information über das räumliche Szenario dem künstlichen neuronalen Netz zugeführt. Dadurch kann das künstliche neuronale Netz besonders schnell und zuverlässig auf das Erkennen von für verschiedene Szenarios charakteristischen Mustern trainiert werden.
[0030] Die Information über das räumliche Szenario enthält dabei in bevorzugter Weise einen Hinweis auf eine Klassifizierung (engl. label) des Szenarios, mit dessen Hilfe das Szenario, vorzugsweise eindeutig, identifiziert werden kann. Die Information kann dabei bereits in den Sensordaten enthalten sein, etwa wenn es sich um simulierte Sensordaten handelt, die von
einem Simulator bei der Simulation eines bestimmten Szenarios erzeugt wurden. Alternativ kann die Information dem künstlichen neuronalen Netz aber auch als separater Datenstrom zugeführt werden, etwa wenn die Sensordaten zuvor bereits analysiert und bezüglich wenigstens eines Szenarios klassifiziert wurden. Diese Klassifizierung kann insbesondere manuell durchgeführt worden sein, beispielsweise durch die Analyse eines mit den Sensordaten korrespondierenden Bilderstroms.
[0031] Ein dritter Aspekt der Erfindung betrifft ein Computer-gestütztes Verfahren zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Dabei wird eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten erzeugt. Die erzeugte Darstellung wird mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios verglichen. Dadurch kann anhand eines Sensordatenstroms, wie er beispielsweise von Umgebungssensoren eines Fahrzeugs bereitgestellt wird, ein Vorliegen eines bekannten Szenarios besonders schnell und zuverlässig erkannt werden.
[0032] Die vordefinierte Schablone ist in bevorzugter Weise eine generische Darstellung der zeitlichen Entwicklung des Winkelsektors, die z.B. alle wesentlichen charakteristischen Muster eines Szenarios enthält. Beispielsweise kann die vordefinierte Schablone eine Darstellung sein, die wenigstens eine Figur enthält, deren Form charakteristisch für ein Fahrmanöver eines Fahrzeugs ist, das im Rahmen eines Verkehrsszenarios ausgeführt wird.
[0033] Vorzugsweise wird die vordefinierte Schablone auf der Grundlage von mehreren Darstellungen, die charakteristisch für das bekannte dynamische räumliche Szenario sind, ermittelt. Insbesondere können die mehreren Darstellungen, die charakteristisch für das bekannte Szenario sind, gemittelt werden. Diese Darstellungen können dabei beispielsweise zuvor aus Sensordaten, die bezüglich des Szenarios klassifiziert wurden, erzeugt worden sein. Dadurch kann ein hohes Maß an Zuverlässigkeit beim Vergleichen der erzeugten Darstellung mit der vordefinierten Schablone erreicht werden.
[0034] In einer bevorzugten Ausführungsform wird das dynamische räumliche Szenario auf der Grundlage des Vergleichens klassifiziert, etwa indem die ermittelte Darstellung der wenigstens einen vordefinierten Schablone zugeordnet wird. Dadurch kann das Szenario zuverlässig identifiziert und gegebenenfalls Reaktionen eines Fahrerassistenzsystem ausgelöst werden.
[0035] Vorzugsweise wird beim Vergleichen der erzeugten Darstellung mit der vordefinierten Schablone ein Ahnlichkeitsmaß ermittelt, auf dessen Grundlage das Szenario beispielsweise klassifiziert und die erzeugte Darstellung einem Szenario zugeordnet werden kann. Es ist z.B. denkbar, die erzeugte Darstellung demjenigen Szenario zuzuordnen, auf dessen vordefinierte Schablonen sich die erzeugte Darstellung mittels eines Verfahrens zur elastischen Anpassung (engl. elastic matching oder nonlinear template matching) am besten abbilden lässt, d.h. für die ein durch das Verfahren erhaltenes Ahnlichkeitsmaß maximal wird. Dadurch kann das Szenario besonders zuverlässig identifiziert werden.
[0036] In einer weiteren bevorzugten Ausführungsform wird eine Schablone für ein neues dynamischen räumliches Szenarios definiert, wenn die erzeugte Darstellung nicht der wenigstens einen vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zugeordnet werden kann. Dadurch können neue dynamische Szenarien identifiziert, insbesondere klassifiziert, werden. Insbesondere können neue dynamische Szenarien somit im Wesentlichen in Echtzeit identifiziert werden.
[0037] Beispielsweise kann eine Schablone für ein neues dynamisches räumliches Szenario definiert werden, wenn ein beim Vergleichen der erzeugten Darstellung ermitteltes Ähnlichkeitsmaß einen vorgegebenen Schwellenwert nicht erreicht. Dadurch kann auf einfache Weise, insbesondere in Echtzeit, ein Katalog von vordefinierten Schablonen von bekannten dynamischen räumlichen Szenarien erzeugt werden.
[0038] In einer weiteren bevorzugten Ausführungsform gibt die erzeugte Darstellung des Weiteren einen, insbesondere transversalen, Abstand des Ego-Objekts zu dem anderen Objekt und/oder einer, insbesondere transversalen, Geschwindigkeit des Ego-Objekts wieder, wobei der Abstand und/oder die Geschwindigkeit ebenfalls aus Sensordaten ermittelt ist oder sind. Dabei ist die entsprechende Abstandsinformation bzw. Geschwindigkeitsinformation vorzugsweise derart in der Darstellung encodiert, dass sie unabhängig wenigstens von der räumlichen Anordnung des anderen Objekts relativ zum Ego-Objekt ausgelesen werden kann. Durch Berücksichtigung des Abstands und/oder der Geschwindigkeit kann ein vorliegendes dynamisches räumliches Szenario besonders zuverlässig identifiziert werden. Insbesondere ermöglicht die Berücksichtigung des Abstands und/oder der Geschwindigkeit auch eine besonders feine Unterscheidung zwischen verschiedenen dynamischen räumlichen Szenarien.
[0039] Die Geschwindigkeit des Ego-Objekts kann insbesondere eine Transversalgeschwindigkeit, d.h. eine Geschwindigkeitskomponente im Wesentlichen senkrecht zur dominanten (longitudinalen) Bewegungsrichtung, z.B. einer Fahrtrichtung, des Ego-Objekts, aufweisen. Vorzugsweise ist die in der erzeugten Darstellung wiedergegebene Geschwindigkeit des EgoObjekts ausschließlich aus der Transversalgeschwindigkeit gebildet.
[0040] Bei Geradeausfahrt ist Transversalgeschwindigkeit des Ego-Fahrzeugs beispielsweise Null, während sie bei einem Spurwechsel bis auf einen maximalen Wert anwächst und dann wieder auf Null abfällt.
[0041] Anhand der in der Darstellung wiedergegebenen Geschwindigkeit kann z.B. zwischen einem Spurwechsel, der vom Ego-Fahrzeug durchgeführt wird, und einem Spurwechsel, der von einem anderen Fahrzeug durchgeführt wird, unterschieden werden. Da sich diese beiden Fahrmanöver bezüglich der relativen Bewegung des Ego-Fahrzeugs und des anderen Fahrzeugs zueinander nicht unterscheiden, d.h. die Darstellung in beiden Fällen beispielsweise die gleiche Figur zeigt, ermöglicht erst die Berücksichtigung der Transversalgeschwindigkeit des Ego-Fahrzeugs eine zuverlässige Aussage, welches Fahrzeug die Fahrspur wechselt.
[0042] Der Abstand des Ego-Objekts zum anderen Objekt kann insbesondere einen Transversalabstand, d.h. eine Abstandskomponente im Wesentlichen senkrecht zur dominanten (longitudinalen) Bewegungsrichtung, z.B. einer Fahrtrichtung, des Ego-Objekts, aufweisen. Vorzugsweise ist der in der erzeugten Darstellung wiedergegebene Abstand des Ego-Objekts zum anderen Objekt ausschließlich aus dem Transversalabstand gebildet.
[0043] Wird das Ego-Fahrzeug beispielsweise von einem anderen Fahrzeug auf einer benachbarten Fahrspur überholt, ändert sich der absolute Abstand zwischen dem Ego-Fahrzeug und dem anderen Fahrzeug. Der Transversalabstand bleibt jedoch konstant, solange weder das Ego-Fahrzeug noch andere Fahrzeugs seine jeweilige Fahrspur verlässt. Die Anderung des Transversalabstands erlaubt daher (weitere) Rückschlüsse auf das, etwa im Rahmen eines Szenarios, durchgeführte Manöver.
[0044] In einer weiteren bevorzugten Ausführungsform wird der zeitliche Verlauf eines Winkelsektors durch eine Linie dargestellt, deren Breite einen Wert des jeweils vorliegenden Winkelsektors angibt. Alternativ oder zusätzlich wird oder werden ein Abstand des Ego-Objekts zu dem anderen Objekt und/oder eine Geschwindigkeit des Ego-Objekts durch einen hinterlegten Wert oder eine Einfärbung an der jeweiligen Stelle der Linie, welche dem Zeitpunkt des Vorliegens des Abstands und/oder der Geschwindigkeit entspricht, dargestellt.
[0045] Der hinterlegte Wert bzw. die Einfärbung der Linie kann alternativ oder zusätzlich durch eine, insbesondere generische, Funktion ermittelt werden, in die als Eingangsgrößen z.B. der, insbesondere transversale, Abstand zwischen dem Ego-Objekt und dem anderen Objekt und/oder die, insbesondere transversale, Geschwindigkeit des Ego-Objekts eingehen. Anhand der Funktion kann beispielsweise der Abstand und die Geschwindigkeit, gegebenenfalls unter Berücksichtigung einer Gewichtung, addiert oder multipliziert werden. Insbesondere kann die Geschwindigkeit mit dem Abstand oder der Abstand mit der Geschwindigkeit gewichtet werden. Die dadurch erhalte, in der Darstellung oder durch den hinterlegten Wert wiedergegebene Infor-
mation ermöglicht eine besonders zuverlässige und detaillierte Unterscheidung von Fahrmanövern bzw. den damit korrespondierenden dynamischen räumlichen Szenarien.
[0046] Die Funktion wird dabei vorzugsweise dazu verwendet, um die Wahrnehmung eines künstlichen neuronalen Netzes zu manipulieren. Mit anderen Worten kann die Funktion so gewählt werden, dass die daraus resultierenden Darstellungen das von dem künstlichen neuronalen Netz erkannte Muster beeinflussen. Dadurch können unterschiedliche dynamische räumliche Szenarien besonders zuverlässig unterschieden werden.
[0047] Alternativ oder zusätzlich können auch andere Parameter als der Abstand zwischen dem Ego-Objekt und dem anderen Objekt und/oder die Geschwindigkeit des Ego-Objekts als Eingangsgrößen der Funktion gewählt werden. Die Parameter können z.B. in Abhängigkeit von dem, insbesondere bekannten, dynamischen räumlichen Szenario gewählt werden. Vorzugsweise werden Parameter als Eingangsgrößen gewählt, die das dynamische räumliche Szenario zumindest teilweise charakterisieren.
[0048] Ein vierter Aspekt der Erfindung betrifft ein System zur Datenaufbereitung von dynamischen räumlichen Szenarien, insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz. Das System weist ein Ermittlungsmodul auf, welches dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors, welcher aus der Perspektive eines EgoObjekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt wird, aus Sensordaten zu ermitteln. Die Sensordaten sind dabei geeignet, um ein dynamisches räumliches Szenario in Bezug auf das Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist zudem ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung des ermittelten zeitlichen Verlaufs zu erzeugen.
[0049] Ein fünfter Aspekt der Erfindung betrifft ein System zum Trainieren eines künstlichen neuronalen Netzes auf der Grundlage von Sensordaten, welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten zu erzeugen. Das System weist zudem eine Schnittstelle auf, die dazu eingerichtet ist, die erzeugte Darstellung zusammen mit einer Information über das räumliche Szenario dem künstlichen neuronalen Netz zuzuführen.
[0050] Ein sechster Aspekt der Erfindung betrifft ein System zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Das System weist ein Erzeugungsmodul auf, welches dazu eingerichtet ist, eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive eines Ego-Objekts, insbesondere eines Ego-Fahrzeugs, durch ein anderes Objekt, insbesondere ein anderes Fahrzeug, abgedeckt ist, auf der Grundlage der Sensordaten zu erzeugen. Das System weist zudem ein Vergleichsmodul auf, welches dazu eingerichtet ist, die erzeugte Darstellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zu vergleichen.
[0051] Die in Bezug auf den ersten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung beschriebenen Merkmale und Vorteile gelten, zumindest wo technisch sinnvoll, auch für den zweiten, dritten, vierten, fünften und sechsten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung sowie umgekehrt.
[0052] Weitere Merkmale, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung im Zusammenhang mit den Figuren, in denen durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechende Elemente der Erfindung verwendet werden. Es zeigen wenigstens teilweise schematisch:
[0053] Fig. 1 Jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems zur Datenaufbereitung und eines erfindungsgemäßen Systems zum Trainieren eines künstlichen neuronalen Netzes;
[0054] Fig. 2 ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems zur Analyse von Sensordaten;
[0055] Fig. 3 ein Beispiel für das Ermitteln eines Winkelsektors in einem Verkehrsszenario;
[0056] Fig. 4 ein erstes Beispiel zur Erläuterung des Zusammenhangs zwischen einer erfindungsgemäßen Darstellung und einem korrespondieren dynamischen räumlichen Szenario;
[0057] Fig. 5 ein zweites Beispiel zur Erläuterung des Zusammenhangs zwischen einer erfindungsgemäßen Darstellung und einem korrespondieren dynamischen räumlichen Szenario;
[0058] Fig. 6 jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Datenaufbereitung und eines erfindungsgemäßen Verfahrens zum Trainieren eines künstlichen neuronalen Netzes; und
[0059] Fig. 7 ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Datenauswertung.
[0060] Fig. 1 zeigt Jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Systems 100 zur Datenaufbereitung von dynamischen räumlichen Szenarien und eines erfindungsgemäßen Systems 200 zum Trainieren eines künstlichen neuronalen Netzes 1. Das System 100 zur Datenaufbereitung weist ein Ermittlungsmodul 2 und ein Erzeugungsmodul 3 auf, wobei das Ermittlungsmodul 2 dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors, der aus der Perspektive eines Ego-Objekts durch ein anderes Objekt abgedeckt wird, aus Sensordaten S zu ermitteln, und wobei das Erzeugungsmodul 3 dazu eingerichtet ist, eine Darstellung des ermittelten zeitlichen Verlaufs zu erzeugen. Das System 200 zum Trainieren des künstlichen neuronalen Netzes 1 weist das Erzeugungsmodul 3 und eine Schnittstelle 4 auf, wobei die Schnittstelle 4 dazu eingerichtet ist, die erzeugte Darstellung zusammen mit einer Information über ein dynamisches räumliches Szenario dem künstlichen neuronalen Netz 1 zuzuführen.
[0061] Die Sensordaten S werden beispielsweise von Umgebungssensoren eines EgoFahrzeugs beim Erfassen eines Verkehrsszenarios erzeugt und charakterisieren etwa die Anzahl benachbarter Fahrzeuge, die relative Anordnung, insbesondere die relativen Abstände, der anderen Fahrzeuge zum Ego-Fahrzeug, die Geschwindigkeit des Ego-Fahrzeugs, und/oder dergleichen. Aus diesen Sensordaten S kann das Ermittlungsmodul 2 in bevorzugter Weise ermitteln, wie breit wenigstens ein von den anderen Fahrzeugen verdeckter Winkelsektor im Sichtfeld des Ego-Fahrzeugs ist und in welcher Lage dieser Winkelsektor, beispielsweise relativ zur Fahrtrichtung des Ego-Fahrzeugs, angeordnet ist.
[0062] Da die Umgebungssensoren das Umfeld des Ego-Fahrzeugs vorzugsweise kontinuierlich, zumindest aber mit hoher Frequenz, erfassen, kann aus den resultierenden Sensordaten S auch der zeitliche Verlauf des Winkelsektors, insbesondere eine Anderung seiner Breite und/oder seiner Lage aus der Perspektive des Ego-Fahrzeugs ermittelt werden. Der zeitliche Verlauf kann vom Erzeugungsmodul 3 verwendet werden, um eine graphische Darstellung, die das Verkehrsszenario in einer abstrakten Weise abbildet, zu erzeugen. Mit anderen Worten ist das Erzeugungsmodul 3 dazu eingerichtet, die in den Sensordaten S enthaltene Information bezüglich des Verkehrsszenarios in der Darstellung, insbesondere in komprimierter Form, zu encodieren.
[0063] Vorzugsweise handelt es sich bei den Sensordaten S in Bezug auf dynamische räumliche Szenarien klassifizierte Sensordaten, d.h. die Sensordaten S sind beispielsweise einer von mehreren Klassen von Verkehrsszenarien, etwa Überholmanövern oder Spurwechselmanövern, zugeordnet. Diese Klassifizierung kann beispielsweise manuell, etwa durch Sichten eines Bilddatenstroms, erfolgt sein. Die auf Grundlage des ermittelten zeitlichen Verlaufs des Winkelsektors erzeugte Darstellung kann daher mit einer Information über das dynamische räumliche Szenario von der Schnittstelle 4 an das künstliche neuronale Netz 1 übermittelt werden.
[0064] Das künstliche neuronale Netz 1 ist vorzugsweise dazu eingerichtet, jeweils wenigstens ein Muster in allen Darstellungen, die der gleichen Verkehrsszenarioklasse zugeordnet sind, zu erkennen. Anhand eines solchen erkannten Musters kann eine Schablone definiert werden, die ein bekanntes Verkehrsszenario charakterisiert. Die derart definierten Schablonen können in einer Datenbank 5 zur weiteren Verwendung, etwa zur Auswertung von im regulären Betrieb eines Fahrzeugs erzeugten Sensordaten, gespeichert werden.
[0065] Fig. 2 zeigt eine bevorzugte Ausführungsform eines Systems 300 zum Analysieren von Sensordaten S, die geeignet sind, ein dynamisches räumliches Szenario in Bezug auf ein EgoObjekt und wenigstens ein anderes Objekt zu charakterisieren. Das System 300 weist ein Erzeugungsmodul 3 auf, welches dazu eingerichtet ist, auf Grundlage der Sensordaten S eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors, welcher aus der Perspektive das Ego-Objekts durch ein anderes Objekt abgedeckt ist, zu erzeugen. Das System 300 weist zudem ein Vergleichsmodul 6 auf, welches dazu eingerichtet ist, die erzeugte Darstellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios zu vergleichen. Dazu hat das Vergleichsmodul 6 vorzugsweise Zugriff auf eine Datenbank 5, in der wenigstens eine vordefinierte Schablone gespeichert ist.
[0066] Das Ergebnis des Vergleichs wird vom Vergleichsmodul 6 in bevorzugter Weise ausgegeben und kann etwa zum Steuern eines Fahrerassistenzsystems, mit dem ein Ego-Fahrzeug ausgestattet ist, verwendet werden. Wird zwischen der erzeugten Darstellung und der wenigstens einen vordefinierten Schablone beispielsweise wenigstens ein vorgegebenes Maß an Übereinstimmung festgestellt, etwa durch Analyse eines beim Vergleichen erzeugten Ähnlichkeitsmaßes, kann darauf geschlossen werden, dass das bekannte Szenario vorliegt, und das Vergleichsmodul 6 kann als Ausgangssignal etwa eine Szenarioklasse ausgeben. Alternativ oder zusätzlich kann auch der Beginn und/oder das Ende eines identifizierten Fahrmanövers ausgegeben, insbesondere signalisiert, werden.
[0067] Fig. 3 zeigt ein Beispiel für das Ermitteln eines Winkelsektors © in einem dynamischen räumlichen Szenario 10, bei dem sich ein Ego-Objekt 11 entlang einer Bewegungsrichtung, hier entlang der x-Achse eines Koordinatensystems, bewegt und von anderen Objekten 12 umgeben ist. Im vorliegenden Beispiel handelt es sich bei dem räumlichen Szenario 10 um einen Verkehrsszenario mit einem Ego-Fahrzeug 11a, das sich in Fahrtrichtung auf einer mittleren Fahrspur bewegt und von anderen Fahrzeugen 12a, 12b auf benachbarten Fahrspuren umgeben ist.
[0068] Fig. 3A zeigt das Verkehrsszenario aus der Vogelperspektive, wobei in der gezeigten Darstellung eine zeitliche Abfolge von räumlichen Szenen zusammengefasst ist. Zu verschiedenen Zeitpunkten befinden sich die anderen Fahrzeuge 12a, 12b in verschiedenen Positionen relativ zum Ego-Fahrzeug 11a, die durch unterschiedliche Füllungen der die Fahrzeuge 12a, 12b repräsentierenden Rechtecke angedeutet sind. Dabei korrespondiert eine dichtere Füllung mit einer zeitlich weiter zurückliegenden Position. Wie in dieser Darstellung gut zu erkennen ist, führt ein erstes Fahrzeug 12a einen Spurwechsel von einer äußeren Fahrspur auf die vom EgoFahrzeug 11a benutzte Fahrspur aus und schert dabei vor dem Ego-Fahrzeug 11a ein. Ein zweites Fahrzeug 12b, das sich zunächst etwa auf gleicher Höhe mit dem Ego-Fahrzeug 11a in Bezug auf die Bewegungsrichtung befindet, fällt im zeitlichen Verlauf nach hinten ab. Dadurch, dass die Positionsänderung des zweiten Fahrzeugs 12b verhältnismäßig klein ist, überlappen sich die vom zweiten Fahrzeug 12b zu den unterschiedlichen Zeitpunkten eingenommenen Positionen in dieser Darstellung.
[0069] Um eine alternative Darstellung des Verkehrsszenarios zu erzeugen, kann für jedes der beiden Fahrzeuge 12a, 12b ein Winkelsektor © ermittelt werden, der denjenigen Bereich im Sichtfeld des Ego-Fahrzeugs 11a angibt, der vom jeweiligen Fahrzeug 12a, 12b abgedeckt wird. Dies ist in Fig. 3B beispielhaft für das erste Fahrzeug 12a gezeigt. Die sich in Bezug auf die Perspektive des Ego-Fahrzeugs 11a ergebende Kontur 13 des ersten Fahrzeugs 12a ist als durchgezogene Linie angedeutet und spannt den Winkelsektor © auf. Eine Lage @ des Winkelsektors ©, und damit auch des ersten Fahrzeugs 12a, aus Sicht des Ego-Fahrzeugs 11a kann
dabei relativ zu einer vorgegebenen Richtung, beispielsweise der Bewegungsrichtung, angegeben werden. Verschiebt sich die Position des Fahrzeugs 12a relativ zum Ego-Fahrzeug 11a, kann sich sowohl die Breite des Winkelsektors ® als auch seine Lage @ ändern.
[0070] Dies ist in Fig. 3C gezeigt. Das dort abgebildete Balkendiagramm, in dem der inverse, in Fig. 3A als schwarzer Pfeil angedeutete Abstand d zwischen dem Egofahrzeug 11a und den anderen Fahrzeugen 12a, 12b gegen die Lage @ des Winkelsektors © aufgetragen ist, bildet eine abstrakte Darstellung des in Fig. 3A gezeigten Verkehrsszenarios. Die drei rechts liegenden Balken korrespondieren mit dem vom ersten Fahrzeug 12a abgedeckten Winkelbereich ©, während die drei links liegenden Balken mit dem vom zweiten Fahrzeug 12b abgedeckten Winkelbereich © korrespondieren. Die unterschiedlichen Zeitpunkte sind, wie auch in Fig. 3A, durch die entsprechende Füllung der Balken angedeutet.
[0071] Demnach wandert der vom ersten Fahrzeug 12a abgedeckte Winkelbereich © beim Einscheren vor dem Ego-Fahrzeug 11a in Richtung einer 0°-Lage, wobei die 0°-Lage des Winkelsektors © mit einer Position vor dem Ego-Fahrzeug 11a korrespondiert. In dem Maße, wie der Abstand d zwischen dem ersten Fahrzeug 12a und dem Ego-Fahrzeug 11a dabei wie in Fig. 3A gezeigt abnimmt, nimmt auch die Breite des vom ersten Fahrzeug 12a abgedeckten Winkelbereichs ® zu. Neben der Breite des Winkelbereichs ® ist der Abstand d zwischen dem ersten Fahrzeug 12a und dem Ego-Fahrzeug 11a auch in der Höhe der Balken encodiert, die mit fortschreitender Zeit zunimmt.
[0072] Der vom zweiten Fahrzeug 12b abgedeckte Winkelbereich © entfernt sich dagegen von der 0°-Lage in dem Maße, wie das zweite Fahrzeug 12b hinter dem Ego-Fahrzeug 11a zurückfällt. Da sich hierbei der Abstand zwischen dem zweiten Fahrzeug 12b und dem Ego Fahrzeug 11a vergrößert, nimmt auch die Höhe der Balken sowie deren Breite ab.
[0073] Fig. 4 zeigt ein erstes Beispiel zur Erläuterung des Zusammenhangs zwischen einem bevorzugten Ausführungsbeispiel einer erfindungsgemäßen Darstellung 20 und einem korrespondierenden dynamischen räumlichen Szenario 10. Dazu zeigt Fig. 4A die Darstellung 20 zeitlicher Verläufe von Winkelsektoren Da, Ob, Oc, die von anderen Objekten aus der Perspektive eines Ego-Objekts, etwa eines Ego-Fahrzeugs 11a, abgedeckt werden. In der Darstellung 20 ist die Zeit t gegen die Lage der Winkelsektoren Da, üb, Oc aufgetragen, wobei die 0°Lage mit einer Position vor dem Ego-Objekt korrespondiert.
[0074] Die zeitlichen Verläufe der Winkelsektoren Da, 6b, Oc werden als Linien dargestellt, deren Breite mit dem Abstand des jeweiligen Objekts zum Ego-Objekt korrespondiert. Ein erstes Objekt, etwa ein erstes Fahrzeug 12a, befindet sich demnach zu Beginn bei t = 0 in einiger Entfernung vor dem Ego-Objekt. Ein zweites Objekt, etwa ein zweites Fahrzeug 12b, befindet sich zu Beginn dagegen näher am Ego-Objekt, allerdings in einer Position seitlich vom EgoObjekt. Bei etwa t = 40 ändert das zweite Objekt seine Position und schiebt sich zwischen das Ego-Objekt und das erste Objekt. Der zeitliche Verlauf des Winkelsektors ®b, der vom zweiten Objekt abgedeckt wird, überlappt ab diesem Zeitpunkt den Verlauf des Winkelsektors a, der vom ersten Objekt abgedeckt wird.
[0075] Bei etwa t = 70 wird ein weiterer Winkelsektor ®c von einem dritten Objekt, etwa einem dritten Fahrzeug 12c, abgedeckt. Das dritte Objekt befindet sich seitlich vom Ego-Objekt, und zwar auf einer Seite des Ego-Objekts, die derjenigen Seite, auf der sich das zweite Objekt bei t = 0 befand, gegenüberliegt. Die Lage @ des vom dritten Objekt abgedeckten Winkelsektors Oc verschiebt sich darauffolgend in Richtung der 0°-Lage. Dieser zeitliche Verlauf kann beispielsweise durch eine Bewegung des dritten Objekts parallel zur Bewegungsrichtung des EgoObjekts verursacht werden, wobei der Abstand des dritten Objekts zum Ego-Objekt zunimmt.
[0076] Derartige zeitliche Verläufe der Winkelsektoren Da, Ob, 6c können beispielsweise charakteristisch für das in Fig. 4B gezeigte räumliche dynamisches Szenario 10, hier ein Verkehrsszenario, sein. Die zeitliche Entwicklung ist in Fig. 4B durch mit Punkten gekennzeichnete Trajektorien der Fahrzeuge auf der Fahrbahn angedeutet.
[0077] Zu Beginn befindet sich das Ego-Fahrzeug 11a an der Position (x = 0, y = 0), und das
erste Fahrzeug 12a befindet sich etwa an der Position (x = 60, y = 0). Demnach fährt das erste Fahrzeug 12a dem Ego-Fahrzeug 11a auf einer mittleren Fahrspur etwa im Abstand Ax = 60 voraus. Das zweite Fahrzeug 12b befindet sich zu Beginn etwa an der Position (x = 45, y = -4), wobei es demnach auf einer Nachbarspur, d.h. bezüglich des Ego-Fahrzeugs 11a seitlich versetzt, zwischen dem Ego-Fahrzeug 11a und dem ersten Fahrzeug 12a fährt.
[0078] Im weiteren zeitlichen Verlauf schert das zweite Fahrzeug 12b zwischen das EgoFahrzeug 11a und das erste Fahrzeug 12a auf der mittleren Fahrspur ein. Die Einscherbewegung des zweiten Fahrzeugs 12b beginnt etwa an der Position (x = 100, y = -4) und endet etwa an der Position (x = 150, y = 0). Nach dem einscheren des weiteren Fahrzeugs 12b bewegen sich das Ego-Fahrzeug 11a, das erste Fahrzeug 12a und das zweite Fahrzeug 12b gemeinsam auf der mittleren Fahrspur weiter. Dadurch, dass hierbei das zweite Fahrzeug 12b aus der Perspektive des Ego-Fahrzeugs 11a nun die Sicht auf das erste Fahrzeug 12a verdeckt, ist in der korrespondierenden Darstellung 20 in Fig. 4A nur noch eine Linie in der 0°-Lage sichtbar.
[0079] Das dritte Fahrzeug 12c befindet sich zu Beginn hinter dem Ego-Fahrzeug 11a, so dass es, etwa durch Umgebungssensoren des Ego-Fahrzeugs 11a, zunächst nicht erfasst wird. Das dritte Fahrzeug 12c bewegt sich jedoch mit einer höheren Geschwindigkeit als das EgoFahrzeug 11a, so dass es das Ego-Fahrzeug 11a im weiteren Verlauf auf einer weiteren Nachbarspur bei y = 4 überholt. Erst ab dem UÜberholzeitpunkt wird das dritte Fahrzeug 12c für das Ego-Fahrzeug 11a sichtbar, so dass der zeitliche Verlauf des vom dritten Fahrzeug 12c abgedeckten Winkelbereichs ec in der korrespondierenden Darstellung 20 in Fig. 4A erst ab diesem Zeitpunkt beginnt.
[0080] Die durch die zeitlichen Verläufe der Winkelsektoren entstandene Darstellung 20 in Fig. 4A weist ein für das beschriebene räumliche dynamische Szenario 10 charakteristisches Muster auf. Werden auf der Grundlage von Sensordaten, die wiederholt beim Erfassen eines solchen Szenarios gesammelt wurden, viele solcher Darstellungen erzeugt, kann ein künstliches neuronales Netz dieses Muster erlernen bzw. auf das Erkennen dieses Musters trainiert werden. Im regulären Betrieb eines Fahrzeugs kann dann aus den dabei erzeugten Sensordaten im Wesentlichen in Echtzeit der zeitliche Verlauf von Winkelsektoren dargestellt und von dem trainierten künstlichen neuronalen Netz analysiert, insbesondere mit dem erlernten Muster verglichen, werden. Dadurch wird vorzugsweise ermittelt, ob bzw. zu welchem Zeitpunkt ein bekanntes Verkehrsszenario vorliegt.
[0081] In Fig. 4C ist dazu das Ergebnis eines solchen Vergleichs, etwa zwischen der in Fig. 4A gezeigten Darstellung 20 und einer entsprechenden Schablone, gezeigt, wobei ein Ausgangssignal a gegen die Zeit t aufgetragen ist. Etwa zum Zeitpunkt t = 30 springt das Ausgangssignal a auf den Wert 6, wodurch das Vorliegen des bekannten Verkehrsszenarios, in diesem Fall das Einscheren eines zweiten Fahrzeugs 12b, signalisiert wird. Etwa zum Zeitpunkt t = 85 fällt das Ausgangssignal a zurück auf den Wert null, wodurch das Ende des Einschermanövers signalisiert wird.
[0082] Zusätzlich zu dem Beginn und der Dauer des Fahrmanövers kann durch den Wert des Ausgangssignals a auch die Klassifizierung des Verkehrsszenarios ausgegeben werden. In einem anderen, nicht gezeigten Beispiel könnte der Vergleich der erzeugten Darstellung mit verschiedenen Schablonen etwa die höchste Übereinstimmung mit einer Schablone, die einem Ausschermanöver zugeordnet ist, zeigen und das Ausgangssignal a entsprechend einen anderen Wert annehmen.
[0083] Fig. 5 zeigt ein zweites Beispiel zur Erläuterung des Zusammenhangs zwischen einem bevorzugten Ausführungsbeispiel einer erfindungsgemäßen Darstellung 20 und einem korrespondierenden dynamischen räumlichen Szenario 10. Dazu zeigt Fig. 5A eine Szene aus der dem dynamischen räumlichen Szenario 10 entsprechenden Verkehrssituation, in diesem Fall ein durch den Pfeil angedeutetes Einscheren eines Ego-Fahrzeugs 11a auf eine Fahrspur, auf der bereits ein anderes erstes Fahrzeug 12a fährt. Neben dem ersten Fahrzeug 12a fährt ein weiteres, zweites Fahrzeug 12b auf einer weiteren Fahrspur.
[0084] Die zeitliche Entwicklung des dynamischen räumlichen Szenarios 10 ist in Fig. 5B durch anhand von Punkten gekennzeichnete Trajektorien der Fahrzeuge 11a, 12a, 120 gezeigt. Zu Beginn befindet sich das Ego-Fahrzeug 11a etwa an der Position (x = 0, y = 2,5), und das erste Fahrzeug 12a fährt dem Ego-Fahrzeug 11a etwa an der Position (x = 35, y = 0) auf einer mittleren Fahrspur voraus, d.h. etwa im Abstand Ax = 35. Das zweite Fahrzeug 12b befindet sich zu Beginn etwa an der Position (x = 25, y = -2,5).
[0085] Im weiteren zeitlichen Verlauf beginnt das Ego-Fahrzeug 11a etwa an der Position (x = 60, y = 2) mit dem Einscheren auf die mittlere Fahrspur und beendet das Fahrmanöver etwa an der Position (x = 100, y = 0). Die anderen beiden Fahrzeuge 12a, 12b fahren dabei mit etwas höherer Geschwindigkeit weiter geradeaus, so dass das Ego-Fahrzeug 11a langsam weiter zurückfällt.
[0086] In Fig. 5C sind die zeitlichen Verläufe der Winkelsektoren Da, Ob, die jeweils vom ersten Fahrzeug 12a bzw. zweiten Fahrzeug 12b aus der Perspektive des Ego-Fahrzeugs 11a abgedeckt werden, in einer Darstellung 20 gezeigt. Dabei ist die Zeit t gegen eine Lage der Winkelsektoren Da, Ob aufgetragen. Eine in Fig. 5c eingezeichnete 0°-Lage korrespondiert mit einer Position vor dem Ego-Fahrzeug 11a.
[0087] Im zeitlichen Verlauf verschieben sich die Winkelsektoren ®a, Ob in Richtung der 0°- Lage, da sich das erste und zweite Fahrzeug 12a, 12b wie vorangehend beschrieben aufgrund ihrer höheren Geschwindigkeit vom Ego-Fahrzeug 11a entfernen. Zum Zeitpunkt des Einscherens des Ego-Fahrzeugs 11a, hier etwa zum Zeitpunkt t = 30, krümmen sich die zeitlichen Verläufe der Winkelsektoren Da, Ob zusätzlich in Richtung der 0°-Lage. Der durch das erste Fahrzeug 12a abgedeckte Winkelsektor a verläuft im Folgenden entlang der 0°-Lage, da wie in Fig. 5A und 5B gezeigt das erste Fahrzeug 12a dem Ego-Fahrzeug 11a auf derselben Fahrspur vorausfährt.
[0088] Aufgrund des entstandenen Musters können zunächst nur Aussagen über die relative Bewegung des Ego-Fahrzeugs 11a bezüglich des ersten und zweiten Fahrzeugs 12a, 12b getroffen werden, d.h. es geht aus der Form des zeitlichen Verlaufs der Winkelsektoren Da, Ob zunächst nicht eindeutig hervor, ob das Ego-Fahrzeug 11a auf die mittlere Fahrspur wechselt oder ob das erste und das zweite Fahrzeug 12a, 12b, insbesondere im Wesentlichen zeitgleich, jeweils einen Fahrspurwechsel durchführen, wobei das erste Fahrzeug 12a auf die Fahrspur des Ego-Fahrzeugs 11a und das zweite Fahrzeug 12b auf die zuvor vom ersten Fahrzeug 12a benutzte Fahrspur einschwenkt.
[0089] Um diese beiden Fälle voneinander unterscheiden zu können, zeigt die Darstellung 20 neben den Winkelsektoren Da, ®b zusätzlich einen Wert, der charakteristisch für den, insbesondere transversalen, Abstand zwischen dem Ego-Fahrzeug 11a und dem jeweils anderen Fahrzeug 12a, 12b und/oder für die, insbesondere transversale, Geschwindigkeit des EgoFahrzeugs 11a zur Zeit t ist. Der transversale Abstand oder die transversale Geschwindigkeit beziehen sich hierbei auf eine transversale Komponente des Abstands bzw. der Geschwindigkeit, d.h. der y-Komponenten in der in Fig. 5B gezeigten Darstellung.
[0090] Der für den Abstand und/oder die Geschwindigkeit charakteristische Wert ist in der Darstellung 20 als eine durch die Tönung angedeutete Farbgebung des zeitlichen Verlaufs der Winkelsektoren gezeigt. Dabei korrespondiert eine dunkle Tönung beispielsweise mit einer hohen transversalen Geschwindigkeit des Ego-Fahrzeugs 11a. Somit kann der Darstellung 20 in Fig. 5C entnommen werden, dass das Ego-Fahrzeug etwa zum Zeitpunkt t = 20 eine Transversalbewegung, d.h. eine Bewegung senkrecht zum Fahrspurverlauf, beginnt, wobei das EgoFahrzeug 11a bei etwa t = 30 die höchste Transversalgeschwindigkeit erreicht, und die Transversalbewegung bei etwa t = 40 beendet.
[0091] Da das Ego-Fahrzeug 11a bei einem durch eines der anderen Fahrzeuge 12a, 12b durchgeführten Spurwechsel seine (transversale) Geschwindigkeit nicht ändert, kann im vorliegenden Fall auf ein Einschwenken des Ego-Fahrzeugs 11a auf die durch das erste Fahrzeug 12a genutzte Fahrspur geschlossen werden.
[0092] Fig. 6 zeigt jeweils ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens V1 zur Datenaufbereitung und eines erfindungsgemäßen Verfahrens V2 zum Trainieren eines künstlichen neuronalen Netzes.
[0093] In einem Verfahrensschritt S1 werden Sensordaten erzeugt, etwa durch sensorisches Erfassen des Umfelds eines Ego-Objekts, und klassifiziert, d.h. verschiedenen dynamischen räumlichen Szenarien zugeordnet. Die Klassifizierung kann beispielsweise manuell durchgeführt werden, etwa durch Auswertung eines Bilddatenstroms. Alternativ können die Sensordaten auch automatisch klassifiziert werden, insbesondere wenn es sich um Sensordaten handelt, die von einem Simulator bei der Simulation verschiedener dynamischer räumlicher Szenarien erzeugt wurden.
[0094] Anhand der Sensordaten kann in einem weiteren Verfahrensschritt S2 ein zeitlicher Verlauf eines Winkelsektors, welcher aus der Perspektive des Ego-Objekts durch ein anderes Objekt abgedeckt wird, ermittelt werden. Beispielsweise kann die Kontur, insbesondere die Querschnittsfläche, des anderen Objekts ermittelt und deren Breite im bzw. den Anteil am Sichtfeld des Ego-Objekts bestimmt werden. Zudem kann ein geometrischer Schwerpunkt der Kontur bzw. der Querschnittsfläche ermittelt und dessen Lage im Sichtfeld des Ego-Objekts, insbesondere relativ zur Bewegungsrichtung des Ego-Objekts, bestimmt werden.
[0095] In einem weiteren Verfahrensschritt S3 wird aus dem zeitlichen Verlauf des Winkelsektors in bevorzugter Weise eine, insbesondere grafische, Darstellung erzeugt, die den zeitlichen Verlauf abbildet. In einer solchen Darstellung kann der zeitliche Verlauf des Winkelsektors beispielsweise ein Muster, etwa eine Figur, bilden. Vorzugsweise wird dabei für jeden Zeitpunkt, zu dem Sensordaten erzeugt werden oder zumindest ein von einem anderen Objekt abgedeckter Winkelsektor ermittelt wird, die Breite des Winkelsektors, insbesondere dessen Anteil am Sichtfeld des Ego-Objekts, und dessen Lage im Sichtfeld des Ego-Objekts, insbesondere relativ zur Bewegungsrichtung des Ego-Objekts, abgebildet.
[0096] In bevorzugter Weise wird im Verfahrensschritt S3 bei der Erzeugung der Darstellung auch eine Geschwindigkeit des Ego-Objekts, insbesondere eine Transversalgeschwindigkeit, und/oder ein Abstand, insbesondere ein Transversalabstand, des Ego-Objekts zum anderen Objekt berücksichtigt. Insbesondere kann, etwa anhand einer Funktion, in die als EingangsgröBen vorzugsweise das dynamische räumliche Szenario charakterisierende Parameter wie etwa die Geschwindigkeit und/oder der Abstand eingehen, ein Wert ermittelt und hinterlegt werden oder die Darstellung entsprechend eingefärbt werden. Vorzugsweise liefert die erzeugte Darstellung somit Information bezüglich der Breite und Lage des vom anderen Objekt abgedeckten Winkelsektors im Sichtfeld des Ego-Objekts und der Geschwindigkeit des Ego-Objekts und/oder des Abstands zum anderen Objekt.
[0097] In einem weiteren Verfahrensschritt S4 wird die erzeugte Darstellung, etwa mittels einer Schnittstelle, einem künstlichen neuronalen Netz zugeführt, welches dadurch insbesondere zum Erkennen von Mustern in der erzeugten Darstellung trainiert wird. Zu diesem Zweck wird dem künstlichen neuronalen Netz zudem in bevorzugter Weise eine Information über die dynamischen räumlichen Szenarien, gemäß denen die Sensordaten im Verfahrensschritt S1 klassifiziert wurden, zugeführt, so dass das künstliche neuronale Netz die erzeugte Darstellung bzw. die erkannten Muster jeweils mit einem der dynamischen räumlichen Szenarien korrelieren kann.
[0098] Fig. 7 zeigt ein bevorzugtes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens V3 zum Analysieren von Sensordaten, welche geeignet sind, um ein dynamisches räumliches Szenario in Bezug auf ein Ego-Objekt und wenigstens ein anderes Objekt zu charakterisieren. Bei den Sensordaten handelt es sich in bevorzugter Weise um von Umgebungssensoren eines Ego-Fahrzeugs erzeugte Sensordaten.
[0099] In Verfahrensschritt S3 wird aus den Sensordaten eine Darstellung eines zeitlichen Verlaufs eines Winkelsektors erzeugt. Der Winkelsektor entspricht dabei dem Bereich im Sichtfeld des Ego-Objekts, der von dem anderen Objekt abgedeckt wird. Bei einer solchen Darstel-
lung kann es sich beispielsweise um eine Abbildung handeln, in welcher der zeitliche Verlauf des Winkelsektors ein Muster, etwa eine Figur, bildet.
[00100] Der zeitliche Verlauf des Winkelsektors kann dabei gegebenenfalls auch in einem separaten, vorangehenden Verfahrensschritt (nicht gezeigt) auf Grundlage der Sensordaten ermittelt werden.
[00101] In einem weiteren Verfahrensschritt S5 wird die erzeugte Darstellung mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios verglichen. Dadurch kann ermittelt werden, in welchem dynamischen räumlichen Szenario sich das EgoObjekt gegenwärtig befindet und gegebenenfalls ein Fahrerassistenzsystem entsprechend gesteuert werden.
[00102] Optional kann in einem weiteren Verfahrensschritt S6 die erzeugte Darstellung als weitere vordefinierte Schablone, beispielsweise in einer Datenbank, gespeichert werden, wenn keine oder zumindest keine ausreichende Übereinstimmung der erzeugten Darstellung mit der wenigstens einen vordefinierten Schablone, die einem bekannten dynamischen räumlichen Szenarios zugeordnet ist, ermittelt werden kann. Auf diese Weise kann ein Katalog mit vordefinierten Schablonen, die zum Identifizieren von dynamischen räumlichen Szenarien geeignet sind, insbesondere im Wesentlichen in Echtzeit, erzeugt werden.
BEZUGSZEICHENLISTE
1 künstliches neuronales Netz
2 Erzeugungsmodul
3 Ermittlungsmodul
4 Schnittstelle
5 Datenbank
6 Vergleichsmodul
10 räumliches dynamisches Szenario
11 Ego-Objekt
11a Ego-Fahrzeug
12 anderes Fahrzeug
12a erstes Fahrzeug
12b zweites Fahrzeug
12c drittes Fahrzeug
13 Kontur
20 Darstellung
100 System zur Datenaufbereitung
200 System zum Trainieren eines künstlichen neuronalen Netzes 300 System zum Analysieren von Sensordaten oO Winkelsektor
Lage des Winkelsektors
Ss Sensordaten
y Bewegungsrichtung
d Abstand
a Ausgangssignal
V1 Verfahren zur Datenaufbereitung
V2 Verfahren zum Trainieren eines künstlichen neuronalen Netzes V3 Verfahren zum Analysieren von Sensordaten
S1-S6 Verfahrensschritte
Claims (11)
1. Verfahren (V1) zur Datenaufbereitung von dynamischen räumlichen Szenarien (10), insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz (1), wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (®), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt wird, erzeugt wird (S3), wobei der zeitliche Verlauf aus Sensordaten (S) ermittelt ist (S2) und wobei die Sensordaten (S) geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf das Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren.
2, Verfahren (V1) nach Anspruch 1, wobei die Darstellung an ein künstliches neuronales Netz (1) ausgegeben oder für die Verarbeitung durch das künstliche neuronale Netz (1) bereitgestellt wird.
3. Computer-gestütztes Verfahren (V2) zum Trainieren eines künstlichen neuronalen Netzes (1) auf der Grundlage von Sensordaten (S), welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (®), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) erzeugt wird (S3), und wobei die erzeugte Darstellung (20) zusammen mit einer Information über das räumliche Szenario (10) dem künstlichen neuronalen Netz (1) zugeführt wird (S4).
4. Computer-gestütztes Verfahren (V3) zum Analysieren von Sensordaten (S), welche geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, wobei eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (®), welcher aus der Perspektive eines EgoObjekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) erzeugt wird (S3), und die erzeugte Darstellung (20) mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios (10) verglichen wird (S5).
5. Verfahren (V3) nach Anspruch 4, wobei das dynamische räumliche Szenario (10) auf der Grundlage des Vergleichens klassifiziert wird.
6. Verfahren (V3) nach Anspruch 4, wobei eine Schablone für ein neues dynamischen räumliches Szenario (10) definiert wird, wenn die erzeugte Darstellung (10) nicht der wenigstens einen vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios (10) zugeordnet werden kann (S6).
7. Verfahren (V3) nach einem der Ansprüche 1 bis 6, wobei die erzeugte Darstellung (10) des Weiteren einen Abstand (d) des Ego-Objekts (11) zu dem anderen Objekt (12) und/oder einer Geschwindigkeit des Ego-Objekts (11) wiedergibt, wobei der Abstand (d) und/oder die Geschwindigkeit ebenfalls aus Sensordaten (S) ermittelt ist oder sind.
8. Verfahren (V3) nach einem der Ansprüche 1 bis 7, wobei der zeitliche Verlauf eines Winkelsektors (®) durch eine Linie dargestellt wird, deren Breite einen Wert des jeweils vorliegenden Winkelsektors (®) angibt, und/oder wobei ein Abstand (d) des Ego-Objekts (11) zu dem anderen Objekt (12) und/oder eine Geschwindigkeit des Ego-Objekts (11) durch einen hinterlegten Wert oder eine Einfärbung an der jeweiligen Stelle der Linie, welche dem Zeitpunkt des Vorliegens des Abstands (d) und/oder der Geschwindigkeit entspricht, dargestellt wird oder werden.
9. System (100) zur Datenaufbereitung von dynamischen räumlichen Szenarien (10), insbesondere Verkehrsszenarien, für die Verarbeitung durch ein künstliches neuronales Netz (1), aufweisend:
- ein Ermittlungsmodul (2), welches dazu eingerichtet ist, einen zeitlichen Verlauf eines Winkelsektors (®), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt wird, aus Sensordaten (S) zu ermitteln, wobei die Sensordaten (S) geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf das Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren; und
- ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) des ermittelten zeitlichen Verlaufs zu erzeugen.
10. System (200) zum Trainieren eines künstlichen neuronalen Netzes (1) auf der Grundlage von Sensordaten (S), welche geeignet sind, um ein bekanntes dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, aufweisend:
- ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (®), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) zu erzeugen;
- eine Schnittstelle (4), die dazu eingerichtet ist, die erzeugte Darstellung (20) zusammen mit einer Information über das räumliche Szenario (10) dem künstlichen neuronalen Netz (1) zuzuführen.
11. System (300) zum Analysieren von Sensordaten (S), welche geeignet sind, um ein dynamisches räumliches Szenario (10) in Bezug auf ein Ego-Objekt (11) und wenigstens ein anderes Objekt (12) zu charakterisieren, aufweisend:
- ein Erzeugungsmodul (3), welches dazu eingerichtet ist, eine Darstellung (20) eines zeitlichen Verlaufs eines Winkelsektors (®), welcher aus der Perspektive eines Ego-Objekts (11), insbesondere eines Ego-Fahrzeugs (11a), durch ein anderes Objekt (12), insbesondere ein anderes Fahrzeug (12a, 12b, 12c), abgedeckt ist, auf der Grundlage der Sensordaten (S) zu erzeugen; und
- ein Vergleichsmodul (6), welches dazu eingerichtet ist, die erzeugte Darstellung (20) mit wenigstens einer vordefinierten Schablone eines bekannten dynamischen räumlichen Szenarios (10) zu vergleichen.
Hierzu 5 Blatt Zeichnungen
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50788/2018A AT521647B1 (de) | 2018-09-14 | 2018-09-14 | Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten |
US17/275,810 US12243323B2 (en) | 2018-09-14 | 2019-09-13 | Analysis of dynamic spatial scenarios |
KR1020217010955A KR20210060535A (ko) | 2018-09-14 | 2019-09-13 | 동적 공간 시나리오의 분석 |
CN201980060057.1A CN112673379B (zh) | 2018-09-14 | 2019-09-13 | 动态空间场景分析 |
JP2021514045A JP7511544B2 (ja) | 2018-09-14 | 2019-09-13 | 動的空間シナリオの分析 |
EP19773727.3A EP3850536A1 (de) | 2018-09-14 | 2019-09-13 | Analyse dynamisscher räumlicher szenarien |
PCT/AT2019/060301 WO2020051618A1 (de) | 2018-09-14 | 2019-09-13 | Analyse dynamisscher räumlicher szenarien |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50788/2018A AT521647B1 (de) | 2018-09-14 | 2018-09-14 | Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten |
Publications (2)
Publication Number | Publication Date |
---|---|
AT521647A1 AT521647A1 (de) | 2020-03-15 |
AT521647B1 true AT521647B1 (de) | 2020-09-15 |
Family
ID=68062777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ATA50788/2018A AT521647B1 (de) | 2018-09-14 | 2018-09-14 | Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten |
Country Status (7)
Country | Link |
---|---|
US (1) | US12243323B2 (de) |
EP (1) | EP3850536A1 (de) |
JP (1) | JP7511544B2 (de) |
KR (1) | KR20210060535A (de) |
CN (1) | CN112673379B (de) |
AT (1) | AT521647B1 (de) |
WO (1) | WO2020051618A1 (de) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102592826B1 (ko) * | 2018-10-10 | 2023-10-23 | 현대자동차주식회사 | 근거리 끼어들기 차량 판단 장치 및 그의 판단 방법과 그를 이용하는 차량 |
DE102021100395A1 (de) * | 2021-01-12 | 2022-07-14 | Dspace Gmbh | Computerimplementiertes Verfahren zur Bestimmung von Ähnlichkeitswerten von Verkehrsszenarien |
EP4424565A4 (de) * | 2021-11-19 | 2024-11-27 | Huawei Technologies Co., Ltd. | Informationsverarbeitungsverfahren und -vorrichtung |
DE102022126747A1 (de) | 2022-10-13 | 2024-04-18 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zu einer Generierung von Szenariomodellen bei autonomen Fahrvorgängen |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3229206A1 (de) * | 2016-04-04 | 2017-10-11 | Xerox Corporation | Tiefe datenverknüpfung für mehrklassige online-multiobjektverfolgung |
US20180046910A1 (en) * | 2016-08-10 | 2018-02-15 | Google Inc. | Deep Machine Learning to Predict and Prevent Adverse Conditions at Structural Assets |
US20180134288A1 (en) * | 2016-11-14 | 2018-05-17 | Nec Laboratories America, Inc. | Advanced driver-assistance system using accurate object proposals by tracking detections |
US20180164812A1 (en) * | 2016-12-14 | 2018-06-14 | Samsung Electronics Co., Ltd. | Apparatus and method for generating training data to train neural network determining information associated with road included in image |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3153839B2 (ja) | 1993-08-23 | 2001-04-09 | 三菱電機株式会社 | 車両用予防安全装置 |
JP3252680B2 (ja) * | 1995-11-24 | 2002-02-04 | トヨタ自動車株式会社 | 車載用走査レーダ装置 |
JPH10338057A (ja) * | 1997-06-10 | 1998-12-22 | Hitachi Ltd | 自動車の自動走行制御装置および車間距離警報装置 |
DE10141037C1 (de) | 2001-08-20 | 2003-04-03 | Siemens Ag | Vorrichtung zur Erkennung eines Hindernisses |
KR20110134402A (ko) * | 2009-02-03 | 2011-12-14 | 콘티넨탈 테베스 아게 운트 코. 오하게 | 회피 기동을 실행하기 위한 방법 및 디바이스 |
JP5267588B2 (ja) | 2010-03-26 | 2013-08-21 | 株式会社デンソー | 区画線検出装置および区画線検出方法 |
CN103530605B (zh) * | 2013-09-29 | 2017-01-25 | 数基科技(北京)有限公司 | 一种鲁棒的异常行为检测方法 |
DE102014213359A1 (de) * | 2014-07-09 | 2016-01-14 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur akustischen Untersuchung von Umgebungsobjekten eines Fortbewegungsmittels |
SE1551370A1 (sv) | 2015-10-22 | 2017-02-07 | Uniquesec Ab | Testing method with virtual radar signatures for an automotive safety radar system |
JP7069539B2 (ja) | 2016-12-07 | 2022-05-18 | スズキ株式会社 | 運転支援装置 |
US10228693B2 (en) * | 2017-01-13 | 2019-03-12 | Ford Global Technologies, Llc | Generating simulated sensor data for training and validation of detection models |
US10402163B2 (en) * | 2017-02-14 | 2019-09-03 | Accenture Global Solutions Limited | Intelligent data extraction |
US11675359B2 (en) * | 2018-06-13 | 2023-06-13 | Nvidia Corporation | Path detection for autonomous machines using deep neural networks |
-
2018
- 2018-09-14 AT ATA50788/2018A patent/AT521647B1/de active
-
2019
- 2019-09-13 WO PCT/AT2019/060301 patent/WO2020051618A1/de unknown
- 2019-09-13 JP JP2021514045A patent/JP7511544B2/ja active Active
- 2019-09-13 EP EP19773727.3A patent/EP3850536A1/de active Pending
- 2019-09-13 CN CN201980060057.1A patent/CN112673379B/zh active Active
- 2019-09-13 US US17/275,810 patent/US12243323B2/en active Active
- 2019-09-13 KR KR1020217010955A patent/KR20210060535A/ko active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3229206A1 (de) * | 2016-04-04 | 2017-10-11 | Xerox Corporation | Tiefe datenverknüpfung für mehrklassige online-multiobjektverfolgung |
US20180046910A1 (en) * | 2016-08-10 | 2018-02-15 | Google Inc. | Deep Machine Learning to Predict and Prevent Adverse Conditions at Structural Assets |
US20180134288A1 (en) * | 2016-11-14 | 2018-05-17 | Nec Laboratories America, Inc. | Advanced driver-assistance system using accurate object proposals by tracking detections |
US20180164812A1 (en) * | 2016-12-14 | 2018-06-14 | Samsung Electronics Co., Ltd. | Apparatus and method for generating training data to train neural network determining information associated with road included in image |
Also Published As
Publication number | Publication date |
---|---|
KR20210060535A (ko) | 2021-05-26 |
AT521647A1 (de) | 2020-03-15 |
US20220237889A1 (en) | 2022-07-28 |
JP7511544B2 (ja) | 2024-07-05 |
JP2022500762A (ja) | 2022-01-04 |
WO2020051618A1 (de) | 2020-03-19 |
EP3850536A1 (de) | 2021-07-21 |
CN112673379B (zh) | 2025-01-03 |
US12243323B2 (en) | 2025-03-04 |
CN112673379A (zh) | 2021-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AT521607B1 (de) | Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem | |
AT521647B1 (de) | Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten | |
EP3765927B1 (de) | Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs | |
DE102017203838A1 (de) | Verfahren und System zur Umfelderfassung | |
DE102016107705A1 (de) | Reaktive Pfadplanung für autonomes Fahren | |
WO2020048669A1 (de) | Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug | |
DE102016007899B4 (de) | Verfahren zum Betreiben einer Einrichtung zur Verkehrssituationsanalyse, Kraftfahrzeug und Datenverarbeitungseinrichtung | |
EP3543985A1 (de) | Simulieren verschiedener verkehrssituationen für ein testfahrzeug | |
AT523834B1 (de) | Verfahren und System zum Testen eines Fahrerassistenzsystems | |
DE102008041679A1 (de) | Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung | |
DE102018122374B4 (de) | Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug | |
DE102014003343A1 (de) | Verfahren zum Ermitteln eines Spurwechselbedarfs eines Systemfahrzeugs | |
DE102015208428A1 (de) | Verfahren und Vorrichtung zur Erkennung und Bewertung von Umwelteinflüssen und Fahrbahnzustandsinformationen im Fahrzeugumfeld | |
DE102016224291A1 (de) | Verfahren zur rechnergestützten Adaption eines vorgegebenen teilautomatisierten Fahrsystems eines Kraftfahrzeugs | |
WO2020127010A1 (de) | Verfahren sowie system zum steuern eines kraftfahrzeugs | |
WO2019206792A1 (de) | Verfahren und vorrichtung zur umsetzung eines eingangsbildes einer ersten domäne in ein ausgangsbild einer zweiten domäne | |
DE102019208507A1 (de) | Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen | |
DE102016120066A1 (de) | Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems | |
DE102017119317A1 (de) | Klassifizierung von Umgebungs-Fahrzeugen für eine Abstandsregeltempomat-Vorrichtung in einem Kraftfahrzeug | |
EP3576013A1 (de) | Abschätzen eines verlaufs eines schienenpfads | |
EP4350660A1 (de) | System und verfahren zur prädiktion einer zukünftigen position eines verkehrsteilnehmers | |
DE102021133977A1 (de) | Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren | |
WO2022043204A1 (de) | Trainingsverfahren für einen generator zur erzeugung realistischer bilder | |
DE102020110671A1 (de) | Verfahren zur automatisierten Längsregelung | |
DE102020208981A1 (de) | Verfahren zur Schätzung der Geometrie eines Bewegungsweges |