DE102019129463A1 - Method and device for recognizing and tracking a dynamic object - Google Patents
Method and device for recognizing and tracking a dynamic object Download PDFInfo
- Publication number
- DE102019129463A1 DE102019129463A1 DE102019129463.0A DE102019129463A DE102019129463A1 DE 102019129463 A1 DE102019129463 A1 DE 102019129463A1 DE 102019129463 A DE102019129463 A DE 102019129463A DE 102019129463 A1 DE102019129463 A1 DE 102019129463A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- time
- dynamic
- grid
- basis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 210000004027 cell Anatomy 0.000 description 70
- 230000003068 static effect Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000005312 nonlinear dynamic Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
Es wird eine Vorrichtung zur Erkennung und zur Nachverfolgung eines dynamischen Objektes in einem Umfeld eines Fahrzeugs beschrieben. Die Vorrichtung umfasst eine Maschinen-erlernte Objekterkennungseinheit, die eingerichtet ist, auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs für einen aktuellen Zeitpunkt eine Objekt-Hypothese für ein dynamisches Objekt in dem Umfeld des Fahrzeugs zu ermitteln. Außerdem umfasst die Vorrichtung eine Rastereinheit, die eingerichtet ist, auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs für den aktuellen Zeitpunkt ein dynamisches Belegungsraster für das Umfeld des Fahrzeugs zu ermitteln. Die Vorrichtung umfasst ferner eine Nachverfolgungseinheit, die eingerichtet ist, das durch die Objekt-Hypothese angezeigte dynamische Objekt unter Berücksichtigung des dynamischen Belegungsrasters für das Umfeld des Fahrzeugs ausgehend von dem aktuellen Zeitpunkt an einer Sequenz von nachfolgenden Zeitpunkten nachzuverfolgen.A device for recognizing and tracking a dynamic object in the surroundings of a vehicle is described. The device comprises a machine-learned object recognition unit which is set up to determine an object hypothesis for a dynamic object in the surroundings of the vehicle for a current point in time on the basis of sensor data from one or more environment sensors of the vehicle. In addition, the device comprises a grid unit which is set up to determine a dynamic occupancy grid for the area around the vehicle for the current point in time on the basis of sensor data from one or more environment sensors of the vehicle. The device further comprises a tracking unit which is set up to track the dynamic object indicated by the object hypothesis, taking into account the dynamic occupancy grid for the surroundings of the vehicle, starting from the current point in time at a sequence of subsequent points in time.
Description
Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung, die es z.B. einem Fahrzeug ermöglichen, auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren ein (zumindest potentiell) dynamisches Umgebungs-Objekt zu detektieren und nachzuverfolgen.The invention relates to a method and a corresponding device that enable a vehicle, for example, to detect and track an (at least potentially) dynamic environmental object on the basis of sensor data from one or more surroundings sensors.
Ein Fahrzeug umfasst typischerweise eine Mehrzahl von unterschiedlichen Umfeldsensoren, die eingerichtet sind, unterschiedliche Sensordaten bezüglich eines Umfelds des Fahrzeugs zu erfassen. Beispielhafte Umfeldsensoren sind Radarsensoren, Ultraschallsensoren, Lidarsensoren, Bildsensoren bzw. Bildkameras, etc. Auf Basis der Sensordaten der ein oder mehreren Umfeldsensoren eines Fahrzeugs können ein oder mehrere Umgebungs-Objekte (z.B. ein oder mehrere andere Fahrzeuge) in einem Umfeld des Fahrzeugs detektiert und nachverfolgt werden.A vehicle typically comprises a plurality of different environment sensors which are set up to record different sensor data relating to an environment of the vehicle. Exemplary surroundings sensors are radar sensors, ultrasonic sensors, lidar sensors, image sensors or image cameras, etc. On the basis of the sensor data of the one or more surroundings sensors of a vehicle, one or more surrounding objects (e.g. one or more other vehicles) in an area around the vehicle can be detected and tracked become.
Für den Betrieb eines Fahrzeugs ist es typischerweise von besonderer Bedeutung, dass dynamische (Umgebungs-) Objekte (insbesondere andere Fahrzeuge) in der Umgebung des Fahrzeugs erkannt und über der Zeit nachverfolgt werden können. For the operation of a vehicle, it is typically of particular importance that dynamic (surrounding) objects (in particular other vehicles) in the vicinity of the vehicle can be recognized and tracked over time.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe, dynamische Objekt mit besonders hoher Zuverlässigkeit und Genauigkeit zu erkennen und nachzuverfolgen.This document deals with the technical task of recognizing and tracking dynamic objects with particularly high reliability and accuracy.
Die Aufgabe wird durch jeden der unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.The problem is solved by each of the independent claims. Advantageous embodiments are described, inter alia, in the dependent claims. It is pointed out that additional features of a patent claim dependent on an independent patent claim without the features of the independent patent claim or only in combination with a subset of the features of the independent patent claim can form a separate invention independent of the combination of all features of the independent patent claim, which can be made the subject of an independent claim, a divisional application or a subsequent application. This applies equally to technical teachings described in the description, which can form an invention that is independent of the features of the independent patent claims.
Gemäß einem Aspekt wird eine Vorrichtung zur Erkennung und zur Nachverfolgung eines dynamischen (Umgebungs-) Objektes in einem Umfeld eines Fahrzeugs (insbesondere eines Kraftfahrzeugs) beschrieben. Ein von der Vorrichtung erkanntes dynamisches Objekt kann z.B. dazu verwendet werden, eine Fahrfunktion innerhalb des Fahrzeugs bereitzustellen, z.B. um das Fahrzeug zumindest teilweise oder vollständig automatisiert zu führen. Die Vorrichtung kann somit eingerichtet sein, auf Basis des erkannten und über der Zeit nachverfolgten dynamischen Objektes eine Fahrfunktion des Fahrzeugs bereitzustellen.According to one aspect, a device for recognizing and tracking a dynamic (surrounding) object in the surroundings of a vehicle (in particular a motor vehicle) is described. A dynamic object recognized by the device can, for example, be used to provide a driving function within the vehicle, for example to guide the vehicle at least partially or completely automatically. The device can thus be set up to provide a driving function of the vehicle on the basis of the dynamic object recognized and tracked over time.
Die Vorrichtung umfasst eine Maschinen-erlernte Objekterkennungseinheit, die eingerichtet ist, auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs für einen aktuellen Zeitpunkt eine Objekt-Hypothese für ein dynamisches Objekt in dem Umfeld des Fahrzeugs zu ermitteln. Die Objekterkennungseinheit kann z.B. eingerichtet sein, eine Objekt-Hypothese auf Basis der Sensordaten von ein oder mehreren Bildkameras des Fahrzeugs zu ermitteln. Des Weiteren kann die Objekterkennungseinheit eingerichtet sein, eine Objekt-Hypothese auf Basis der Sensordaten von ein oder mehreren abstandssensierenden Umfeldsensoren (z.B. einem Lidarsensor und/oder einem Radarsensor) zu ermitteln. So kann die Güte der Objekt-Hypothesen weiter erhöht werden.The device comprises a machine-learned object recognition unit which is set up to determine an object hypothesis for a dynamic object in the surroundings of the vehicle for a current point in time on the basis of sensor data from one or more environment sensors of the vehicle. The object recognition unit can be set up, for example, to determine an object hypothesis on the basis of the sensor data from one or more image cameras of the vehicle. Furthermore, the object recognition unit can be set up to determine an object hypothesis on the basis of the sensor data from one or more distance-sensing surroundings sensors (e.g. a lidar sensor and / or a radar sensor). In this way, the quality of the object hypotheses can be further increased.
In einem bevorzugten Beispiel umfasst die Objekterkennungseinheit zumindest ein maschinell angelerntes künstliches neuronales Netz, insbesondere ein Deep Neural Network. Die Objekterkennungseinheit kann dann eingerichtet sein, die Objekt-Hypothese für ein dynamisches Objekt mittels des maschinell angelernten künstlichen neuronalen Netzes zu ermitteln.In a preferred example, the object recognition unit comprises at least one machine-learned artificial neural network, in particular a deep neural network. The object recognition unit can then be set up to determine the object hypothesis for a dynamic object by means of the machine-learned artificial neural network.
Die Verwendung einer Maschinen-erlernten Objekterkennungseinheit zur Ermittlung von ein oder mehreren Objekt-Hypothesen für ein oder mehrere entsprechende dynamische Objekte ermöglicht es, die ein oder mehreren dynamischen Objekte in besonders zuverlässiger und robuster Weise zu erkennen.The use of a machine-learned object recognition unit to determine one or more object hypotheses for one or more corresponding dynamic objects makes it possible to recognize the one or more dynamic objects in a particularly reliable and robust manner.
Die Vorrichtung umfasst ferner eine Rastereinheit, die eingerichtet ist, auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs für den aktuellen Zeitpunkt ein dynamisches Belegungsraster für das Umfeld des Fahrzeugs zu ermitteln. Das Belegungsraster kann das Umfeld des Fahrzeugs in eine Vielzahl von Zellen unterteilen. Das Belegungsraster kann dann für die Vielzahl von Zellen jeweils eine Wahrscheinlichkeit dafür anzeigt, dass die jeweilige Zelle durch ein Objekt belegt ist oder nicht. Des Weiteren kann das Belegungsraster ggf. für zumindest einen Teil der Vielzahl von Zellen jeweils Bewegungsinformation in Bezug auf die Bewegungsgeschwindigkeit und/oder in Bezug auf die Bewegungsrichtung der jeweiligen Zelle anzeigen.The device further comprises a grid unit which is set up to determine a dynamic occupancy grid for the area around the vehicle for the current point in time on the basis of sensor data from one or more environment sensors of the vehicle. The occupancy grid can subdivide the area around the vehicle into a large number of cells. The occupancy grid can then indicate a probability for the plurality of cells that the respective cell is or is not occupied by an object. Furthermore, the occupancy grid can optionally display movement information in relation to the movement speed and / or in relation to the direction of movement of the respective cell for at least some of the plurality of cells.
Die Rastereinheit kann eingerichtet sein, das Belegungsraster für den aktuellen Zeitpunkt auf Basis von Sensordaten zumindest eines Radarsensors des Fahrzeugs, auf Basis von Sensordaten zumindest eines Lidarsensors des Fahrzeugs, und/oder auf Basis von Sensordaten zumindest einer Bildkamera des Fahrzeugs zu ermitteln. Die Bewegungsinformation für einzelne Zellen kann dabei z.B. auf Basis der Sensordaten zumindest eines Radarsensors des Fahrzeugs ermittelt werden.The grid unit can be set up, the occupancy grid for the current point in time on the basis of sensor data of at least one radar sensor of the vehicle, on the basis of sensor data to determine at least one lidar sensor of the vehicle and / or based on sensor data of at least one image camera of the vehicle. The movement information for individual cells can be determined, for example, on the basis of the sensor data of at least one radar sensor of the vehicle.
Die Rastereinheit kann eingerichtet sein, das Belegungsraster für einen vorhergehenden Zeitpunkt auf Basis der Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs (für den aktuellen Zeitpunkt) zu aktualisieren, um das Belegungsraster für den aktuellen Zeitpunkt zu ermitteln. Mit anderen Worten, das Belegungsraster kann iterativ für eine Sequenz von Zeitpunkten jeweils aktualisiert werden. So kann in besonders zuverlässiger und präziser Weise die Belegung von einzelnen Zellen des Umfelds des Fahrzeugs ermittelt werden.The grid unit can be set up to update the occupancy grid for a previous point in time on the basis of the sensor data from one or more environment sensors of the vehicle (for the current point in time) in order to determine the occupancy grid for the current point in time. In other words, the allocation grid can be updated iteratively for a sequence of points in time. The occupancy of individual cells around the vehicle can thus be determined in a particularly reliable and precise manner.
Die Vorrichtung umfasst ferner eine Nachverfolgungseinheit, die eingerichtet ist, das durch die Objekt-Hypothese angezeigte dynamische Objekt unter Berücksichtigung des dynamischen Belegungsrasters ausgehend von dem aktuellen Zeitpunkt an einer Sequenz von nachfolgenden Zeitpunkten nachzuverfolgen. Insbesondere können dabei die Position und/oder der dynamische Bewegungszustand des dynamischen Objektes an einer Sequenz von nachfolgenden Zeitpunkten ermittelt werden.The device further comprises a tracking unit which is set up to track the dynamic object indicated by the object hypothesis, taking into account the dynamic occupancy grid based on the current point in time at a sequence of subsequent points in time. In particular, the position and / or the dynamic state of movement of the dynamic object can be determined at a sequence of subsequent times.
Es wird somit eine kombinierte Nutzung einer auf neuronalen Netzen basierenden Objekterkennung und einer auf einem iterativ ermittelten dynamischen Belegungsraster basierenden dynamischen Objekterkennung und Nachverfolgung von Objekten ermöglicht. So können dynamische Objekte in besonders präziser, robuster und zuverlässiger Weise erkannt und nachverfolgt werden.A combined use of an object recognition based on neural networks and a dynamic object recognition and tracking of objects based on an iteratively determined dynamic occupancy grid is thus made possible. In this way, dynamic objects can be recognized and tracked in a particularly precise, robust and reliable manner.
Die Vorrichtung kann eingerichtet sein, an einer Sequenz von Zeitpunkten, die Objekterkennung zu wiederholen, und das Belegungsraster sowie die Nachverfolgung zu aktualisieren. Mit anderen Worten, die Objekterkennung und die Nachverfolgung von ein oder mehreren dynamischen Objekten kann an einer Sequenz von Zeitpunkten wiederholt werden. So kann quasi-kontinuierlich ein jeweils aktuelles Bild (insbesondere ein Belegungsraster) mit den zu berücksichtigenden dynamischen Objekten ermittelt werden (und ggf. für eine Fahrfunktion verwendet werden).The device can be set up to repeat the object recognition at a sequence of points in time and to update the occupancy grid and the tracking. In other words, the object recognition and the tracking of one or more dynamic objects can be repeated at a sequence of points in time. A current image (in particular an occupancy grid) with the dynamic objects to be taken into account can thus be determined quasi-continuously (and possibly used for a driving function).
Die Objekterkennungseinheit kann eingerichtet sein, eine Objekt-Hypothese für ein dynamisches Objekt zu ermitteln, das sich an dem aktuellen Zeitpunkt tatsächlich bewegt. Des Weiteren kann die Objekterkennungseinheit eingerichtet sein, eine Objekt-Hypothese für ein dynamisches Objekt zu ermitteln, das sich an dem aktuellen Zeitpunkt nicht bewegt, sich aber an einem nachfolgenden Zeitpunkt bewegen könnte. Insbesondere kann die Objekterkennungseinheit eingerichtet sein, Sensordaten derart auszuwerten, dass auch semantische Aspekte in Bezug auf ein oder mehrere erkannte Objekte berücksichtigt werden. Insbesondere kann der Typ eines erkannten Objekts ermittelt werden (wie z.B. ein Fahrzeug, ein Fußgänger, ein Fahrradfahrer oder eine Wand bzw. eine Fahrbahnbegrenzung). Auf Basis des ermittelten Typs des Objekts kann dann entschieden werden, ob das detektierte Objekt dauerhaft statisch ist (und somit auch in Zukunft nicht mit einer Bewegung des Objektes gerechnet werden kann), oder über das detektierte Objekt prinzipiell dynamisch ist, und sich zumindest in Zukunft bewegen könnte (auch wenn sich das detektierte Objekt an dem aktuellen Zeitpunkt nicht bewegt). Eine von der Objekterkennungseinheit bereitgestellte Objekt-Hypothese kann somit ein dynamisches Objekt anzeigen, das zumindest potentiell dynamisch ist (wie z.B. ein Fahrzeug, ein Fußgänger, ein Fahrradfahrer, etc.).The object recognition unit can be set up to determine an object hypothesis for a dynamic object that is actually moving at the current point in time. Furthermore, the object recognition unit can be set up to determine an object hypothesis for a dynamic object that is not moving at the current point in time, but could move at a subsequent point in time. In particular, the object recognition unit can be set up to evaluate sensor data in such a way that semantic aspects relating to one or more recognized objects are also taken into account. In particular, the type of a recognized object can be determined (such as a vehicle, a pedestrian, a cyclist or a wall or a lane boundary). On the basis of the determined type of the object, it can then be decided whether the detected object is permanently static (and therefore movement of the object cannot be expected in the future), or whether the detected object is principally dynamic, and at least in the future could move (even if the detected object is not moving at the current point in time). An object hypothesis provided by the object recognition unit can thus indicate a dynamic object that is at least potentially dynamic (such as a vehicle, a pedestrian, a cyclist, etc.).
Dies ist ein wesentlicher Vorteil der Verwendung einer Maschinen-erlernten Objekterkennungseinheit, da potentiell dynamische Objekt (die sich an dem aktuellen Zeitpunkt nicht bewegen, sich aber zukünftig bewegen könnten) mit einem dynamischen Belegungsraster typischerweise nicht erkannt werden können (oder erst dann erkannt werden können, wenn sich das dynamische Objekt bereits in der Vergangenheit, zumindest zeitweise, bewegt hat). Durch die Verwendung einer Maschinen-erlernten Objekterkennungseinheit wird somit in robuster Weise die Nachverfolgung bzw. das Tracking von potentiell dynamischen Objekten ermöglicht (die sich ggf. an dem aktuellen Zeitpunkt nicht bewegen, sich aber an einem nachfolgenden Zeitpunkt bewegen könnten, und somit nachverfolgt bzw. getrackt werden sollten).This is an essential advantage of using a machine-learned object recognition unit, since potentially dynamic objects (which are not moving at the current point in time, but could move in the future) typically cannot be recognized with a dynamic occupancy grid (or can only be recognized then, if the dynamic object has already moved in the past, at least temporarily). The use of a machine-learned object recognition unit enables the tracking or tracking of potentially dynamic objects (which may not move at the current point in time, but could move at a subsequent point in time, and thus tracked or tracked) in a robust manner. should be tracked).
Die Rastereinheit kann eingerichtet sein, ein oder mehrere Zell-Cluster für ein oder mehrere entsprechende (dynamische) Objekte innerhalb des Belegungsrasters zu ermitteln. Das Zell-Cluster für ein Objekt kann die Mehrzahl von Zellen des Belegungsrasters anzeigen, die durch das Objekt belegt sind. Insbesondere können einzelne Objekte im Umfeld des Fahrzeugs innerhalb des Belegungsrasters jeweils als Zell-Cluster repräsentiert werden. Dabei kann ein Zell-Cluster eine Objekt-Hypothese für ein (statisches oder zumindest potentiell dynamisches) Objekt darstellen. Ein Zell-Cluster für ein Objekt kann durch Verwendung eines Clustering-Algorithmus (autark) innerhalb der Rastereinheit ermittelt werden. Ein von der Rastereinheit ermitteltes Zell-Cluster kann als Objekt-Hypothese für ein (potentiell) dynamisches Objekt innerhalb der Nachverfolgungseinheit berücksichtigt werden. Alternativ oder ergänzend kann ein Zell-Cluster auf Basis einer durch die Objekterkennungseinheit bereitgestellten Objekt-Hypothese ermittelt werden. Das Bilden von Zell-Clustern ermöglicht eine präzise Nachverfolgung von Objekten innerhalb eines dynamischen Belegungsrasters.The grid unit can be set up to determine one or more cell clusters for one or more corresponding (dynamic) objects within the occupancy grid. The cell cluster for an object can display the plurality of cells of the occupancy grid that are occupied by the object. In particular, individual objects in the vicinity of the vehicle can each be represented as a cell cluster within the occupancy grid. A cell cluster can represent an object hypothesis for a (static or at least potentially dynamic) object. A cell cluster for an object can be determined within the grid unit by using a clustering algorithm (self-sufficient). A cell cluster determined by the grid unit can be taken into account as an object hypothesis for a (potentially) dynamic object within the tracking unit. Alternatively or in addition, a cell cluster can be determined on the basis of an object hypothesis provided by the object recognition unit. The formation of cell clusters enables precise tracking of Objects within a dynamic allocation grid.
Die ein oder mehreren Zell-Cluster können in iterativer Weise zusammen mit dem Belegungsraster aktualisiert werden, um die jeweils aktuellen Positionen der ein oder mehreren Zell-Cluster innerhalb des Belegungsrasters an einer Sequenz von Zeitpunkten zu beschreiben. Zur Aktualisierung der Position eines Zell-Clusters kann die Bewegungsinformation der Zellen berücksichtigt werden, die zu dem Zell-Cluster gehören. Dabei kann bei der Aktualisierung der Position eines Zell-Clusters z.B. ein Partikelfilter verwendet werden. So kann in präziser Weise die Position eines Zell-Clusters (und damit die Position des mit dem Zell-Cluster assoziierten Objektes) nachverfolgt werden, was eine präzise Nachverfolgung eines dynamischen Objektes ermöglicht.The one or more cell clusters can be updated iteratively together with the occupancy grid in order to describe the current positions of the one or more cell clusters within the occupancy grid at a sequence of points in time. To update the position of a cell cluster, the movement information of the cells that belong to the cell cluster can be taken into account. A particle filter, for example, can be used when updating the position of a cell cluster. In this way, the position of a cell cluster (and thus the position of the object associated with the cell cluster) can be traced in a precise manner, which enables precise tracing of a dynamic object.
Die Rastereinheit kann eingerichtet sein, die für den aktuellen Zeitpunkt von der Objekterkennungseinheit ermittelte Objekt-Hypothese bei der Ermittlung des Belegungsrasters für einen auf den aktuellen Zeitpunkt nachfolgenden Zeitpunkt zu berücksichtigen. Insbesondere kann auf Basis der Objekt-Hypothese (z.B. auf Basis der durch die Objekt-Hypothese angezeigte Bounding Box des dynamischen Objektes) ein Zell-Cluster innerhalb des Belegungsrasters für das erkannte dynamische Objekt gebildet und über der Zeit nachverfolgt werden. So kann das dynamische Objekt in besonders präziser Weise über der Zeit (d.h. an der Sequenz von nachfolgenden Zeitpunkten) nachverfolgt werden.The grid unit can be set up to take into account the object hypothesis determined by the object recognition unit for the current point in time when determining the occupancy grid for a point in time subsequent to the current point in time. In particular, on the basis of the object hypothesis (e.g. on the basis of the bounding box of the dynamic object indicated by the object hypothesis), a cell cluster can be formed within the occupancy grid for the identified dynamic object and tracked over time. In this way, the dynamic object can be tracked in a particularly precise way over time (i.e. on the sequence of subsequent points in time).
Die Nachverfolgungseinheit (und/oder die Rastereinheit) kann eingerichtet sein, ein dynamisches Objekt mittels eines Unscented Kalman Filters (UKF) an der Sequenz von nachfolgenden Zeitpunkten nachzuverfolgen. Eine beispielhafte Methode zur Nachverfolgung eines dynamischen Objektes mittels eines UKF ist in
Alternativ oder ergänzend kann die Nachverfolgungseinheit (und/oder die Rastereinheit) eingerichtet sein, auf Basis der Bewegungsinformation in Bezug auf die Bewegung der einzelnen Zellen in dem Belegungsraster die Position des durch die Objekt-Hypothese angezeigten dynamischen Objekts (insbesondere des entsprechenden Zell-Clusters) innerhalb des Belegungsrasters für einen nachfolgenden Zeitpunkt (aus der Sequenz von nachfolgenden Zeitpunkten) zu prädizieren. Zu diesem Zweck kann (wie oben dargelegt) ein Partikelfilter genutzt werden, bei dem einzelne Bewegungs-Hypothesen gestreut werden).Alternatively or in addition, the tracking unit (and / or the grid unit) can be set up to determine the position of the dynamic object indicated by the object hypothesis (in particular the corresponding cell cluster) on the basis of the movement information in relation to the movement of the individual cells in the occupancy grid. within the allocation grid for a subsequent point in time (from the sequence of subsequent points in time). For this purpose (as explained above) a particle filter can be used, in which individual motion hypotheses are scattered).
Die prädizierte Position des dynamischen Objektes (bzw. des entsprechenden Zell-Clusters) kann dann anhand von Sensordaten von ein oder mehreren Umfeldsensoren (z.B. eines Radarsensors, eines Lidarsensors und/oder einer Bildkamera) des Fahrzeugs für den nachfolgenden Zeitpunkt und/oder anhand des Belegungsrasters für den nachfolgenden Zeitpunkt korrigiert und/oder abgeglichen werden. So kann ein dynamisches Objekt in besonders präziser und robuster Weise nachverfolgt werden.The predicted position of the dynamic object (or the corresponding cell cluster) can then be based on sensor data from one or more environment sensors (e.g. a radar sensor, a lidar sensor and / or an image camera) of the vehicle for the subsequent point in time and / or based on the occupancy grid be corrected and / or adjusted for the subsequent point in time. In this way, a dynamic object can be tracked in a particularly precise and robust manner.
Die Objekterkennungseinheit kann eingerichtet sein, die Objekt-Hypothese (für das dynamische Objekt) für den aktuellen Zeitpunkt auf Basis von Raster-Information in Bezug auf das Belegungsraster für den aktuellen Zeitpunkt zu ermitteln. Die Raster-Information kann dabei als Eingangswerte an ein neuronales Netz der Objekterkennungseinheit übergeben werden. Die Raster-Information kann insbesondere die Bewegungsinformation in Bezug auf die Bewegungsgeschwindigkeit und/oder in Bezug auf die Bewegungsrichtung von ein oder mehreren Zellen des Belegungsrasters umfassen. Durch die Berücksichtigung von Raster-Information bei der Objekterkennung kann die Güte der ermittelten Objekt-Hypothesen erhöht werden.The object recognition unit can be set up to determine the object hypothesis (for the dynamic object) for the current point in time on the basis of grid information in relation to the occupancy grid for the current point in time. The raster information can be transferred as input values to a neural network of the object recognition unit. The raster information can in particular comprise the movement information in relation to the speed of movement and / or in relation to the direction of movement of one or more cells of the occupancy raster. By taking raster information into account when recognizing the object, the quality of the object hypotheses determined can be increased.
Gemäß einem weiteren Aspekt wird ein (Straßen-)Kraftfahrzeug (insbesondere ein Personenkraftwagen oder ein Lastkraftwagen oder ein Bus oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Vorrichtung umfasst.According to a further aspect, a (road) motor vehicle (in particular a passenger car or a truck or a bus or a motorcycle) is described which comprises the device described in this document.
Gemäß einem weiteren Aspekt wird ein Verfahren zur Erkennung und zur Nachverfolgung eines dynamischen Objektes in einem Umfeld eines Fahrzeugs beschrieben. Das Verfahren umfasst das Ermitteln, anhand einer Maschinen-erlernten Objekterkennungseinheit, einer Objekt-Hypothese für ein dynamisches Objekt in dem Umfeld des Fahrzeugs für einen aktuellen Zeitpunkt, auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs. Des Weiteren umfasst das Verfahren das Ermitteln eines dynamischen Belegungsrasters für das Umfeld des Fahrzeugs für den aktuellen Zeitpunkt, auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs. Das Verfahren umfasst ferner das Nachverfolgen des durch die Objekt-Hypothese angezeigten dynamischen Objekts ausgehend von dem aktuellen Zeitpunkt an einer Sequenz von nachfolgenden Zeitpunkten, unter Berücksichtigung des dynamischen Belegungsrasters für das Umfeld des Fahrzeugs.According to a further aspect, a method for recognizing and tracking a dynamic object in the surroundings of a vehicle is described. The method comprises determining, using a machine-learned object recognition unit, an object hypothesis for a dynamic object in the surroundings of the vehicle for a current point in time, based on sensor data from one or more surroundings sensors of the vehicle. Furthermore, the method includes the determination of a dynamic occupancy grid for the surroundings of the vehicle for the current point in time, on the basis of sensor data from one or more surroundings sensors of the vehicle. The method further comprises tracking the dynamic object indicated by the object hypothesis, starting from the current point in time at a sequence of subsequent points in time, taking into account the dynamic occupancy grid for the surroundings of the vehicle.
Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einem Steuergerät eines Fahrzeugs) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.According to a further aspect, a software (SW) program is described. The software program can be set up to run on a processor (e.g. on a control unit of a vehicle) to perform the procedure described in this document.
Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.According to a further aspect, a storage medium is described. The storage medium can comprise a software program which is set up to be executed on a processor and thereby to execute the method described in this document.
Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be noted that the methods, devices and systems described in this document can be used both alone and in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, devices and systems described in this document can be combined with one another in diverse ways. In particular, the features of the claims can be combined with one another in diverse ways.
Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
-
1 ein beispielhaftes Fahrzeug mit einer Mehrzahl von unterschiedlichen Umfeldsensoren; -
2 ein beispielhaftes Belegungsraster einer Umgebung eines Fahrzeugs; -
3 eine beispielhafte Vorrichtung zur Erkennung und zur Nachverfolgung eines dynamischen Objektes; und -
4 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Erkennung und zur Nachverfolgung eines dynamischen Objektes.
-
1 an exemplary vehicle with a plurality of different environment sensors; -
2 an exemplary occupancy grid of an area around a vehicle; -
3 an exemplary device for recognizing and tracking a dynamic object; and -
4th a flowchart of an exemplary method for recognizing and tracking a dynamic object.
Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Detektion und der Nachverfolgung zumindest eines dynamischen Umgebungs-Objektes auf Basis von Sensordaten von ein oder mehreren Umfeldsensoren. In diesem Zusammenhang zeigt
Das vorliegende Dokument befasst sich insbesondere mit der konsistenten multisensoriellen Modellierung der Umgebung eines Fahrzeuges
Die Verarbeitungseinheit
Typischerweise können auf Basis einer zeitlich isolierten Messung an einem bestimmten Zeitpunkt t nur die Evidenzen bzw. Evidenzmassen m(SD), m(F) ermittelt werden, da nicht festgestellt werden kann, ob das Objekt durch ein statisches Objekt
Ein Problem bei der rasterbasierten Auswertung von Sensordaten ist die Erkennung von einzelnen Objekten
Wie oben dargelegt, kann ein dynamisches Objekt
Eine Möglichkeit zur Erkennung von einzelnen Objekten
Die ein oder mehreren Zell-Cluster
Die Vorrichtung
Die Objekterkennungseinheit
Alternativ oder ergänzend kann die Objekterkennungseinheit
Die Nachverfolgungseinheit
Die Rastereinheit
- • eine Ebene für die Reflektions- und/oder Intensitätsdaten eines Lidar- und/
oder Radarsensors 111 ,112 ; - • eine Ebene für Information in Bezug auf die Höhe der einzelnen
Zellen 201 ; - • eine Ebene für Bewegungsinformation in Bezug auf die Bewegungsgeschwindigkeit und/oder die Bewegungsrichtung der einzelnen
Zellen 201 ; und/oder - • eine Ebene für ein oder mehrere Zell-
Cluster 322 , diejeweils ein Objekt 150 ,250 repräsentieren.
- • a plane for the reflection and / or intensity data of a lidar and / or
radar sensor 111 ,112 ; - • a level for information on the height of each
cell 201 ; - • a level for movement information in relation to the speed of movement and / or the direction of movement of the
individual cells 201 ; and or - • one level for one or
more cell clusters 322 each oneobject 150 ,250 represent.
Das Verfahren
Das Verfahren
Des Weiteren umfasst das Verfahren
Die in diesem Dokument beschriebene kombinierte Nutzung der Objekterkennung von dynamischen Objekten
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur beispielhaft das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not restricted to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed methods, devices and systems by way of example.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturNon-patent literature cited
- Steyer et al., „Grid-Based Object Tracking with Nonlinear Dynamic State and Shape Estimation“, IEEE Transactions on Intelligent Transportation Systems, June 2019 [0021]Steyer et al., "Grid-Based Object Tracking with Nonlinear Dynamic State and Shape Estimation", IEEE Transactions on Intelligent Transportation Systems, June 2019 [0021]
- Steyer et al, „Object Tracking Based on Evidential Dynamic Occupancy Grids in Urban Environments“, IEEE Intelligent Vehicles Symposium (IV), 2017 [0034]Steyer et al, "Object Tracking Based on Evidential Dynamic Occupancy Grids in Urban Environments", IEEE Intelligent Vehicles Symposium (IV), 2017 [0034]
Claims (14)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102019129463.0A DE102019129463A1 (en) | 2019-10-31 | 2019-10-31 | Method and device for recognizing and tracking a dynamic object |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102019129463.0A DE102019129463A1 (en) | 2019-10-31 | 2019-10-31 | Method and device for recognizing and tracking a dynamic object |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102019129463A1 true DE102019129463A1 (en) | 2021-05-06 |
Family
ID=75485598
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102019129463.0A Pending DE102019129463A1 (en) | 2019-10-31 | 2019-10-31 | Method and device for recognizing and tracking a dynamic object |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102019129463A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12157494B2 (en) | 2022-12-09 | 2024-12-03 | Robert Bosch Gmbh | Use of high density map in occupancy grid |
| DE102023210003A1 (en) * | 2023-10-12 | 2025-04-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for monitoring the environment of a vehicle |
| US12371053B2 (en) * | 2022-12-09 | 2025-07-29 | Robert Bosch Gmbh | Using static grid map to cross-check dynamic objects |
| US12409851B2 (en) | 2022-12-09 | 2025-09-09 | Robert Bosch Gmbh | Sensor plugin architecture for grid map |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102013225057A1 (en) * | 2013-12-05 | 2015-06-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | METHOD FOR CONTROLLING A VEHICLE, DEVICE FOR PRODUCING CONTROL SIGNALS FOR A VEHICLE AND VEHICLE |
| DE112019000049T5 (en) * | 2018-02-18 | 2020-01-23 | Nvidia Corporation | OBJECT DETECTION AND DETECTION SECURITY SUITABLE FOR AUTONOMOUS DRIVING |
-
2019
- 2019-10-31 DE DE102019129463.0A patent/DE102019129463A1/en active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102013225057A1 (en) * | 2013-12-05 | 2015-06-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | METHOD FOR CONTROLLING A VEHICLE, DEVICE FOR PRODUCING CONTROL SIGNALS FOR A VEHICLE AND VEHICLE |
| DE112019000049T5 (en) * | 2018-02-18 | 2020-01-23 | Nvidia Corporation | OBJECT DETECTION AND DETECTION SECURITY SUITABLE FOR AUTONOMOUS DRIVING |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12157494B2 (en) | 2022-12-09 | 2024-12-03 | Robert Bosch Gmbh | Use of high density map in occupancy grid |
| US12371053B2 (en) * | 2022-12-09 | 2025-07-29 | Robert Bosch Gmbh | Using static grid map to cross-check dynamic objects |
| US12409851B2 (en) | 2022-12-09 | 2025-09-09 | Robert Bosch Gmbh | Sensor plugin architecture for grid map |
| DE102023210003A1 (en) * | 2023-10-12 | 2025-04-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for monitoring the environment of a vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3877776B1 (en) | Method and processing unit for determining information with respect to an object in an environment of a vehicle | |
| DE102017204404B3 (en) | A method and predicting device for predicting a behavior of an object in an environment of a motor vehicle and a motor vehicle | |
| DE102021102785A1 (en) | METHOD AND DEVICE FOR TRACK DETECTION ON A VEHICLE SURFACE | |
| DE102019129463A1 (en) | Method and device for recognizing and tracking a dynamic object | |
| DE102021002798A1 (en) | Process for camera-based environment detection | |
| DE102017206436A1 (en) | Method for detecting and / or tracking objects | |
| DE102019115059A1 (en) | SYSTEM FOR DERIVING AN AUTONOMOUS VEHICLE WHICH ENABLES A DRIVABLE CARD | |
| DE102019123483B4 (en) | Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level | |
| DE102018100487A1 (en) | OBJECT TRACKING THROUGH UNDUE MONITORING | |
| DE102018200683A1 (en) | Method for detecting an object | |
| DE102019109333A1 (en) | Method and processing unit for determining the size of an object | |
| WO2015173005A1 (en) | Map of the surroundings for driving areas with random altitude profile | |
| WO2021139974A1 (en) | Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing | |
| DE112021006154T5 (en) | Motion planning in curvilinear coordinates for autonomous vehicles | |
| DE102019124566A1 (en) | Method and system for recognizing dynamic properties of objects in the vicinity of a vehicle | |
| DE102019109332A1 (en) | Method and processing unit for determining an object status of an object | |
| DE102021003567A1 (en) | Process for the recognition of object relationships and attributions from sensor data | |
| DE102020127171A1 (en) | Detection method for detecting static objects | |
| DE102020200876A1 (en) | Method for processing sensor data from a sensor system of a vehicle | |
| WO2023147935A1 (en) | Method for detecting an object, image detecting device, computer program, and storage unit | |
| WO2022228809A1 (en) | Method and device for predicting object data concerning an object | |
| DE102021121712A1 (en) | GROUP OBJECT TRACKING | |
| DE102018215288A1 (en) | Method and processing unit for tracking an object | |
| DE102023129595A1 (en) | FAIR NEURAL NETWORKS | |
| DE102022207293A1 (en) | Method and environmental detection system for segmenting data |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified |