[go: up one dir, main page]

DE102008041679A1 - Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung - Google Patents

Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung Download PDF

Info

Publication number
DE102008041679A1
DE102008041679A1 DE102008041679A DE102008041679A DE102008041679A1 DE 102008041679 A1 DE102008041679 A1 DE 102008041679A1 DE 102008041679 A DE102008041679 A DE 102008041679A DE 102008041679 A DE102008041679 A DE 102008041679A DE 102008041679 A1 DE102008041679 A1 DE 102008041679A1
Authority
DE
Germany
Prior art keywords
data
feature
classification
sensor
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102008041679A
Other languages
English (en)
Inventor
Martin Mueller
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102008041679A priority Critical patent/DE102008041679A1/de
Publication of DE102008041679A1 publication Critical patent/DE102008041679A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren und Vorrichtung zur Umfelderkennung für ein sich bewegendes System, wobei wenigstens ein an das sich bewegende System gebundener Sensor zum Einsatz kommt, bei dem mittels eines bildgebenden Verfahrens wenigstens ein Objekt oder Merkmal im Umfeld des Systems erkannt wird zu einem ersten Zeitpunkt, wobei Daten des wenigstens einen dieser Objekte oder Merkmale in einem Speicher abgelegt werden, dadurch gekennzeichnet, dass nach einer weiteren möglichen Sichtung dieses wenigstens einen Objekts oder Merkmals zu einem mindestens zweiten Zeitpunkt eine Klassifikation dieses wenigstens einen Objekts oder Merkmals stattfindet mithilfe eines Vergleichs der im Speicher abgelegten Daten.

Description

  • Stand der Technik
  • Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren zur erinnerungsbasierten Umfelderkennung nach Gattung der unabhängigen Ansprüche.
  • Aus der DE 10 2006 058 304 A1 ist ein Verfahren zum ortsbasierten Verarbeiten von Daten bekannt, welches auftretende Ereignisse in Zusammenhang mit einem Fahrzeug speichert, wobei der Ort an dem dieses Ereignis stattfindet, mitgespeichert wird. Ziel dieser Erfindung ist es, dass beim wiederholten Annähern an derartige Orte ein Erinnerungsvermögen hergestellt wird, wodurch beispielsweise eine rechtzeitige Warnung vor ehemals begegneten Gefahrenquellen ausgeben werden kann. Weiterhin können andere Fahrerassistenzsysteme angesteuert, bzw. informiert werden, als auch Daten von diesen, insbesondere einem Navigationsgerät, Verwendung finden. Im speziellen handelt es sich bei dieser Erfindung um die Behandlung von Ereignissen, somit muss ein Ereignis mindestens einmal eintreten, bevor man einem solchen präventiv entgegenwirken kann. Des Weiteren offenbart die Schrift kein konkretes Verfahren wie an die Informationen zu kommen ist, bzw. welche Daten verwendet werden.
  • Weiterhin ist aus der DE 10 335 601 A1 ein Verfahren zur Objektklassifizierung unter Verwendung einer 3D-Modelldatenbank bekannt, bei dem in einer Datenbank abgespeicherte Referenzdaten als 3D-Datenmodell abgespeichert sind, und die real gemessenen Daten auf verschiedene Variationen der 3D Lage des Modells verglichen und damit klassifiziert werden. Die Verwendung von Referenzdaten, die durch einen anderen Weg (Sensor) aufgenommen werden, als die zu prüfenden Daten, führt zu der Problematik, dass Ungenauigkeiten in beiden Aufnahmewegen (z. B. Bauteiltoleranzen) voll in das Klassifikationsergebnis mit einfließen. Es wird versucht, über die fehlerbehaftete Abbildung der Sensorik ein bekanntes Objekt zu klassifizieren.
  • Offenbarung der Erfindung
  • Die erfindungsgemäße Vorrichtung und Verfahren mit den Merkmalen der unabhängigen Ansprüche haben demgegenüber den Vorteil, dass eine autarke Umfelderkennung, analog zu der eines Menschen möglich ist, in dem Objekte in einer unbekannten Gegend wahrgenommen und bei einer Wiederkehr wieder erkannt werden. In der Technik werden in Abhängigkeit der Sensorausstattungsvarianten sensorspezifische Merkmale der Umfeldobjekte, wie beispielsweise Position, relative Geschwindigkeit, Ausdehnung, Kontur, Größe, Form oder Reflektanz erfasst und daraus ein Umfeldmodell erstellt, welches bei einer Wiederkehr angepasst werden kann. Aus der Veränderung von Parametern dieser Objekte zwischen wenigstens zweimaligen Wahrnehmen können Schlüsse gezogen, bzw. Klassifikationen vorgenommen werden, insbesondere um die Frage zu klären, ob ein Objekt statisch, oder dynamisch (beweglich) ist. Ersteres wird dann der Fall sein, wenn das Objekt bei mehrmaliger Wiederkehr jedes Mal auftaucht, ein dynamisches Objekt, wie beispielsweise ein Fußgänger wird nicht jedes Mal auftauchen. Damit kann ein adaptives Umfeldmodell statischer Objekte erstellt werden. Im Gegensatz zu anderen Verfahren, können hier dynamische und statische Objekte schneller von einander unterschieden werden, da bei dem plötzlichen Auftreten eines dynamischen Objekts an einer bekannten Stelle an der normalerweise kein Objekt vorhanden ist, sofort klassifiziert werden kann.
  • Erfindungsgemäß beschränkt sich die Klassifizierung nicht auf dynamische und statische Objekte, sondern kann auch für andere Klassifikation herangezogen werden, sofern der erfindungsgemäße Gedanke der Unterscheidung zwischen mehreren Wahrnehmungen zutrifft. Denkbar ist auch eine diversifiziertere Klassifizierung, wie beispielsweise das Erkennen von regelmäßig wiederkehrenden dynamischen Objekten, beispielsweise parkenden Autos zur Geschäftszeit, Schulkindern zur Zeit des Unterrichtsbeginns/-schluss oder einer Tagesbaustelle.
  • Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen möglich.
  • Vorteilhafterweise findet die Erstellung einer Karte statt, in die die detektierten Objekte eingetragen werden. Hierdurch kann autark eine Karte erstellt werden, welche in der Regel aktueller und genauer sein wird als solches von extern zugelieferten digitalen Karten, wie beispielsweise der eines Navigationssystems. Vorraussetzung hierfür ist jedoch, dass eine Strecke mehrfach gefahren, bzw. wahrgenommen wurde. Durch die Eintragungen der Objekte in einer digitalen Karte ist es möglich Objekte zu erfassen und zuzuordnen, auch wenn man nicht den gleichen Fahrweg bei der Wiederkehr fährt. So sind Objekte, die beispielsweise auf der Hinfahrt wahrgenommen wurden, auf der Rückfahrt bereits bekannt, sofern nicht spezielle Umstände vorliegen, wie z. B. die Tatsache, dass ein Objekt verdeckt sein könnte. Ist ein Objekt beispielsweise nur auf der Rückfahrt sichtbar, weil es blickrichtungsabhängig verdeckt ist, so ist vorteilhafterweise für die nächste Hinfahrt das Objekt bereits bekannt, obwohl es für diese Fahrtrichtung nicht sichtbar ist.
  • Weiterhin kann durch die digitale Karte das Problem von Abbildungsfehlern durch die sogenannte Triangulation behoben werden, welche bei der Position zur Entfernungsbestimmung von Objekten mit Hilfe einer Stereo-Videosensorik Abbildungsfehler verursacht, welche durch Plausibilisierung mit den bereits vorhandenen Daten in der digitalen Karte plausibilisiert werden können.
  • Vorteilhaft ist die Möglichkeit, das erfindungsgemäße Verfahren immer mit den selben Sensoren durchzuführen, wodurch der Vergleich von Daten immer auf den selben Sensorquellen basiert. Im Gegensatz zu bekannten Verfahren wird bei diesem Ansatz nicht angestrebt, über die fehlerbehaftete Abbildung der Sensorik ein bekanntes statisches Objekt, welches beispielsweise über andere Sensoren aufgenommen und in einer Datenbank abgelegt wurde, zu klassifizieren, sondern die Objekte aus den reduzierten Informationen der selben Sensorsignale zu erkennen und abzuspeichern. Dies hat den Vorteil, dass die „Sensorsicht” eines Fahrzeugs für die Erstellung des adaptiven Umfeldmodells eingesetzt wird, wodurch Auswirkungen von Bauteilschwankungen auf dem Klassifikationsprozess entfallen, weil sich diese Fehler sozusagen herauskürzen. Hingegen wäre bei bekannten Verfahren ab einem gewissen Grad der fehlerbehafteten Abbildung einer Klassifikation nicht mehr möglich. Durch die Verwendung des adaptiven Umfeldmodells können nun auch weniger genaue Sensoren verwendet werden, oder Sensoren verwendet werden, die gegensätzliche Aufgaben, wie beispielsweise Entfernungs- und Konturensensierung durchführen und normalerweise unterschiedlich optimiert sein müssten. Neben der Minderung der technischen Fehlereinflüsse, wie Sensorrauschen, Fertigungsprozessschwankungen, Abbildungsfehler durch Triangulation ist die Verwendung der selben Sensoren auch geeignet um Umfeldeinflüsse, wie Abbildungsfehler durch Witterungseinflüsse, Nässe, Kälte oder Verschmutzungen auszugleichen.
  • Vorteilhafterweise kann man aus den Informationen, die sich durch das erfindungsgemäße System ergeben und Informationen von anderen Quellen eine Sensordatenfusion durchführen, die einige Vorteile bietet: Einerseits können mit der Erfindung mehrdeutige Umfeldsensordaten abgesichert werden und durch das Vorhandensein der ergänzenden Informationen eines wenigstens zweiten Systems die Szeneninterpretation verbessert werden um sicherere, d. h. genauere und schnellere Ergebnisse bzw. Funktionsentscheidungen zu bekommen. Weiterhin kann mittels des Vergleichs der Sensordaten, bzw. Auswerteergebnisse, oder Zwischenschritte wenigstens zweier Systeme, eine Plausibilisierung durchgeführt werden, die die Genauigkeit erhöht, sowie ergänzende Information bereitstellt, was ein größeres Vorwissen für die Szeneninterpretation bewirkt. Das adaptive Umfeldmodell ermöglicht die Speicherung geografischer Straßeninformationen, die selbst erkundet wurden, und den Vergleich dieser Information mit aktuellen digitalen Karten, beispielsweise von Navigationsgeräten oder ergänzender bzw. alternativer Informationsquellen wie GPS oder Informationen über ein Mensch-Maschine Interface. So können beispielsweise bei kurzfristigen Änderungen des Straßenverlaufs (Baustellen, Verkehrsberuhigung, Straßenrückbildung) diese Informationen aus Sicht des Fahrzeugs wahrgenommen werden und somit ein realistischeres und aktuelleres Abbild des Umfeld erzeugen. Durch dieses zusätzliche Wissen über den Fahrzustand und der Fahrbahnverlauf können stabilere Fahrerassistenzfunktionen ermöglicht werden. So kann beispielsweise ein Lane-Keeping-Support System die Daten aus dem adaptiven Umfeldmodell heranziehen, um die Fahrtrajektorie, bzw. Fahrschlauch, um bekannte, oder mit einer gewissen Wahrscheinlichkeit vorhandene, Hindernisse herumzuführen. Als weiteres Beispiel kann das Erkennen von Fußgängern als dynamische Objekte mittels des a priori Wissens des adaptiven Umfeldmodells schnell erfolgen, wodurch Warnungen oder ein Eingriff in die Fahrdynamik stattfinden können.
  • Vorteilhaft ist die Möglichkeit das adaptive Umfeldmodell für Strecken zu erstellen, die vom Fahrzeug häufig durchfahren werden, was z. B. der tägliche Weg zur Arbeit sein kann. Je häufiger eine bestimmte Strecke abgefahren wird, desto verlässlicher wird die Aussagekraft des adaptiven Umfeldmodells über die Klassifikation statischer Objekte. Beispielsweise können diese folglich als Landmarken für die Szeneninterpretation eingesetzt werden. Welche Strecke als häufig gefahrene Strecke gilt, kann entweder vom Fahrer definiert werden oder auch durch das System selbständig ermittelt werden. Der Vorteil der selektiven Erstellung des adaptiven Umfeldmodells nur für bestimmte Strecken manifestiert sich dadurch, dass die ohnehin zu erwartende große Datenmenge eingeschränkt und somit Speicherplatz gespart werden kann.
  • Eine weitere Optimierungsaufgabe würde dann darin bestehen, die Informationen im adaptiven Umfeldmodell auf die Merkmale zu reduzieren, die mit der im Fahrzeug verbauten Sensorik, eine hohe Relevanz für die betrachtete Fahrerassistenzfunktion besitzen.
  • Vorteilhaft ist, eine Wahrscheinlichkeit zusammen mit dem Klassifikationsergebnis abzulegen, welche Aussagt, mit welcher Sicherheit die Klassifikation korrekt ist. Dadurch wird die Aussagekraft der Klassifikation erhöht und eine genauere Auswertung bzw. Reaktion ermöglicht. Beispielsweise kann so das unnötige Warnen des Fahrers vermieden werden oder ein Bremseingriff nur dann durchgeführt werden, wenn ein Hindernis mit einer hohen Wahrscheinlichkeit erkannt wurde. Idealerweise wird pro erkanntes Objekt eine Wahrscheinlichkeit ermittelt, entweder für das Klassifikationsergebnis, oder für die Bewertung der einzelnen Parameter, aus der eine Verlässlichkeit der Hypothese zu statischen Objekten getroffen werden kann. Diese Hypothesenbildung, bzw. Wahrscheinlichkeitsermittlung wird abhängig sein vom Vorwissen des adaptiven Umfeldmodells, d. h. z. B. wie oft das Fahrzeug an der Stelle schon vorbeigefahren ist und ein Objekt bzw. Merkmal eines Objekts erkannt hat, und der Güte der Sensorik, die die Merkmale bereitstellt. So können auch statische Objekte, die durch die einmalige Sensierung auf Grund diverser Verdeckungsgrade (egal ob durch statische oder dynamische Objekte verdeckt) über die Sensorik nicht eindeutig statisch klassifiziert werden konnten, gefestigt werden.
  • In einer Weiterbildung des Systems könnten auch dynamische Objekte dahingehend klassifiziert werden, ob sie beispielsweise regelmäßig auftauchen, wie Kinder in der Nähe einer Schule zur Pausenzeit, oder parkende Autos in zeitlich begrenzten Parkzonen, oder geschlossene Bahnübergänge die mit den Durchfahrtszeiten von Zügen korellieren. Zur Verwirklichung eines solchen Systems kann Information über das temporäre Auftreten von Objekten entweder intrinsisch über die Historie und gewisse Korrelationen erlangt werden, oder extrinsisch mittels anderer Datenbestände, wie z. B. Fahrplänen oder Daten in Navigationssystemen.
  • Vorteilhaft ist, dass die Erfindung zusätzlich die Art und Anzahl der Informationen erweitert, die für eine Szeneninterpretation herangezogen werden. Auf Basis dieser ergänzenden Informationen ist die Entwicklung neuer Fahrerassistenzfunktionen möglich, die mit Sensoren aktueller Fahrerassistenzsystemen nicht umgesetzt werden können. Beispielsweise ist denkbar auf diese Weise ein Fußgängerwarnsystem, oder bei spezieller Auswertung sogar ein Kinderwarnsystem zu realisieren. Weiterhin könnte als Reaktion automatisch die Hupe oder Lichthupe aktiviert werden.
  • Vorteilhaft ist, dass die Erfindung zusätzlich ein Bewegungsprofil dynamischer Objekte, wie Fussgänger, Schulkinder oder Radfahrer, in der Karte des adaptiven Umfeldmodells berücksichtigt und diese für zukünfitge Fahrerassistenzfunktionen bereithält.
  • Dadurch dass die Wahrnehmung des erfindungsgemäßen Systems ähnlich wie beim Menschen ist, insbesondere in Bezug auf die visuellen bzw. kognitiven Fähigkeiten, eröffnet sich ein weiteres Ziel der Erfindung, nämlich das autonome Fahren. Voraussetzung hierfür ist das Information über einen Streckenverlauf eröffnet werden, die das Fahrzeug selber lernt. Weitere Voraussetzung ist, dass die Verlässlichkeit der Hypothesen für die Informationen in dem adaptiven Umfeldmodell in dem Maße steigen, dass sie der Hypothese durch den Fahrer, bzw. eines Menschen gleich kommen.
  • Unbenommen von Vorigem ist es möglich, die Inhalte des adaptiven Umfeldmodells nicht nur mit anderen Fahrerassistenzsystemen, sondern auch mit anderen Systemen im eigenen, sowie im fremden Fahrzeug (beispielsweise über Ad-hoc Kommunikation) auszutauschen. So kann die spezielle Information, über die ein einzelnes Fahrzeugs verfügt, beispielsweise die Existenz einer neuen Baustelle, anderen Verkehrsteilnehmern zur Verfügung gestellt werden. Dies mag über peer-to-peer (ad-hoc) Kommunikation oder auch über ein zentral verwaltetes Datenerfassungssystem erfolgen. Funktionen, die auf digitalen Karten aufbauen (z. B. Lane Keeping Support Systeme), können sich so mit Hilfe des adaptiven Umfeldmodells selbständig an eine geänderte Infrastruktur adaptieren.
  • Vorteilhaft ist, dass über das Vorwissen des adaptiven Umfeldmodells aus abgefahrenen Strecken Entscheidungen für die Fahrplanung getroffen werden können, auch wenn zur Zeit der aktuellen Fahrt eine Erkennung von Objekten nicht möglich ist, wenn technische oder Umfeldeinflüsse eine aktuelle Sensierung verhindern. So können entsprechende Witterungs- oder Beleuchtungseinflüsse bei der jeweils verwendeten Sensorik Abbildungfehler verursachen; beispielsweise können Schnee, Gischt und Regen zu fehlerhaften Lidar-/Radar-Signalen führen, oder Videoaufnahmen durch zu starkes Gegenlicht verrauscht werden. Bei derartigen Gegebenheiten steht daher für eine bestimmte Szenerie kein verlässliches, aktuelles Umgebungsbild zur Verfügung. Hierbei können die aus früheren Fahrten wahrgenommenen Landmarken/Objekte/Merkmale in die aktuelle Szenerie eingefügt werden. Gleichzeitig ist eine Prädiktion der Fahrtrajektorie, bzw. des Fahrschlauchs, für den uneinsichtigen Straßenverlauf möglich. Gleichzeitig kann bei der Trajektorien-Planung die Vorausschauungsweite entscheidend erhöht werden.
  • Begriffserläuterungen
  • Eine Hypothese ist die Annahme eines Klassifikationsergebnisses. Wenn beispielsweise als Klassifikation unterschieden wird, ob ein Objekt statisch (Landmarke) oder dynamisch ist, so bedeutet eine starke Hypothese des einen bzw. des anderen, dass die Klassifikation wahrscheinlich richtig ist. Gleiches gilt für andere Klassifikationsvarianten, wie beispielsweise der Klassifikation der Art des Objekts, bzw. des Verhalten des Objekts, bzw. seines temporären Wiederkehrverhaltens.
  • Das adaptive Umfeldmodell wird erstellt, in dem eine Umfelderkennung stattfindet, die mittels bekannter Sensorsignale und einer Szeneninterpretation durchgeführt wird (diese Begriffe können auch synonym verwendet werden). Adaptiv ist das System durch die Aktualisierung von Daten bzw. die Klassifikation bei erneutem Vorbeifahren an einer Szenerie.
  • Als bildgebende Verfahren bezeichnet man aparative Verfahren mit denen physikalische Phänomene visualisiert werden. Im einfachsten Fall wird über eine Videokamera direkt ein Bild aufgenommen, welches ausgewertet werden kann. Unter Zuhilfenahme physikalischer Gegebenheiten können auch andere Sensoren, wie Infrarotkameras, Radar-, Ultraschall-, Lidargeräte oder Laserscanner eine Information liefern, die mittels eines Bildes visualisiert werden kann. Allen bildgebenden Verfahren ist gemeinsam, dass Messungen eines von einem Objekt ausgehenden physikalischen Effekts in ein Bild umgewandelt wird.
  • Im Allgemeinen erlaubt die Umfeldsensorik, wie Radar, Ultraschall, Laserscannern oder Video nur eine eingeschränkte Abbildung der Eigenschaften von Umfeldobjekten in das technische System. Damit Fahrerassistenzfunktionen, die für sie wichtige Objekte mittels Umfeldsensorik dennoch erkennen, werden auf den abgebildeten Eigenschaften Hypothesen erstellt, die den Rückschluss auf ein Objekt ermöglichen. Die für eine Objekthypothese relevanten und abgebildeten Eigenschaften können auch als ”Merkmale” bezeichnet werden. Da Merkmale z. B. aus der Form, Größe, Farbe, Oberflächenbeschaffenheit, Reflexions- und Materialeigenschaften oder lediglich dem Wissen über vorhandene Kanten und Ecken eines Objektes bestehen, muss für eine Fahrerassistenzfunktion nicht zwingendermaßen das komplette Wissen über ein ”Objekt” in das adaptive Umfeldmodell eingetragen werden. Es reicht für viele Funktionen auch aus, vereinzelte, aber relevante Merkmale zu speichern. Damit ergeben sich auch bsp. positive Auswirkungen auf den benötigten Speicherbedarf.
  • Figurenbeschreibung
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.
  • Es zeigen,
  • 1 ein Blockschaltbild des erfindungsgemäßen Systems,
  • 2 den Signalfluss eines erfindungsgemäßen Systems,
  • 3 die Erstellung eines adaptiven Umfeldmodells während einer Erstfahrt,
  • 4 die Adaption des Umfeldmodells auf einer Rückfahrt,
  • 5 die schnelle Erkennung von dynamischen Objekten in einem bekannten Umfeld,
  • 6 die Prädiktion eines Streckenabschnitts bei gestörter Sensorik,
  • 7 die Lösung einer Triangulationsproblematik.
  • In 1 ist ein Blockschaltbild mit den beteiligten Komponenten des Systems dargestellt wobei wenigstens ein Sensor 11, beispielsweise ein Lidarsensor mit optional weiteren Sensoren 12, beispielsweise Radar oder Videosensoren deren Signale einer Basissignalverarbeitung 13 zugeführt werden, deren Ergebnisse von beliebigen Systemen im Fahrzeug verarbeitet werden, insbesondere aber auch vom erfindungsgemäß beschriebenen adaptiven Umfeldmodell 14. Dieses verbindet die Daten mit den Daten eines Positionsgebers 15, beispielsweise einem GPS Signal. Weiterhin wird optional eine Sensordatenfusion durchgeführt, wobei die Daten aus dem erfindungsgemäßen System 14 mit den Daten von fremden Systemen zusammengeführt werden, um dadurch insbesondere Objekte zu erkennen und zu klassifizieren. Die Ergebnisse, d. h. die Daten bzw. auch Klassifikationsergebnisse des adaptiven Umfeldmodells 14 und der gegebenenfalls über einer optionalen Datenfusion bereitgestellten Ergebnisse externe Systeme gelangen in eine Szeneninterpretation 17, die das aktuelle Umfeld beschreibt und es ermöglicht, gegebenenfalls eine Funktionsauslösung 18 durchzuführen. Dies kann verschiedenste Dinge beinhalten, angefangen von der einfachen Warnung eines Fahrers in beliebiger Weise über die Meldung an andere Fahrerassistentsysteme von einer bevorstehenden Gefahrensituation, bis zur direkt in Auftraggabe einer Funktionsauslösung, beispielsweise eines Bremsvorgangs. Beispielsweise können auch Airbagsysteme ihre Auslöseschwellen abhängig von der interpretierten Szene anpassen. Die Sensoren am Fahrzeug 11, 12 liefern eine eingeschränkte Abbildung der Umfeld, da die Abbildung Fehleranfälle gegenüber Umfeldeinflüssen ist.
  • Alternativ kann zusätzlich eine Rückkopplung der Szeneninterpretation 17 zum adaptiven Umfeldmodell 14 realisiert werden (gestrichelte Linie), hierbei werden Ergebnisse der Szeneninterpretation zur Verbesserung der Vorhersagegenauigkeit des adaptiven Umfeldmodells berücksichtigt.
  • In 2 wird der Signalfluss des erfindungsgemäßen Verfahrens beschrieben, bei dem wenigstens ein Sensor 21 Daten bereitstellt, aus dem Merkmale extrahiert werden 22 und zusammen mit den Positionsdaten 23 in einem Speicher 24 abgelegt werden. Bei den Merkmalen handelt es sich beispielsweise um erkannte Objekte, seien es dynamische oder statische, können aber auch Teilinformationen dieser Objekte, wie Flächeninformationen, Texturen, Konturen, Kanten oder Ecken berücksichtigen. Dieses aktuelle Informationspaar wird gleichzeitig genutzt, um eine Hypothese 25 unter Zuhilfenahmen von früheren Informationen aus dem Speicher 24 zu bilden. Diese Hypothesen ergeben dann das adaptive Umfeldmodell 26 aus welchem eine Szeneninterpretation 27 abgeleitet werden kann, optional unter Zuhilfenahme externer Daten 29 und einer eventuellen Funktionsauslösung 28, wie bereits in 1 beschrieben.
  • In einem erweiterten Signalfluss werden ergänzend Informationen des adaptiven Umfeldmodells 26 in den Speicher 24 ablegt (gestrichelte Linie).
  • In den nun folgenden 3 bis 7 beschreibt der Figurteil A ein reales Bild der Umfeldsituation in der sich das Fahrzeug befindet, in Figurteil B das adaptive Umfeldmodell, das mittels des erfindungsgemäßen Verfahrens entsteht.
  • Das Szenario in 3 besteht aus einem Fahrzeug, welches ein erfindungsgemäßes System besitzt, zwei Bäumen B1 und B2, zwei Verkehrszeichnen S1 und S2, zwei Gebäuden H1 und H2, sowie einem Fußgänger F1. Durchfährt das Fahrzeug FZG das Szenario so können mit einer gewissen Verlässlichkeit Hypothesen zu statischen Objekten getroffen werden, die in der Karte des adaptiven Umfeldmodells hinterlegt werden. Im Figurteil B ist diese Karte dargestellt, wobei die Verlässlichkeit einer Hypothese über die Stärke des Grauwertes angegeben ist. Bei häufigerem Auftreten eines Objekts insbesondere über mehrmaliges Vorbeifahren wird die Wahrscheinlichkeit für die Klassifikation eines statischen Objekts immer höher und der Grauwert somit immer dunkler. Bei einmaligem Vorbeifahren wie hier in 3 kann durch das Auswerten mehrerer Bilder bereits eine Klassifikation durchgeführt werden und beispielsweise sehr dynamische Objekte wie entgegenkommende Fahrzeuge sogar schon klassifiziert werden. Weiterhin können auch sehr lange sichtbare statische Objekte, wie beispielsweise das Gebäude H1 bereits relativ sicher als statisch klassifiziert werden. Kritisch ist insbesondere ein Objekt wie der Fußgänger F1, der, wenn er sich nicht bewegt, als statisches Objekt fehlklassifiziert werden könnte. Weiterhin werden verdeckte Ziele, wie beispielsweise das Verkehrszeichen S2, welches im Gegensatz zum Verkehrszeichen S1 während der Vorbeifahrt meist durch das Gebäude H1 verdeckt ist, mit nur einer geringen Genauigkeit erkannt, was durch den Grauwert entsprechend dargestellt ist.
  • Insbesondere in 4 zeigt sich nun der erfindungsgemäße Vorteil, bei dem durch mehrfache Sensierung einer häufig gefahrenen Strecke, auch von verschiedenen Richtungen (z. B. auf dem Rückweg von der Arbeit) eine genauere Klassifikation möglich wird. In dieser Figur findet das Fahrzeug FZG das selbe statische Szenario vor, wodurch eine weitere Stabilisierung der Hypothesen des adaptiven Umfeldmodells erfolgen kann. Wie der Figur zu entnehmen ist, kann der zuvor in 3 als unsicheres statisches Objekt erkannte Fußgänger F1 nun richtig als dynamisches Objekt klassifiziert werden, da dieser nicht mehr detektiert werden kann, da er verschwunden ist. Somit kann die Wahrscheinlichkeit für dessen Hypothese als statisches Objekt in der digitalen Karte des adaptiven Umfeldmodells reduziert und prinzipiell gelöscht werden. Alternativ kann das Wissen über klassifizierte dynamische Objekte für die Erstellung von Bewegungsprofilen eingesetzt werden. Gleichzeitig können statische Objekte, die durch die einmalige Sensierung auf Grund der vorher beschriebenen Verdeckung nicht eindeutig als statisch klassifiziert werden konnten, nun genauer zugeordnet werden, was sich in der 4B als dunklerer Grauwert des Verkehrszeichens S2 dargestellt ist. Hierbei kommt förderlicherweise dazu, dass die Betrachtung aus einer anderen Perspektive (Rückweg) stattfinden kann.
  • In 5 ist das Fahrzeug FZG mit Fußgängern F1 bis F3 konfrontiert, welches sich plötzlich in einem – bereits bekannten – Umfeld befinden, bzw. auftauchen. Dadurch, dass das Umfeldmodell durch mehrmalige Vorbeifahrt bereits gefestigt ist (siehe Tiefe der Grauwerte), genügt eine siginifikante Abweichung der aktuellen Sensorinformation vom adaptierten Umfeldmodell (hier der Fußgänger), um mit einer hohen Sicherheit sagen zu können, dass es sich um ein dynamisches Objekt handelt. Somit kann eine sehr schnelle Reaktion erfolgen. So kann beispielsweise ein Bremsmanöver eingeleitet werden, wenn sich Fußgänger auf der Fahrbahn befinden, eine Baustelle neu eingerichtet wurde, das Ende eines Staus erreicht wird oder parkende Autos die Weiterfahrt behindern. Gleiches gilt für Warnungen bzw. Ausweichmanöver oder sonstige Reaktionen.
  • In 6 ist ein gestrichelt umrandeter Bereich dargestellt, in dem das Fahrzeug FZG auf Grund von beispielsweise Witterungseinflüssen kein Signal, bzw. keine geeignete Abbildung erhält, um Objekte wahrnehmen zu können. Bei derartigen Gegebenheiten steht daher für einen bestimmten Straßenzug kein verlässliches und aktuelles Bild zur Verfügung. Die in früheren Vorbeifahrten wahrgenommenen statischen Landmarken, Objekte und Merkmale, die im adaptiven Umfeldmodell hinterlegt sind, ermöglichen eine Prädiktion des befahrbaren Bereichs bzw. eines Fahrschlauches auch in dem Teil des uneinsichtigen Straßenverlaufs. Dadurch kann die Vorausschauungsweite im Vergleich zu den heutigen Systemen durch das Vorwissen aus bereits abgefahrenen Strecken entscheidend erhöht werden.
  • In 7 ist im Figurteil A eine Situation gezeigt, die bei heutigen Umfeldsensoren zur Abbildungsfehlern führen können und nur schwer beherrschbar sind. Es ist eine fehlerhafte Abbildung E auf Grund der Triangulation mit einer Stereo-Videosensorik dargestellt, die Aufgrund der Konstellation der Objekte H1 und H2 ein Scheinobjekt erzeugt. Durch Plausibilisierung der erhaltenen Sensorinformation mittels des adaptiven Umfeldmodells lässt sich darauf schließen, dass das ermittelte Objekt E ein Abbildungsfehler darstellt und somit keine Fehleintragung eines neuen Objekts in das adaptive Umfeldmodell erfolgt bzw. eine Fehlklassifikation stattfindet.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 102006058304 A1 [0002]
    • - DE 10335601 A1 [0003]

Claims (10)

  1. Verfahren zur Umfelderkennung – für ein sich bewegendes System – wobei wenigstens ein an das sich bewegende System gebundener Sensor zum Einsatz kommt, – bei dem mittels eines bildgebenden Verfahrens – wenigstens ein Objekt oder Merkmal im Umfeld des Systems erkannt wird – zu einem ersten Zeitpunkt – wobei Daten des wenigstens eines dieser Objekte oder Merkmale in einem Speicher abgelegt werden, dadurch gekennzeichnet, dass – nach einer weiteren möglichen Sichtung dieses wenigstens einen Objekts oder Merkmals – zu einem mindestens zweiten Zeitpunkt – eine Klassifikation dieses wenigstens einen Objekts oder Merkmals stattfindet – mithilfe eines Vergleichs der im Speicher abgelegten Daten.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass – das wenigstens eine Objekt oder Merkmal in einer digitale Karte eingetragen wird.
  3. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – die zu vergleichenden Daten von den mindestens zwei Zeitpunkten, vom dem wenigstens einen selben Sensor stammt und/oder aus Sensordaten des selben wenigstens einen Sensors errechnet wurden.
  4. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – zu einer genaueren Klassifikation zusätzlich Informationen von anderen Quellen herangezogen werden können
  5. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – nur die Daten der Objekte oder Merkmale gespeichert werden, die besonders häufig gesichtet werden und/oder – an deren üblichem Standort das System besonders häufig vorbei kommt und/oder – die durch die nachgelagerte Szeneninterpretation als besonders relevant für eine darzustellende Fahraufgabe, wie z. B. das autonome Fahren, eingestuft werden.
  6. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – die wenigstens eine Klassifikation mit einer Wahrscheinlichkeit oder Verlässlichkeit für die richtige Klassifikation verbunden wird und/oder – die Wahrscheinlichkeit und Verlässlichkeit in Form eines iterativen Verfahrens über die Zeit angepasst werden.
  7. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – die Daten und/oder die Klassifikation und/oder daraus resultierende Reaktionskommandos anderen Systemen zugetragen werden und/oder – gespeichert werden und/oder – für die Erstellung von Bewegungsprofilen klassifizierter, dynamischer Objekte herangezogen werden.
  8. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass – bei einer Unmöglichkeit der Erkennung von Objekten oder Merkmalen zum zweiten Zeitpunkt auf die gespeicherten Daten und/oder Klassifikation zurückgegriffen wird.
  9. Vorrichtung zur Umfelderkennung – für ein sich bewegendes System, – mit wenigstens einem dem System zugehörigen Sensor, – geeignet zur Durchführung eines bildgebenden Verfahrens – zur Erkennung von wenigstens einem Objekt oder Merkmal im Umfeld – mit einem Speicher dadurch gekennzeichnet, dass – eine Einheit zur Klassifikation derart ausgeprägt ist, – die Daten von verschiedenen Zeitpunkten aus dem Speicher zu vergleichen
  10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass – Schnittstellen vorgesehen sind, die in das System weitere Daten zur Klassifikation importieren, – und/oder Daten und/oder Klassifikation und/oder daraus resultierende Reaktionskommandos an andere Systeme exportieren.
DE102008041679A 2008-08-29 2008-08-29 Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung Withdrawn DE102008041679A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008041679A DE102008041679A1 (de) 2008-08-29 2008-08-29 Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008041679A DE102008041679A1 (de) 2008-08-29 2008-08-29 Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung

Publications (1)

Publication Number Publication Date
DE102008041679A1 true DE102008041679A1 (de) 2010-03-04

Family

ID=41605875

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008041679A Withdrawn DE102008041679A1 (de) 2008-08-29 2008-08-29 Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung

Country Status (1)

Country Link
DE (1) DE102008041679A1 (de)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010040650A1 (de) 2010-09-13 2012-03-15 Robert Bosch Gmbh Vorrichtung und Verfahren zur Einstellung der Beleuchtung eines Fahrzeugs bei uneinsichtigen Kurven
DE102011082477A1 (de) 2011-09-12 2013-03-14 Robert Bosch Gmbh Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102011121487A1 (de) 2011-12-16 2013-06-20 Audi Ag Vorrichtung und Verfahren zum Betreiben zumindest eines Fahrerassistenzsystems eines Kraftwagens
DE102012004396A1 (de) 2012-03-03 2013-09-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs
DE102012215533A1 (de) * 2012-08-31 2014-03-06 Siemens Aktiengesellschaft Positionsbestimmung eines Schienenfahrzeugs
US20140376777A1 (en) * 2012-02-10 2014-12-25 Isis Innovation Limited Method Of Locating A Sensor And Related Apparatus
WO2015009217A1 (en) * 2013-07-18 2015-01-22 Scania Cv Ab Management of sensor detection in a driver assistance system of a vehicle
DE102011083378B4 (de) * 2011-09-26 2015-07-16 Robert Bosch Gmbh Vorrichtung und Verfahren zum Überprüfen von Streckendaten
DE102015212581A1 (de) 2015-07-06 2017-01-12 Robert Bosch Gmbh Verfahren zur Fahrerassistenz und Fahrerassistenzsystem
US9945950B2 (en) 2012-04-02 2018-04-17 Oxford University Innovation Limited Method for localizing a vehicle equipped with two lidar systems
DE102018118215A1 (de) * 2018-07-27 2020-01-30 Man Truck & Bus Se Verfahren zur Aktualisierung einer Umgebungskarte, Vorrichtung für die fahrzeugseitige Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug, Vorrichtung für die zentralrechnerseitige Durchführung von Verfahrensschritten des Verfahrens sowie computerlesbares Speichermedium
DE102018133457A1 (de) * 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und System zum Bereitstellen von Umgebungsdaten
US20200391767A1 (en) * 2018-03-30 2020-12-17 Komatsu Ltd. Work machine control system, work machine, and work machine control method
DE102022206175A1 (de) 2022-06-21 2023-12-21 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Suche eines Parkplatzes
DE102012023498B4 (de) 2012-12-03 2024-10-10 Continental Autonomous Mobility Germany GmbH Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung
DE102023108655A1 (de) * 2023-04-04 2024-10-10 Bayerische Motoren Werke Aktiengesellschaft Abbilden eines vorbestimmten geografischen Gebiets
DE102023210178A1 (de) 2023-10-18 2025-04-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Bereitstellen von Kartendaten für einen Betrieb eines automatisierten und/oder assistierenden Systems

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335601A1 (de) 2003-08-04 2005-03-03 Robert Bosch Gmbh Verfahren zur Objektklassifizierung unter Verwendung einer 3D-Modelldatenbank
DE102006058304A1 (de) 2006-12-11 2008-06-12 Robert Bosch Gmbh Verfahren zum ortsbasierten Verarbeiten von Daten

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335601A1 (de) 2003-08-04 2005-03-03 Robert Bosch Gmbh Verfahren zur Objektklassifizierung unter Verwendung einer 3D-Modelldatenbank
DE102006058304A1 (de) 2006-12-11 2008-06-12 Robert Bosch Gmbh Verfahren zum ortsbasierten Verarbeiten von Daten

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010040650A1 (de) 2010-09-13 2012-03-15 Robert Bosch Gmbh Vorrichtung und Verfahren zur Einstellung der Beleuchtung eines Fahrzeugs bei uneinsichtigen Kurven
WO2012034848A1 (de) 2010-09-13 2012-03-22 Robert Bosch Gmbh Vorrichtung und verfahren zur einstellung der beleuchtung eines fahrzeugs bei uneinsichtigen kurven
CN103097196A (zh) * 2010-09-13 2013-05-08 罗伯特·博世有限公司 用于在不清晰的弯道中调整车辆的照明的装置和方法
CN103097196B (zh) * 2010-09-13 2018-06-12 罗伯特·博世有限公司 用于在不清晰的弯道中调整车辆的照明的装置和方法
US9227553B2 (en) 2010-09-13 2016-01-05 Robert Bosch Gmbh Device and method for adjusting the lighting of a vehicle in blind curves
DE102011082477A1 (de) 2011-09-12 2013-03-14 Robert Bosch Gmbh Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
EP2579228A1 (de) 2011-09-12 2013-04-10 Robert Bosch GmbH Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102011083378B4 (de) * 2011-09-26 2015-07-16 Robert Bosch Gmbh Vorrichtung und Verfahren zum Überprüfen von Streckendaten
DE102011121487B4 (de) * 2011-12-16 2016-03-03 Audi Ag Vorrichtung und Verfahren zum Betreiben zumindest eines Fahrerassistenzsystems eines Kraftwagens
DE102011121487A1 (de) 2011-12-16 2013-06-20 Audi Ag Vorrichtung und Verfahren zum Betreiben zumindest eines Fahrerassistenzsystems eines Kraftwagens
US20140376777A1 (en) * 2012-02-10 2014-12-25 Isis Innovation Limited Method Of Locating A Sensor And Related Apparatus
US20170098128A1 (en) * 2012-02-10 2017-04-06 Oxford University Innovation Limited Method of locating a sensor and related apparatus
US9576206B2 (en) * 2012-02-10 2017-02-21 Oxford University Innovation Limited Method of locating a sensor and related apparatus
WO2013131592A1 (de) 2012-03-03 2013-09-12 Volkswagen Aktiengesellschaft Verfahren und vorrichtung zum erfassen von objekten in einer umgebung eines fahrzeugs
DE102012004396A1 (de) 2012-03-03 2013-09-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs
US9488725B2 (en) 2012-03-03 2016-11-08 Volkswagen Aktiengesellschaft Method and device for detecting objects in the surroundings of a vehicle
US9945950B2 (en) 2012-04-02 2018-04-17 Oxford University Innovation Limited Method for localizing a vehicle equipped with two lidar systems
DE102012215533A1 (de) * 2012-08-31 2014-03-06 Siemens Aktiengesellschaft Positionsbestimmung eines Schienenfahrzeugs
DE102012023498B4 (de) 2012-12-03 2024-10-10 Continental Autonomous Mobility Germany GmbH Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung
WO2015009217A1 (en) * 2013-07-18 2015-01-22 Scania Cv Ab Management of sensor detection in a driver assistance system of a vehicle
DE102015212581A1 (de) 2015-07-06 2017-01-12 Robert Bosch Gmbh Verfahren zur Fahrerassistenz und Fahrerassistenzsystem
US20200391767A1 (en) * 2018-03-30 2020-12-17 Komatsu Ltd. Work machine control system, work machine, and work machine control method
US11745767B2 (en) * 2018-03-30 2023-09-05 Komatsu Ltd. Work machine control system, work machine, and work machine control method
DE102018118215B4 (de) * 2018-07-27 2020-04-16 Man Truck & Bus Se Verfahren zur Aktualisierung einer Umgebungskarte, Vorrichtung für die fahrzeugseitige Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug, Vorrichtung für die zentralrechnerseitige Durchführung von Verfahrensschritten des Verfahrens sowie computerlesbares Speichermedium
US11940291B2 (en) 2018-07-27 2024-03-26 Volkswagen Aktiengesellschaft Method for updating a map of the surrounding area, device for executing method steps of said method on the vehicle, vehicle, device for executing method steps of the method on a central computer, and computer-readable storage medium
DE102018118215A1 (de) * 2018-07-27 2020-01-30 Man Truck & Bus Se Verfahren zur Aktualisierung einer Umgebungskarte, Vorrichtung für die fahrzeugseitige Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug, Vorrichtung für die zentralrechnerseitige Durchführung von Verfahrensschritten des Verfahrens sowie computerlesbares Speichermedium
DE102018133457B4 (de) 2018-12-21 2020-07-09 Volkswagen Aktiengesellschaft Verfahren und System zum Bereitstellen von Umgebungsdaten
DE102018133457A1 (de) * 2018-12-21 2020-06-25 Volkswagen Aktiengesellschaft Verfahren und System zum Bereitstellen von Umgebungsdaten
US12002353B2 (en) 2018-12-21 2024-06-04 Volkswagen Aktiengesellschaft Method and system for providing environmental data
DE102022206175A1 (de) 2022-06-21 2023-12-21 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Suche eines Parkplatzes
DE102023108655A1 (de) * 2023-04-04 2024-10-10 Bayerische Motoren Werke Aktiengesellschaft Abbilden eines vorbestimmten geografischen Gebiets
DE102023210178A1 (de) 2023-10-18 2025-04-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und System zum Bereitstellen von Kartendaten für einen Betrieb eines automatisierten und/oder assistierenden Systems

Similar Documents

Publication Publication Date Title
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102017203838B4 (de) Verfahren und System zur Umfelderfassung
DE102017206847B4 (de) Verfahren zum automatischen Erstellen und Aktualisieren eines Datensatzes für ein autonomes Fahrzeug
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
EP3584663A1 (de) Verfahren zur automatischen querführung eines folgefahrzeugs in einem fahrzeug-platoon
DE102016213817B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE102016203723A1 (de) Verfahren und System zum Bestimmen der Pose eines Fahrzeugs
WO2015197353A2 (de) Verfahren zur erstellung eines umfeldmodells eines fahrzeugs
EP2583263A1 (de) Verfahren zur fusion eines verkehrszeichenerkennungssystems und eines spurerkennungssystems eines kraftfahrzeugs
DE102012024873A1 (de) Verfahren und Steuervorrichtung zum Bereitstellen eines vorausliegenden Straßenverlaufs
DE102016213782A1 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102016208025A1 (de) Verfahren zur Erfassung von Verkehrszeichen
WO2018188846A1 (de) Fahrerassistenzsystem für ein fahrzeug
DE102017209347A1 (de) Verfahren und Vorrichtung zum Steuern eines Fahrzeugs
DE102015005987B4 (de) Verfahren zum Betrieb eines Radarsensors in einem Kraftfahrzeug, Radarsensor und Kraftfahrzeug
DE102010049214A1 (de) Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
EP3911555A1 (de) Verfahren zum trainieren einer trajektorie für ein fahrzeug, sowie elektronisches fahrzeugführungssystem
DE102017004721A1 (de) Verfahren zur Lokalisierung eines Fahrzeugs
EP3440432A1 (de) Verfahren zur bestimmung einer pose eines wenigstens teilautomatisiert fahrenden fahrzeugs mittels speziell ausgewählter und von einem backend-server übertragener landmarken
DE102016212786A1 (de) Fahrerassistenzsystem für ein Ego-Fahrzeug auf einem Weg eines Wegenetzes und Verfahren zum Betreiben des Fahrerassistenzsystems
DE102019216732A1 (de) Verfahren sowie System zum Plausibilisieren von Kartendaten
DE102019102922A1 (de) Verfahren und Vorrichtung zur Multi-Sensor-Datenfusion für automatisierte und autonome Fahrzeuge
WO2017198358A1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs
DE102023120364B3 (de) Verfahren zum kartenbasierten Lokalisieren von einem Fahrzeug aus, sowie Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20110408

R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee