[go: up one dir, main page]

DE102019101127A1 - Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten - Google Patents

Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten Download PDF

Info

Publication number
DE102019101127A1
DE102019101127A1 DE102019101127.2A DE102019101127A DE102019101127A1 DE 102019101127 A1 DE102019101127 A1 DE 102019101127A1 DE 102019101127 A DE102019101127 A DE 102019101127A DE 102019101127 A1 DE102019101127 A1 DE 102019101127A1
Authority
DE
Germany
Prior art keywords
neural network
artificial neural
point cloud
ultrasound
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019101127.2A
Other languages
English (en)
Inventor
Maximilian Poepperl
Stefan Milz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102019101127.2A priority Critical patent/DE102019101127A1/de
Publication of DE102019101127A1 publication Critical patent/DE102019101127A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten, mit folgenden Verfahrensschritten:- Aussenden eines jeweiligen Ultraschallsignals mittels einer Mehrzahl von in einem Fahrzeug (1) angeordneter Ultraschallsensoren (21 bis 26),- Empfangen von reflektierten Ultraschallsignalen mittels der Ultraschallsensoren (21 bis 26) und- Eingeben von auf den empfangenen reflektierten Ultraschallsignalen basierenden Signalen in ein künstliches neuronales Netzwerk (6), gekennzeichnet durch den Verfahrensschritt:- Ausgeben einer 3D-Punktwolke und/oder einer Tiefenkarte durch das künstliche neuronale Netzwerk (6).Auf diese Weise wird eine Möglichkeit bereitgestellt, mittels Ultraschall erhaltene Daten für ein Fahrzeug (1) effektiver nutzen zu können.

Description

  • Die Erfindung betrifft ein Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten, mit folgenden Verfahrensschritten:
    • - Aussenden eines jeweiligen Ultraschallsignals mittels einer Mehrzahl von in einem Fahrzeug angeordneter Ultraschallsensoren,
    • - Empfangen von reflektierten Ultraschallsignalen mittels der Ultraschallsensoren und
    • - Eingeben von auf den empfangenen reflektierten Ultraschallsignalen basierenden Signalen in ein künstliches neuronales Netzwerk.
  • Insbesondere im Automotive-Bereich werden entsprechende Ultraschall-Systeme zur Abstandsschätzung verwendet, z.B. im Rahmen von Einparkhilfesystemen. Für die Auswertung bei derartigen Ultraschall-Systemen wird das Echo eines Sensors von einem bestimmten Objekt analysiert. Ein Echo eines Objektes wird meist über den Vergleich der Empfangsamplitude des Echos mit einem Schwellwert detektiert.
  • Die Erstellung von Karten zur Darstellung der mittels Ultraschall detektierten Ergebnisse ist heutzutage im Automotive-Bereich vorwiegend das Ziel aller Verarbeitungsschritte. Zu dieser Verarbeitung zählen, neben der klassischen Zieldetektion und Mustererkennung in einzelnen Sensoren, auch Algorithmen, die die Anordnung mehrerer Sensoren gezielt ausnutzen. Dabei werden meist Verfahren wie Triangulation oder Trilateration genutzt.
  • Bereits die Zieldetektion besteht heutzutage aus komplexen Algorithmen, die über die Anwendung von Schwellwerten hinausgehen und z.B. Tracking-Verfahren nutzen. Erkannte Echos werden detailliert analysiert, um Eigenschaften wie die Höhe oder Beschaffenheit eines detektierten Objektes zu ermitteln. Bei der Verwendung mehrerer Sensoren müssen die erkannten Echos den einzelnen detektierten Objekten zugeordnet werden. Anschließend wird die Position der einzelnen Objekte bestimmt.
  • Daraus ergeben sich verschiedene Nachteile:
    • Als Basis für alle weiteren Verarbeitungsschritte dient die Echoerkennung. Fehler in der Echodetektion beeinflussen alle weiteren Schritte und können die Funktionsfähigkeit des Systems insgesamt stark einschränken. Darüber hinaus werden bei herkömmlichen Verfahren nur einzelne Objekte herausgegriffen, wodurch lediglich bestimmte Bereiche einer Karte ausgefüllt werden können. Vollständige Informationen der Umgebungen werden somit bisher nicht bereitgestellt.
  • Die einzelnen Objekte müssen zusätzlich mit aufwändigen Verarbeitungsschritten analysiert werden, was nicht nur zu hohem Rechenaufwand führt, sondern bei Fehlklassifikationen auch die Positionsbestimmung negativ beeinflussen. Für die Fusion der Ultraschalldaten mit Daten von anderen Sensoren, wie Radarsensoren oder Kameras, ist neben der hohen Fehleranfälligkeit auch die geringe Informationsdichte der ermittelten Karten problematisch.
  • Die DE 10 2017 006 599 A1 beschreibt ein Verfahren zum Betrieb eines zumindest teilautomatisiert fahrenden Fahrzeugs, wobei zumindest drei künstliche neuronale Netzwerke in disjunkten Trainingsfahrten des Fahrzeugs unabhängig voneinander jeweils mittels eines Ende-zu-Ende-Ansatzes anhand von während der Trainingsfahrten aufgezeichneten Trainings-Aktordaten einer Fahrzeugaktorik und anhand von mit den Trainings-Aktordaten korrelierten Trainings- Sensordaten einer Fahrzeugsensorik trainiert werden und im zumindest teilautomatisierten Betrieb des Fahrzeugs Ist-Sensordaten als Eingangsdaten der neuronalen Netzwerke erfasst werden, den Ist-Sensordaten anhand eines Vergleichs mit den Trainings-Sensordaten Trainings-Aktordaten als Ausgangsdaten der neuronalen Netzwerke zugeordnet werden, die Trainings-Aktordaten aller neuronalen Netzwerke einem Fusionsmodul zugeführt werden, das Fusionsmodul die Trainings-Aktordaten aller neuronalen Netzwerke nach einer vorgegebenen Regel fusioniert und anhand eines Ergebnisses der Fusion Ist-Aktordaten ermittelt, wobei eine Quer- und/ oder Längssteuerung des Fahrzeugs anhand einer Ansteuerung der Fahrzeugaktorik mit den ermittelten Ist-Aktordaten zumindest teilautomatisiert durchgeführt wird.
  • Gemäß der DE 10 2017 101 106 A1 wird ein Maschinenlernmodell durch Definieren eines Szenarios trainiert, das Modelle von Fahrzeugen und einer typischen Fahrumgebung umfasst. Zu dem Szenario wird ein Modell eines betreffenden Fahrzeugs hinzugefügt und es werden Sensororte an dem betreffenden Fahrzeug definiert. Es wird eine Wahrnehmung des Szenarios durch Sensoren an den Sensororten simuliert. Das Szenario umfasst ferner ein Modell eines lane-splitting ausführenden Fahrzeugs. Der Ort des lane-splitting ausführenden Fahrzeugs und die simulierten Ausgaben der das Szenario wahrnehmenden Sensoren werden in einen Maschinenlernalgorithmus eingegeben, der ein Modell trainiert, den Ort eines lane-splitting ausführenden Fahrzeugs auf der Basis der Sensorausgaben zu erfassen. Eine Fahrzeugsteuerung enthält dann das Maschinenlernmodell und schätzt die Anwesenheit und/oder den Ort eines lane-splitting ausführenden Fahrzeugs auf der Basis tatsächlicher Sensorausgaben, die in das Maschinenlernmodell eingegeben werden. Die US 2012/0293356 A1 beschreibt, dass bei einem Verfahren zum Erkennen von Objekten mindestens ein Sensor einen Sendeimpuls als Welle aussendet, insbesondere als akustische oder elektromagnetische Welle, wobei die Welle von Objekten im Ausbreitungsraum zumindest teilweise reflektiert wird und die reflektierte Welle von einem Empfänger als Empfangssignal wieder erfasst wird. Das empfangene Signal der reflektierten Welle wird in Segmente aufgeteilt, und aus den einzelnen Segmenten werden Daten gesammelt, die zur Bestimmung einer Objekthypothese herangezogen werden.
  • Es ist die Aufgabe der Erfindung, eine Möglichkeit anzugeben, mittels Ultraschall erhaltene Daten für ein Fahrzeug effektiver nutzen zu können.
  • Diese Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Bevorzugte Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.
  • Erfindungsgemäß ist somit ein Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten mit folgenden Verfahrensschritten vorgesehen:
    • - Aussenden eines jeweiligen Ultraschallsignals mittels einer Mehrzahl von in einem Fahrzeug angeordneter Ultraschallsensoren,
    • - Empfangen von reflektierten Ultraschallsignalen mittels der Ultraschallsensoren,
    • - Eingeben von auf den empfangenen reflektierten Ultraschallsignalen basierenden Signalen in ein künstliches neuronales Netzwerk und
    • - Ausgeben einer 3D-Punktwolke und/oder einer Tiefenkarte durch das künstliche neuronale Netzwerk.
  • Es ist somit ein wesentlicher Aspekt der Erfindung, dass - anders als im Stand der Technik - nicht die erkannten Echos den einzelnen detektierten Objekten zugeordnet werden, um anschließend deren Position zu bestimmen. Vielmehr wird von dem künstlichen neuronalen Netzwerk direkt ein 3D-Punktwolke bzw. eine Tiefenkarte ausgebeben, wobei die 3D-Punktwolke bzw. die Tiefenkarte die von den Ultraschallsensoren abgetastete Umgebung des Fahrzeugs wiedergeben. Es wird also ein dreidimensionale Karte der abgetasteten Umgebung des Fahrzeugs erstellt, die - in Rasterform - ein dreidimensionales Abbild dieser Umgebung wiedergibt. Damit kann vermieden werden, dass Fehler in der Echodetektion die herkömmlicherweise erforderlichen weiteren Schritte bei der Verarbeitung der Signale beeinflussen, so dass auch die Funktionsfähigkeit des Systems insgesamt sichergestellt werden kann. Anders als bei den herkömmlichen Verfahren werden auch nicht nur einzelne Objekte herausgegriffen, so dass grundsätzlich alle Bereiche der erstellten Karte ausgefüllt werden können. Auf diese Weise können vollständige Informationen der Umgebungen bereitgestellt werden.
  • Grundsätzlich können die reflektierten Ultraschallsignale in unterschiedlichen Formen bereitgestellt und weiterverarbeitet werden. Gemäß einer bevorzugten Weiterbildung der Erfindung werden die Ultraschallsignale jedoch in Form der Rohdaten oder der Einhüllenden für die Weiterarbeitung bereitgestellt. Wenn die Ultraschallsignale in Form der Rohdaten oder der Einhüllenden für die Weiterverarbeitung verwendet werden, also für die Erstellung der Daten, die dem künstlichen neuronalen Netzwerk zugeführt werden, damit dieses aus diesen Daten die 3D-Punktwolke die Tiefenkarte erstellen kann, so ist dies insofern besonders effektiv, als dass damit unnötige Verarbeitungsschritte vermieden werden und grundsätzlich alle Möglichkeiten der Weiterverarbeitung offen stehen.
  • Die Signale, die dem künstlichen neuronalen Netzwerk zugeführt werden, können grundsätzlich verschiedener Art sein. Gemäß einer bevorzugten Weiterbildung der Erfindung sieht das Verfahren konkret jedoch folgende zusätzliche Schritte vor:
    • - Konvertieren der empfangenen reflektierten Ultraschallsignale in ein Bildformat und
    • - Eingeben der Bildsignale in das künstliche neuronale Netzwerk.
    Die Verwendung von Bildsignalen als Eingangsdaten für künstliche neuronale Netzwerke kann sehr effektiv sein, insbesondere wenn gemäß einer weiteren bevorzugten Ausgestaltung der Erfindung das künstliche neuronale Netzwerk ein Convolutional Neural Network oder ein Mulitlayer Perceptron oder ein Capsule Neural Network ist.
  • Grundsätzlich ist es möglich, dass die Anzahl der Eingangswerte, die dem künstlichen neuronalen Netzwerk zugeführt werden, die Anzahl der Ausgangswerte, die von dem künstlichen neuronalen Netzwerk ausgegeben werden nicht übersteigt. Gemäß einer bevorzugten Weiterbildung der Erfindung gilt jedoch, dass das künstliche neuronale Netzwerk ein generatives Netzwerk ist. Generativ bedeutet dabei, dass das künstliche neuronale Netzwerk mehr Ausgangswerte aufweist als Eingangswerte. Da gerade bei der Nutzung der Einhüllenden nur eine geringe Anzahl an Abtastpunkten vorhanden ist, aber vorzugsweise, nämlich zur Erstellung einer dichten Karte, eine Vielzahl von Reflexionspunkten berechnet werden soll, sind generative Ansätze besonders vorteilhaft. Ganz besonders bevorzugt werden im Übrigen direkt die Rohdaten der reflektierten Ultraschallsignale verwendet, da somit eine höhere Abtastrate bereitgestellt werden kann, womit eine höhere Anzahl von Eingangswerten generiert werden kann.
  • Die Erfindung erfordert grundsätzlich keine Eingabe weiterer Daten in das künstliche neuronale Netzwerk, die über die oben genannten Ultraschalldaten hinausgehen. Gemäß einer bevorzugten Weiterbildung der Erfindung weist das Verfahren jedoch den zusätzlichen Verfahrensschritt auf:
    • - Eingeben von Daten betreffend die Einbauparameter der Ultraschallsensoren in das künstliche neuronale Netzwerk.
    Derartige Einbauparameter können die Einbauhöhe der Ultraschallsensoren, wie die Höhe über dem Boden, auf dem sich das Fahrzeug befindet bzw. bewegt und/oder der Abtastwinkel der Ultraschallsensoren sein, also der Winkel, unter dem die Umgebung des Fahrzeugs von dem jeweiligen Ultraschallsensor erfasst wird. Auf diese Weise kann die Erstellung einer der tatsächlichen Umgebung des Fahrzeugs möglichst nahkommende Tiefenkarte bzw. 3D-Punktwolke innerhalb des künstlichen neuronalen Netzwerks weiter verbessert werden.
  • In entsprechender Weist ist gemäß einer bevorzugten Weiterbildung der Erfindung vorgesehen, dass das Verfahren den zusätzlichen Verfahrensschritt aufweist:
    • - Eingeben von Daten betreffend die Umgebungsbedingungen des Fahrzeugs in das künstliche neuronale Netzwerk.
    Derartige Umgebungsbedingungen sind vorzugsweise die Umgebungstemperatur des Fahrzeugs oder andere Wetterparameter, wie auch der Feuchtegrad der Oberfläche, auf der sich das Fahrzeug befindet. Auch auf diese Weise kann die Erstellung einer der tatsächlichen Umgebung des Fahrzeugs möglichst nahkommende Tiefenkarte bzw. 3D-Punktwolke innerhalb des künstlichen neuronalen Netzwerks weiter verbessert werden.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung weist das Verfahren den zusätzlichen Verfahrensschritt auf:
    • - Eingeben von Daten betreffend den Zustand des Fahrzeugs in das künstliche neuronale Netzwerk.
    Derartige Daten betreffend den Zustand des Fahrzeugs sind vorzugsweise Geschwindigkeitsdaten für das Fahrzeug, aber auch Daten zur Beschleunigung usw. In analoger Weise, wie oben beschrieben, kann damit die Effektivität bei der Erstellung der 3D-Punktwolke bzw. der Tiefenkarte durch das künstliche neuronale Netzwerk verbessert werden.
  • Die Erfindung ermöglicht es grundsätzlich, die 3D-Punktwolke bzw. die Tiefenkarte direkt aus den Rohdaten ohne einen Zwischenschritte bzw. ohne die Zwischenschaltung eines weiteren künstlichen neuronalen Netzwerks zu erstellen. Die Erfindung umfasst jedoch auch eine derartige Ausgestaltung, gemäß derer das künstliche neuronale Netzwerk als gegensätzliches Netzwerk ausgebildet ist. Auf diese Weise kann eine Überprüfung der Ergebnisse des künstlichen neuronalen Netzwerks erzielt werden, vorzugsweise über die Verschachtelung von mehreren Netzwerken. Dabei transformiert ein Netzwerk Daten, im vorliegenden Fall vorzugsweise die Ultraschallrohdaten aller Ultraschallsensoren, in eine Punktewolke. Ein zweites Netzwerk vergleicht die erzeugten Daten mit der zu erwartenden Ground Truth. Der Begriff „Ground Truth“ beschreibt dabei die Lerndaten, also praktisch das Grundwissen um die tatsächlichen Gegebenheiten. Trainiert man nun beide Netzwerke immer wieder nach einander, wird zum einen die Transformation immer realitätsgetreuer und zum anderen wird aber auch die Fähigkeit des zweiten Netzwerks immer besser, künstliche Daten von echten Daten zu unterscheiden.
  • Insofern weist ein Verfahren gemäß einer bevorzugten Weiterbildung der Erfindung folgende Verfahrensschritte auf:
    • - Eingeben der ausgegebenen 3D-Punktwolke bzw. der ausgegebenen Tiefenkarte in ein zweites künstliches neuronales Netzwerk und
    • - Überprüfen der Ground Truth der 3D-Punktwolke bzw. der Tiefenkarte in dem zweiten künstlichen neuronalen Netzwerk.
  • Dieses Verfahren ist vorzugsweise ferner derart ausgestaltet, dass es folgende Schritte aufweist:
    • - Erfassen des von den Ultraschallsensoren einsehbaren Bereichs mit einem Referenzsensor,
    • - Erstellen einer Referenz-3D-Punktwolke bzw. einer Referenz-Tiefenkarte auf der Grundlage des von dem Referenzsensor erfassten Bereichs und
    • - Eingeben der Referenz-3D-Punktwolke bzw. der Referenz-Tiefenkarte in das zweite künstliche neuronale Netzwerk zum Überprüfen der Ground Truth der von dem anderen künstlichen neuronalen Netzwerk erstellten 3D-Punktwolke bzw. Tiefenkarte.
    Als Referenzsensoren kommen insbesondere Sensoren in Betracht, die eine direkte Tiefenabtastung der Umgebung des Fahrzeugs erlauben, also z.B. LIDAR-Sensoren oder Time-of-Flight-Kameras.
  • Diese Verfahren umfassen vorzugsweise ferner den Schritt:
    • - Umwandeln der Referenz-3D-Punktwolke bzw. der Referenz-Tiefenkarte derart, dass deren Punkte den tatsächlichen Reflexionspunkten der von dem anderen künstlichen neuronalen Netzwerk erstellten 3D-Punktwolke bzw. Tiefenkarte entsprechen.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung ist somit wenigstens ein weiteres künstliches neuronales Netzwerk vorgesehen, das Tiefenkarten bzw. 3D-Punktwolken von einem Referenzsensor so umwandelt, dass diese den tatsächlichen Reflexionspunkten des Ultraschallsignals entsprechen. Diese bevorzugte Ausgestaltung rührt daher, dass eine LIDAR-Punktwolke typischerweise deutlich mehr Reflexionspunkte besitzt als über Ultraschall generierbar.
  • Eine weitere bevorzugte Ausgestaltung der Erfindung liegt darin, die Realitätsnähe der künstlich erzeugten Punktwolke nicht selbst zu überprüfen, sondern eine weiteres Netzwerk einzufügen, das Objekte in der Ultraschallpunktwolke erkennt. Dadurch können dann Objektlisten miteinander vergleichen werden, woraus Rückschlüsse gezogen werden können, wie gut die ermittelte 3D-Punktwolke bzw. die Tiefenkarte zur Realität passt.
  • Die Erfindung betrifft auch ein nichtflüchtiges, computerlesbares Speichermedium mit darauf abgespeicherten Befehlen, die bei ihrer Ausführung auf einem Prozessor ein Verfahren, wie zuvor beschrieben, bewirken.
  • Die Erfindung betrifft außerdem eine Sensoranordnung, die zum Betrieb mittels eines Verfahrens, wie zuvor beschrieben, eingerichtet ist. Vorzugsweise weist eine solche Sensoranordnung als Sensoreinheiten Ultraschallsensoreinheiten auf, die zum Senden und/oder Empfangen von Ultraschallsignalen ausgebildet sind.
  • Nachfolgend wird die Erfindung anhand eines bevorzugten Ausführungsbeispiels unter Bezugnahme auf die Zeichnungen weiter im Detail erläutert.
  • In den Zeichnungen zeigen:
    • 1 schematisch ein Fahrzeug, das mit einem System zur Durchführung eines Arbeitsverfahrens nach einem bevorzugten Ausführungsbeispiel ausgerüstet ist,
    • 2 schematisch ein Arbeitsverfahren gemäß einem bevorzugten Ausführungsbeispiel der Erfindung,
    • 3 schematisch ein Fahrzeug, das mit einem System zur Durchführung eines Trainingsverfahrens nach einem bevorzugten Ausführungsbeispiel ausgerüstet ist,
    • 4 schematisch das Fahrzeug aus 3 mit der Verarbeitungseinrichtung im Detail,
    • 5 schematisch ein Trainingsverfahren gemäß einem bevorzugten Ausführungsbeispiel der Erfindung,
    • 6 schematisch ein Fahrzeug, das mit einem System zur Durchführung eines Arbeitsverfahrens nach einem anderen bevorzugten Ausführungsbeispiel ausgerüstet ist, und
    • 7 schematisch ein Arbeitsverfahren gemäß einem bevorzugten Ausführungsbeispiel der Erfindung, das mit dem in 6 dargestellten System durchführbar ist.
  • Aus 1 ist schematisch ein Fahrzeug 1 ersichtlich, das mit einem System zur Durchführung eines Verfahrens nach einem bevorzugten Ausführungsbeispiel ausgerüstet ist. Dieses System umfasst sechs Ultraschallsensoren 21, 22, 23, 24, 25, 26 im Frontbereich des Fahrzeugs 3 sowie eine Verarbeitungseinrichtung 5, die mit einem künstlichen neuronalen Netzwerk 6 ausgerüstet ist. Genauso kann das System alternativ oder zusätzlich Ultraschallsensoren im Heckbereich des Fahrzeugs 1 aufweisen.
  • Die Ultraschallsensoren 21 bis 26 sind zum Senden und zum Empfangen von Ultraschallsignalen eingerichtet, was in 1 mit einer Mehrzahl von Doppelpfeilen angedeutet ist. Auf diese Weise können von den Ultraschallsensoren 21 bis 16 Ultraschallsignale in die Umgebung vor dem Frontbereich 3 des Fahrzeugs 1 ausgesandt werden. Die Anteile dieser Ultraschallsignale, die von Objekten 2, 2', 2", die sich vor dem Frontbereich 3 des Fahrzeugs 1 befinden, in Richtung zu den Ultraschallsensoren 21 bis 16 reflektiert werden, können von diesen wieder empfangen werden.
  • Damit wird folgendes, in 2 schematisch dargestelltes Verfahren ermöglicht:
    • In einem ersten Verfahrensschritt S1 werden von jedem Ultraschallsensor 21 bis 26 Ultraschallsignale in die Umgebung vor dem Frontbereich 3 des Fahrzeugs 1 ausgesandt. An den Objekten 2, 2', 2" reflektierte Anteile dieser Ultraschallsignale werden mittels der Ultraschallsensoren 21 bis 26 in Verfahrensschritt S2 wieder empfangen. Diese Signale sind Ultraschallrohdaten bzw. deren Einhüllende. In dem darauf folgenden Verfahrensschritt S3 werden auf den empfangenen reflektierten Ultraschallsignalen basierende Signale generiert, also Signale, die aus den Ultraschallrohdaten bzw. deren Einhüllender erzeugt werden. Vorliegend sind dies Bilddaten in einem Bilddatenformat, die nachfolgend in Verfahrensschritt S4 in das künstliche neuronale Netzwerk 6 eingegeben werden.
  • Bei dem künstlichen neuronalen Netzwerk 6 handelt es sich vorliegend um ein Convolutional Neural Network, das in besonderem Maße für die Verarbeitung von Bilddaten geeignet ist. In dem künstlichen neuronalen Netzwerk 6 erfolgt schließlich eine derartige Verarbeitung der Bilddaten, dass es letztlich in Verfahrensschritt S5 zur Ausgabe einer 3D-Punktwolke und/oder einer Tiefenkarte durch das künstliche neuronale Netzwerk 6 kommt.
  • Das zuvor beschriebene Verfahren stellt den Arbeitsmodus des Systems dar, also einen Modus, in dem das künstliche neuronale Netzwerk 6 bereits gelernt hat, die aus den Ultraschalldaten generierten Bilddaten derart zu interpretieren, dass damit eine 3D-Punktwolke bzw. eine Tiefenkarte generiert werden kann, die ein gutes Abbild der Umgebung vor dem Frontbereich 3 des Fahrzeugs 1 darstellt und damit mit einer gewissen Genauigkeit auch die Form und Lage der Objekte 2, 2', 2" vor dem Frontbereich 3 des Fahrzeugs 1 wiedergibt.
  • Um zu einem solchen Arbeitsmodus zu gelangen, kann gemäß einem bevorzugten Ausführungsbeispiel der Erfindung ein Trainingsverfahren durchgeführt werden, wie schematisch in den 3 und 4 dargestellt. 3 zeigt dabei, dass das Fahrzeug 1 einerseits ausgerüstet ist, wie in 1 dargestellt, darüber hinaus aber mit einem Referenzsensor 4 versehen ist, und zwar in Form eines LIDAR-Sensors. Der Referenzsensor ist derart am Fahrzeug 1 angeordnet, dass er jedenfalls auch den Bereich einsieht, der von den Ultraschallsensoren 21 bis 26 im Frontbereich 3 des Fahrzeugs 1 abtastbar ist. Dies ist in 3 mit zwei gestrichelten Linien gezeigt, die den von dem Referenzsensor 4 einsehbaren Sichtbereich andeuten. Der Referenzsensor 4 ist, ebenso wie die Ultraschallsensoren 21 bis 26, mit der Verarbeitungseinrichtung 5 verbunden, so dass von dem Referenzsensor 4 erfasste Signale ebenfalls an die Verarbeitungseinrichtung 5 übermittelt werden können. Aufgrund der Ausgestaltung des Referenzsensors 4 als LIDAR-Sensor handelt es sich bei den von dem Referenzsensor 4 erfassten Daten um Tiefendaten zu dem von ihm erfassten Bereich, also dem Bereich vor dem Frontbereich 3 des Fahrzeugs 1, in dem sich auch die Objekte 2, 2', 2" befinden.
  • Auf diese Weise stehen dem System Informationen zu dem Bereich vor dem Frontbereich 3 des Fahrzeugs 1 auf zwei verschiedene Weisen zur Verfügung, nämlich einerseits aufgrund der Ultraschallsensoren 21 bis 26 und andererseits aufgrund des als LIDAR-Sensor ausgebildeten Referenzsensors 4. Dies eröffnet die Möglichkeit, mit Hilfe eines zweiten, ebenfalls als Convolutional Neural Network ausgebildeten künstlichen neuronalen Netzwerks 7 folgendes Verfahren durchzuführen, wie schematisch in den 4 und 5 illustriert:
    • Die von den Ultraschallsensoren 21 bis 26 erfassten Signale werden, als Bildsignale verarbeitet, dem künstlichen neuronalen Netzwerk 6 zugeführt, so wie oben anhand des Arbeitsmodus beschrieben. Außerdem werden die von dem Referenzsensor 4 erfassten Tiefendaten ebenfalls in ein Bildformat umgewandelt und in dieser Form an das zweite künstlichen neuronale Netzwerk 7 gegeben. Die Verarbeitung der von den Ultraschallsensoren 21 bis 26 herrührenden Daten entspricht der Verarbeitung wie sie weiter oben anhand 2 erläutert worden ist (Verfahrensschritte S1 bis S5).
  • Parallel dazu wird der von den Ultraschallsensoren einsehbare Bereich mit dem als LIDAR-Sensor ausgestalteten Referenzsensor 4 erfasst (Verfahrensschritt S11), auf der Grundlage der erfassten LIDAR-Daten wird eine Referenz-3D-Punktwolke bzw. einer Referenz-Tiefenkarte erstellt (Verfahrensschritt S12), diese Referenz-3D-Punktwolke bzw. Referenz-Tiefenkarte wird dann in ein Bildformat umgewandelt (Verfahrensschritt S13) und in dieser Form dann in das zweite künstliche neuronale Netzwerk 7 eingegeben (Verfahrensschritt S14).
  • Um nun die Ground Truth der von dem ersten künstlichen neuronalen Netzwerk 6 erstellten 3D-Punktwolke bzw. Tiefenkarte überprüfen zu können, wird die von dem ersten neuronalen Netzwerk 6 erstellte 3D-Punktwolke bzw. Tiefenkarte in das zweites künstliche neuronales Netzwerk 7 eingegeben, so das in Verfahrensschritt S15 die eigentliche Überprüfung der Ground Truth der 3D-Punktwolke bzw. der Tiefenkarte in dem zweiten künstlichen neuronalen Netzwerk 7 erfolgen kann. Vorzugsweise ist in diesem Rahmen vorgesehen, dass die Referenz-3D-Punktwolke bzw. die Referenz-Tiefenkarte derart umgewandelt wird, dass deren Punkte den tatsächlichen Reflexionspunkten der von dem ersten künstlichen neuronalen Netzwerk 6 erstellten 3D-Punktwolke bzw. Tiefenkarte entsprechen. Der als LIDAR-Sensor ausgebildete Referenzsensor 4 generiert nämlich konstruktionsbedingt mehr Reflexionspunkte als die Ultraschallsensoren 21 bis 26. Trainiert man nun die beiden künstlichen neuronalen Netzwerke 6, 7 immer wieder nach einander, wird zum einen die Transformation immer realitätsgetreuer, so dass letztlich ein Status erzielbar ist, bei dem dann weiter oben beschriebene Arbeitsmodus erreicht worden ist, so dass das System dann in der Praxis und insbesondere ohne Unterstützung durch den Referenzsensor 4 eingesetzt werden kann.
  • Schließlich ist in den 6 und 7 noch schematisch gezeigt, wie das System gemäß einem bevorzugten Ausführungsbeispiel zusätzlich ausgestaltet sein kann, um bei der Ermittlung der 3D-Punktwolke bzw. der Tiefenkarte in dem ersten künstlichen neuronalen Netzwerk 6 zusätzliche Parameter berücksichtigen zu können. 6 zeigt dazu, dass das Fahrzeug 1 zusätzlich zu den in 1 gezeigten Einrichtungen mit einem Speicher 8 versehen ist, in dem Einbauparameter der Ultraschallsensoren 21 bis 26 abgelegt sind, mit einem Umgebungssensor 9, mit dem Umgebungsbedingungen des Fahrzeugs 1 erfassbar sind, und mit einem Zustandssensor 10, mit dem verschiedene Zustandsparameter des Fahrzeugs 1 erfassbar sind.
  • Als Einbauparameter der Ultraschallsensoren 21 bis 26 können die Einbauhöhe der Ultraschallsensoren 21 bis 26, wie die Höhe über dem Boden, auf dem sich das Fahrzeug 1 befindet bzw. bewegt, und/oder der Abtastwinkel der Ultraschallsensoren 21 bis 26 berücksichtigt werden, also der Winkel, unter dem die Umgebung des Fahrzeugs 1 von dem jeweiligen Ultraschallsensor 21 bis 26 erfasst wird. Umgebungsbedingungen des Fahrzeugs 1 sind vorzugsweise die Umgebungstemperatur des Fahrzeugs 1 oder andere Wetterparameter, wie auch der Feuchtegrad der Oberfläche, auf der sich das Fahrzeug 1 befindet. Daten betreffend den Zustand des Fahrzeugs 1 sind vorzugsweise Geschwindigkeitsdaten für das Fahrzeug 1, aber auch Daten zur Beschleunigung usw.
  • Wie schematisch aus 7 ersichtlich, umfasst das Verfahren gemäß dem vorliegend beschriebenen bevorzugten Ausführungsbeispiel der Erfindung daher - zusätzlich zu dem in 2 gezeigten Verfahren - die Verfahrensschritte des Eingebens der in dem Speicher 8 abgelegten Daten betreffend die Einbauparameter der Ultraschallsensoren 21 bis 26 in das erste künstliche neuronale Netzwerk 6 (Verfahrensschritt S21), das Eingeben der von dem Umgebungssensor 9 erfassten Daten betreffend die Umgebungsbedingungen des Fahrzeugs 1 in das erste künstliche neuronale Netzwerk 6 (Verfahrensschritt S22) und das Eingeben der von dem Zustandssensor 10 erfassten Daten betreffend den Zustand des Fahrzeugs 1 in das erste künstliche neuronale Netzwerk 6. Auf diese Weise, nämlich durch die Berücksichtigung zusätzlicher Parameter im Verfahrensschritt S4, wird die Erstellung einer der tatsächlichen Umgebung des Fahrzeugs möglichst nahkommenden und in Verfahrensschritt S5 ausgegebenen Tiefenkarte bzw. 3D-Punktwolke innerhalb des ersten künstlichen neuronalen Netzwerks 6 weiter verbessert.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2, 2', 2"
    Objekte vor dem Frontbereich des Fahrzeugs
    3
    Frontbereich des Fahrzeugs
    4
    Referenzsensor
    5
    Verarbeitungseinrichtung
    6
    erstes künstliches neuronales Netzwerk
    7
    zweites künstliches neuronales Netzwerk
    8
    Speicher
    9
    Umgebungssensor
    10
    Zustandssensor
    21 bis 26
    Ultraschallsensoren
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102017006599 A1 [0007]
    • DE 102017101106 A1 [0008]
    • US 2012/0293356 A1 [0008]

Claims (13)

  1. Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten, mit folgenden Verfahrensschritten: - Aussenden eines jeweiligen Ultraschallsignals mittels einer Mehrzahl von in einem Fahrzeug (1) angeordneter Ultraschallsensoren (21 bis 26), - Empfangen von reflektierten Ultraschallsignalen mittels der Ultraschallsensoren (21 bis 26) und - Eingeben von auf den empfangenen reflektierten Ultraschallsignalen basierenden Signalen in ein künstliches neuronales Netzwerk (6), gekennzeichnet durch den Verfahrensschritt: - Ausgeben einer 3D-Punktwolke und/oder einer Tiefenkarte durch das künstliche neuronale Netzwerk (6).
  2. Verfahren nach Anspruch 1, mit folgenden Verfahrensschritten: - Konvertieren der empfangenen reflektierten Ultraschallsignale in ein Bildformat und - Eingeben der Bildsignale in das künstliche neuronale Netzwerk (6).
  3. Verfahren nach einem der vorherigen Ansprüche, wobei das künstliche neuronale Netzwerk (6) ein Convolutional Neural Network oder ein Mulitlayer Perceptron oder ein Capsule Neural Network ist.
  4. Verfahren nach einem der vorherigen Ansprüche, wobei das künstliche neuronale Netzwerk (6) ein generatives Netzwerk ist.
  5. Verfahren nach einem der vorherigen Ansprüche, mit dem zusätzlichen Verfahrensschritt: - Eingeben von Daten betreffend die Einbauparameter der Ultraschallsensoren (21 bis 26) in das künstliche neuronale Netzwerk (6).
  6. Verfahren nach einem der vorherigen Ansprüche, mit dem zusätzlichen Verfahrensschritt: - Eingeben von Daten betreffend die Umgebungsbedingungen des Fahrzeugs (1) in das künstliche neuronale Netzwerk (6).
  7. Verfahren nach einem der vorherigen Ansprüche, mit dem zusätzlichen Verfahrensschritt: - Eingeben von Daten betreffend den Zustand des Fahrzeugs (1) in das künstliche neuronale Netzwerk (6).
  8. Verfahren nach einem der vorherigen Ansprüche, mit folgenden Verfahrensschritten: - Eingeben der ausgegebenen 3D-Punktwolke bzw. der ausgegebenen Tiefenkarte in ein zweites künstliches neuronales Netzwerk (7) und - Überprüfen der Ground Truth der 3D-Punktwolke bzw. der Tiefenkarte in dem zweiten künstlichen neuronalen Netzwerk (7).
  9. Verfahren nach Anspruch 8, mit folgenden Verfahrensschritten: - Erfassen des von den Ultraschallsensoren (21 bis 26) einsehbaren Bereichs mit einem Referenzsensor (4), - Erstellen einer Referenz-3D-Punktwolke bzw. einer Referenz-Tiefenkarte auf der Grundlage des von dem Referenzsensor (4) erfassten Bereichs und - Eingeben der Referenz-3D-Punktwolke bzw. der Referenz-Tiefenkarte in das zweite künstliche neuronale Netzwerk (7) zum Überprüfen der Ground Truth der von dem anderen künstlichen neuronalen Netzwerk (6) erstellten 3D-Punktwolke bzw. Tiefenkarte.
  10. Verfahren nach Anspruch 8 oder 9, mit dem zusätzlichen Verfahrensschritt: - Umwandeln der Referenz-3D-Punktwolke bzw. der Referenz-Tiefenkarte derart, dass deren Punkte den tatsächlichen Reflexionspunkten der von dem anderen künstlichen neuronalen Netzwerk (6) erstellten 3D-Punktwolke bzw. Tiefenkarte entsprechen.
  11. Nichtflüchtiges, computerlesbares Speichermedium mit darauf abgespeicherten Befehlen, die bei ihrer Ausführung auf einem Prozessor ein Verfahren nach einem der Ansprüche 1 bis 10 bewirken.
  12. Sensoranordnung, die zum Betrieb mittels eines Verfahrens nach einem der Ansprüche 1 bis 10 eingerichtet ist.
  13. Sensoranordnung nach Anspruch 1 2, die als Sensoreinheiten Ultraschallsensoreinheiten (21 bis 26) zum Senden und/oder Empfangen von Ultraschallsignalen aufweist.
DE102019101127.2A 2019-01-17 2019-01-17 Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten Pending DE102019101127A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019101127.2A DE102019101127A1 (de) 2019-01-17 2019-01-17 Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019101127.2A DE102019101127A1 (de) 2019-01-17 2019-01-17 Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten

Publications (1)

Publication Number Publication Date
DE102019101127A1 true DE102019101127A1 (de) 2020-07-23

Family

ID=71402520

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019101127.2A Pending DE102019101127A1 (de) 2019-01-17 2019-01-17 Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten

Country Status (1)

Country Link
DE (1) DE102019101127A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021115248A1 (de) 2021-06-14 2022-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum trainieren einer fahrerassistenzeinrichtung
CN116263324A (zh) * 2021-12-14 2023-06-16 凯瑞达欧洲公司 用于确定车辆环境的三维数据的设备、车辆和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120293356A1 (en) 2009-11-23 2012-11-22 Paul Barthel Method for detecting objects
DE102017101106A1 (de) 2016-01-26 2017-07-27 Ford Global Technologies, Llc Trainingsalgorithmus zur Kollisionsvermeidung
DE102017006599A1 (de) 2017-07-12 2018-03-01 Daimler Ag Verfahren zum Betrieb eines Fahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120293356A1 (en) 2009-11-23 2012-11-22 Paul Barthel Method for detecting objects
DE102017101106A1 (de) 2016-01-26 2017-07-27 Ford Global Technologies, Llc Trainingsalgorithmus zur Kollisionsvermeidung
DE102017006599A1 (de) 2017-07-12 2018-03-01 Daimler Ag Verfahren zum Betrieb eines Fahrzeugs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
THRUN, Sebastian: Learning metric-topological maps for indoor mobile robot navigation. In: Artificial Intelligence, 1998, 99. Jg., Nr. 1, S. 21-71. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021115248A1 (de) 2021-06-14 2022-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum trainieren einer fahrerassistenzeinrichtung
CN116263324A (zh) * 2021-12-14 2023-06-16 凯瑞达欧洲公司 用于确定车辆环境的三维数据的设备、车辆和方法

Similar Documents

Publication Publication Date Title
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
EP2504718B1 (de) Verfahren zur erfassung von objekten
DE102017101476B3 (de) Lokalisieren eines Objekts in einer Umgebung eines Kraftfahrzeugs durch ein Ultraschallsensorsystem
DE102019215903A1 (de) Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
DE102020107344A1 (de) Azimut- und elevationsradar-abbildung mit eindimensionalen antennenanordnungen des radarsystems
AT519538B1 (de) Verfahren und System zur simulationsgestützten Bestimmung von Echopunkten sowie Verfahren zur Emulation und Emulationsvorrichtung
EP3430423B1 (de) Verfahren zur verbesserung einer erfassung zumindest eines objekts in einer umgebung eines kraftfahrzeugs durch eine indirekte messung mit sensoren, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102019130204B4 (de) Verfahren und System zum Erstellen dynamischer Karteninformation, die zum Bereitstellen von Umgebungsinformationen geeignet ist
DE102020119954A1 (de) Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
DE102020214123B4 (de) Verfahren zur Erfassung eines Umfelds eines ersten Sensorsystems
WO2022129266A1 (de) Verfahren zur detektion zumindest eines objektes einer umgebung mittels reflexionssignalen eines radar-sensorsystems
WO2019162317A1 (de) Verfahren zur erzeugung von sensordaten für sicherheitskritische automobil-steuergeräte
WO2020051618A1 (de) Analyse dynamisscher räumlicher szenarien
DE102014118622A1 (de) Verfahren zum simulativen Bestimmen einer Interaktion zwischen einem Sensor eines Kraftfahrzeugs und einem virtuellen Objekt in einem virtuellen Umgebungsbereich des Kraftfahrzeugs sowie Recheneinrichtung
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102019101127A1 (de) Verfahren zum Verarbeiten mittels Ultraschall erhaltener Daten
DE102019218349A1 (de) Verfahren zum Klassifizieren von zumindest einem Ultraschallecho aus Echosignalen
DE102019217225A1 (de) Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung
DE102020214596A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten einer Umfeldsensorik eines Fahrzeugs, Verfahren zum Erzeugen eines solchen Erkennungsmodells und Verfahren zum Ansteuern einer Aktorik eines Fahrzeugs
DE102020215657A1 (de) Verfahren und System zum Testen eines Steuergeräts eines Fahrzeugs
DE102019205474A1 (de) Objekterkennung im Umfeld eines Fahrzeugs unter Verwendung einer primären Sensoreinrichtung und einer sekundären Sensoreinrichtung
DE102017220506B4 (de) Verfahren und Vorrichtung zum Schätzen eines maritimen Verkehrszustandes
DE102014118624A1 (de) Verfahren zum simulativen Bestimmen einer Interaktion zwischen einem Sensor eines Kraftfahrzeugs und einem virtuellen Objekt in einem virtuellen Umgebungsbereich des Kraftfahrzeugs sowie Recheneinrichtung
DE102022117277A1 (de) Verfahren zum trainieren eines neuronalen netzes

Legal Events

Date Code Title Description
R163 Identified publications notified