DE102020120845A1 - Method and system for monitoring the surroundings of an at least partially electrically powered vehicle - Google Patents
Method and system for monitoring the surroundings of an at least partially electrically powered vehicle Download PDFInfo
- Publication number
- DE102020120845A1 DE102020120845A1 DE102020120845.6A DE102020120845A DE102020120845A1 DE 102020120845 A1 DE102020120845 A1 DE 102020120845A1 DE 102020120845 A DE102020120845 A DE 102020120845A DE 102020120845 A1 DE102020120845 A1 DE 102020120845A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- surroundings
- categorized
- relative
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000012544 monitoring process Methods 0.000 title claims abstract description 15
- 238000004590 computer program Methods 0.000 claims abstract description 5
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 9
- 241001465754 Metazoa Species 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 125000006850 spacer group Chemical group 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 241000269400 Sirenidae Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren sowie ein System zur Umfeldüberwachung eines wenigstens teilweise elektrisch angetriebenen Fahrzeugs (1), wobei mittels einer Sensorik (2) mindestens eines Objekterkennungssystems (3) wenigstens ein RGB-Bild und/oder wenigstens eine Tiefenaufnahme eines Umfeldes (5) des Fahrzeugs (1) erzeugt wird, wobei das jeweilige Objekterkennungssystem (3) anhand des wenigstens einen RGB-Bildes und/oder der wenigstens einen Tiefenaufnahme das Vorhandensein sowie die Position eines Objekts (4) relativ zum Fahrzeug (1) im Raum erfasst, wobei das Objekt (4) zumindest in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Position des Objekts (4) relativ zum Fahrzeug (1) in eine von zumindest zwei dynamischen Sicherheitszonen (6a, 6b, 6c) kategorisiert wird, und wobei ein Assistenzsystem (7) in Abhängigkeit der Informationen über das lokalisierte und kategorisierte Objekt (4) zumindest eine sichere Höchstgeschwindigkeit des Fahrzeugs (1) an einen Fahrzeugnutzer ausgibt. Ferner betrifft die Erfindung ein Computerprogrammprodukt.The invention relates to a method and a system for monitoring the surroundings of an at least partially electrically driven vehicle (1), with at least one RGB image and/or at least one depth recording of a surroundings (5) of the vehicle (1), wherein the respective object recognition system (3) uses the at least one RGB image and/or the at least one depth image to detect the presence and the position of an object (4) in space relative to the vehicle (1), the Object (4) is categorized into one of at least two dynamic safety zones (6a, 6b, 6c) at least depending on the vehicle speed and/or the position of the object (4) relative to the vehicle (1), and wherein an assistance system (7) in Depending on the information about the localized and categorized object (4), at least one safe maximum speed of the vehicle (1) to a vehicle user there are. The invention also relates to a computer program product.
Description
Die Erfindung betrifft ein Verfahren und ein System Umfeldüberwachung eines wenigstens teilweise elektrisch angetriebenen Fahrzeugs, insbesondere eines Elektro-Kleinfahrzeugs. Ferner betrifft die Erfindung ein Computerprogrammprodukt.The invention relates to a method and a system for monitoring the surroundings of an at least partially electrically powered vehicle, in particular a small electric vehicle. Furthermore, the invention relates to a computer program product.
Aus der
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren und ein System zur Umfeldüberwachung eines wenigstens teilweise elektrisch angetriebenen Fahrzeugs weiterzuentwickeln, wobei insbesondere der Betrieb eines solchen Fahrzeugs sowohl für den Nutzer des Fahrzeugs als auch für die umliegenden Personen bzw. Fußgänger sicherer gestaltet werden soll.The object of the present invention is to further develop a method and a system for monitoring the surroundings of an at least partially electrically powered vehicle, with the operation of such a vehicle being designed to be safer both for the user of the vehicle and for the surrounding people and pedestrians.
Diese Aufgabe wird durch ein Verfahren zur Umfeldüberwachung eines wenigstens teilweise elektrisch angetriebenen Fahrzeugs mit den Merkmalen des Anspruchs 1 sowie durch ein System zur Umfeldüberwachung des Fahrzeugs mit den Merkmalen des Anspruchs 6 gelöst. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen der nachfolgenden Beschreibung sowie den beigefügten Figuren.This object is achieved by a method for monitoring the area surrounding an at least partially electrically powered vehicle having the features of
In einem erfindungsgemäßen Verfahren zur Umfeldüberwachung eines wenigstens teilweise elektrisch angetriebenen Fahrzeugs wird mittels einer Sensorik mindestens eines Objekterkennungssystems wenigstens ein RGB-Bild und/oder wenigstens eine Tiefenaufnahme eines Umfeldes des Fahrzeugs erzeugt, wobei das jeweilige Objekterkennungssystem anhand des wenigstens einen RGB-Bildes und/oder der wenigstens einen Tiefenaufnahme das Vorhandensein sowie die Position eines Objekts relativ zum Fahrzeug im Raum erfasst, wobei das Objekt zumindest in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Position des Objekts relativ zum Fahrzeug in eine von zumindest zwei dynamischen Sicherheitszonen kategorisiert wird, und wobei ein Assistenzsystem in Abhängigkeit der Informationen über das lokalisierte und kategorisierte Objekt zumindest eine sichere Höchstgeschwindigkeit des Fahrzeugs an einen Fahrzeugnutzer ausgibt. Mit anderen Worten wird ein kostengünstiges und einfaches Verfahren realisiert, das auf Endgeräten mit vergleichsweise geringem Bauraumbedarf energiesparsam ausführbar ist.In a method according to the invention for monitoring the surroundings of an at least partially electrically powered vehicle, at least one RGB image and/or at least one depth recording of the surroundings of the vehicle is generated by means of a sensor system of at least one object recognition system, with the respective object recognition system using the at least one RGB image and/or the at least one depth recording detects the presence and the position of an object relative to the vehicle in space, with the object being categorized into one of at least two dynamic safety zones at least depending on the vehicle speed and/or the position of the object relative to the vehicle, and with an assistance system outputs at least one safe maximum speed of the vehicle to a vehicle user depending on the information about the localized and categorized object. In other words, a cost-effective and simple method is implemented that can be carried out in an energy-saving manner on terminal devices with a comparatively small installation space requirement.
Teilweise elektrisch angetriebene Fahrzeuge im Sinne dieser Erfindung sind insbesondere elektrische Kleinstfahrzeuge, sogenannte PMD („Personal Mobility Device“), also E-Scooter (elektrisch angetriebener Scooter), E-Roller (elektrisch angetriebener Roller), E-Skateboards oder Longboards (elektrisch angetriebene Skateboards oder Longboards), die zumindest teilweise, also entweder permanent oder temporär elektrisch betrieben werden, um einen Fahrer des Fahrzeugs körperlich zu entlasten. Des Weiteren eignet sich das Verfahren für Nutzfahrzeuge, die mit geringen Geschwindigkeiten angetrieben werden, wie beispielsweise zumindest teilweise elektrisch betriebene Gabelstapler, Hubwagen oder Hebebühnen. Das Fahrzeug weist bevorzugt wenigstens zwei oder mehr Räder auf, wovon mindestens eines der Räder mittels einer elektrischen Maschine elektrisch antreibbar ist. Die elektrische Maschine ist wiederum von einer Spannungsquelle, insbesondere einer Batterie, mit elektrischer Energie versorgbar. Das jeweilige Objekterkennungssystem, insbesondere die dazugehörige Sensorik sowie das Assistenzsystem des Fahrzeugs sind ebenfalls mit der Batterie oder mit einer separaten Spannungsquelle elektrisch verbunden.Partially electrically powered vehicles within the meaning of this invention are in particular small electric vehicles, so-called PMD ("Personal Mobility Device"), i.e. e-scooters (electrically powered scooters), e-scooters (electrically powered scooters), e-skateboards or longboards (electrically powered Skateboards or longboards) that are at least partially, ie either permanently or temporarily operated electrically to relieve a driver of the vehicle physically. Furthermore, the method is suitable for commercial vehicles that are driven at low speeds, such as at least partially electrically operated forklifts, pallet trucks or lifting platforms. The vehicle preferably has at least two or more wheels, of which at least one of the wheels can be driven electrically by means of an electric machine. The electrical machine can in turn be supplied with electrical energy from a voltage source, in particular a battery. The respective object recognition system, in particular the associated sensors and the assistance system of the vehicle are also electrically connected to the battery or to a separate voltage source.
Die Sensorik des jeweiligen Objekterkennungssystems ist dazu ausgebildet, eine Aufnahme oder eine Vielzahl von Aufnahmen des Umfeldes des Fahrzeugs, insbesondere des Umfeldes in Fahrtrichtung oder quer zur Fahrtrichtung des Fahrzeugs zu erstellen, und zwar ein oder mehrere RGB-Bilder und/oder eine oder mehrere Tiefenaufnahmen.The sensor system of the respective object recognition system is designed to create a recording or a large number of recordings of the surroundings of the vehicle, in particular of the surroundings in the direction of travel or transversely to the direction of travel of the vehicle, specifically one or more RGB images and/or one or more depth recordings .
RGB-Bilder umfassen Aufnahmen, die die drei Grundfarben Rot, Grün und Blau aufweisen, die von der Sensorik oder vom Objekterkennungssystem zur Erstellung des jeweiligen RGB-Bildes in beliebigem Verhältnis miteinander mischbar bzw. kombinierbar sind. Die jeweilige Tiefenaufnahme ist als Tiefenkarte ausgebildet, mittels derer ein relativer Abstand des Objekts oder einer Kontur des Objekts zur Sensorik beispielsweise farblich abbildbar ist. Somit ist eine Tiefensensierung des Umfelds in der vom Umfeld erzeugten Tiefenaufnahme realisierbar.RGB images include recordings that have the three primary colors red, green and blue, which can be mixed or combined with one another in any ratio by the sensors or by the object recognition system to create the respective RGB image. The respective depth recording is embodied as a depth map, by means of which a relative distance of the object or a contour of the object from the sensor system can be depicted in color, for example. Depth sensing of the surroundings can thus be realized in the depth recording generated from the surroundings.
Werden das RGB-Bild und die Tiefenaufnahme miteinander kombiniert bzw. übereinandergelegt, das heißt wird von einem identischen Umfeld wenigstens ein RGB-Bild sowie wenigstens eine Tiefenaufnahme erzeugt, kann anhand des jeweiligen Objekterkennungssystems zunächst ein Vorhandensein mindestens eines Objekts bestimmt werden und anschließend eine Erfassung der Position des jeweiligen erkannten Objekts im Raum bzw. bezogen auf die Position der Sensorik erfolgen.If the RGB image and the depth image are combined or superimposed, i.e. if at least one RGB image and at least one depth image are generated from an identical environment, the presence of at least one object can first be determined using the respective object recognition system and then the detection of the Position of the respective detected object in space or based on the position of the sensors.
Unter einem Objekt im Sinne der Erfindung ist vorzugsweise eine Person, insbesondere ein Fußgänger, oder ein Tier zu verstehen. Das Verfahren eignet sich jedoch auch zur Erkennung von unbeweglichen oder beweglichen Gegenständen. Welche Art von Objekten vom Objekterkennungssystem erkannt werden, ist im Wesentlichen davon abhängig, in welchem Anwendungsgebiet das Fahrzeug eingesetzt wird. Dabei erfolgt in einem vorgelagerten Prozess ein Antrainieren des Objekterkennungssystems auf das jeweilige Anwendungsgebiet des Fahrzeugs, sei es der normale Straßenverkehr oder der Gewerbebetrieb, insbesondere der Verkehr in Lagerhallen oder Verkaufsräumen. Dabei wird das jeweilige System auf die zu erkennenden Objekte angelernt, indem bestimmte Aufnahmen, welche das zu erkennende Objekt umfasst, in das System eingespielt werden, und die darin dargestellten Objekte als solche gekennzeichnet werden.An object within the meaning of the invention is preferably understood to mean a person, in particular a pedestrian, or an animal. However, the method is also suitable for detecting stationary or moving objects. The type of objects recognized by the object recognition system essentially depends on the area of application in which the vehicle is used. In an upstream process, the object recognition system is trained for the respective area of application of the vehicle, be it normal road traffic or commercial operations, in particular traffic in warehouses or sales rooms. In this case, the respective system is trained for the objects to be recognized by certain recordings, which include the object to be recognized, being imported into the system and the objects represented therein being marked as such.
Erkennt das jeweilige Objekterkennungssystem durch Auswertung des jeweiligen RGB-Bildes und/oder der Tiefenaufnahme eines oder mehrere Objekte im Umfeld des Fahrzeugs, erfolgt eine Markierung des jeweiligen Objekts, insbesondere in Form eines Begrenzungsrahmens, dessen Position relativ zur Sensorik von dem Objekterkennungssystem erfasst, gespeichert sowie ausgegeben werden kann. Anders gesagt zeigt der Begrenzungsrahmen an, dass das Objekterkennungssystem das Vorhandensein eines Objekts bestätigt hat.If the respective object recognition system recognizes one or more objects in the vicinity of the vehicle by evaluating the respective RGB image and/or the depth recording, the respective object is marked, in particular in the form of a bounding box, the position of which relative to the sensor system is recorded, stored and stored by the object recognition system can be issued. In other words, the bounding box indicates that the object detection system has confirmed the presence of an object.
Die Objekterkennung erfolgt vorzugsweise anhand eines Zuverlässigkeitsgrenzwertes. Für jedes potenzielle Objekt wird ein Zuverlässigkeitswert generiert, wobei insbesondere dann, wenn der Zuverlässigkeitsgrenzwert bei der Auswertung des jeweiligen RGB-Bildes und der Tiefenaufnahme übertroffen wird, ein Objekt als erkannt und im Umfeld befindlich gilt und somit auf einer, mehreren oder allen Aufnahmen des Umfeldes markiert wird. Für jedes analysierte Bild kann zudem ein Zuverlässigkeitswert ausgegeben und/oder gespeichert werden.The object is preferably recognized using a reliability limit value. A reliability value is generated for each potential object, whereby in particular if the reliability limit value is exceeded during the evaluation of the respective RGB image and the depth image, an object is considered to be recognized and to be in the area and thus on one, several or all images of the area is marked. A reliability value can also be output and/or stored for each analyzed image.
Nach den Objekterkennung erfolgt eine Kategorisierung des jeweiligen erkannten Objekts in eine von wenigstens zwei dynamischen Sicherheitszonen. Über die Sicherheitszone wird bestimmt, in welchem Gefahrenbereich sich das Objekt relativ zum Fahrzeug befindet. Die Form und Größe der jeweiligen Sicherheitszone sind dabei im Wesentlichen abhängig von der zu erreichenden Maximalgeschwindigkeit sowie dem Anwendungsgebiet des Fahrzeugs und können sich je nach aktueller Fahrzeuggeschwindigkeit verändern, das heißt vergrößern oder verkleinern. Das jeweilige Objekterkennungssystem kann dazu mit einem Geschwindigkeitssensor oder einem mit dem Geschwindigkeitssensor kommunizierenden Gerät des Fahrzeugs verbunden sein, um die Sicherheitszonen in Abhängigkeit der Geschwindigkeitsänderungen anzupassen.After the object has been recognized, the respective recognized object is categorized into one of at least two dynamic security zones. The safety zone is used to determine the danger area in which the object is located relative to the vehicle. The shape and size of the respective safety zone are essentially dependent on the maximum speed to be reached and the area of application of the vehicle and can change depending on the current vehicle speed, i.e. increase or decrease. For this purpose, the respective object recognition system can be connected to a speed sensor or to a device in the vehicle that communicates with the speed sensor, in order to adapt the safety zones depending on the changes in speed.
Die Sicherheitszonen sind vorzugsweise in dynamisch variierende Distanzgruppen unterteilt. Anhand der Distanzgruppen lassen sich ebenfalls eine Gefährdungseinstufung des Objekts für das Fahrzeug realisieren. In Abhängigkeit der Fahrzeuggeschwindigkeit können diese ebenfalls in Größe und Form dynamisch variieren. Die Distanzgruppen können beispielsweise in Fahrtrichtung des Fahrzeugs in „nah“ oder „fern“ unterteilt werden, wobei ein in der Distanzgruppe „nah“ eingestuftes Objekt eine höhere Gefährdung für das Fahrzeug darstellt, als ein in die Distanzgruppe „fern“ eingestuftes Objekt, da der maximal zulässige Bremsweg im Fall einer Notsituation geringer ist. Die Ausbildung der Sicherheitszonen und/oder der Distanzgruppen können ferner von der aktuellen Witterung, dem Zustand des befahrenen Untergrunds sowie dem aktuellen Zustand der Räder, insbesondere der Reifen des Fahrzeugs sein, wobei das jeweilige Objekterkennungssystem mit jeweiligen Sensoren und/oder Steuergeräten verbunden ist.The security zones are preferably divided into dynamically varying distance groups. A risk classification of the object for the vehicle can also be implemented on the basis of the distance groups. Depending on the vehicle speed, these can also vary dynamically in size and shape. The distance groups can, for example, be divided into "near" or "far" in the direction of travel of the vehicle, with an object classified in the "near" distance group representing a higher risk for the vehicle than an object classified in the "far" distance group, since the maximum permissible braking distance in the event of an emergency is less. The formation of the safety zones and/or the distance groups can also depend on the current weather, the condition of the surface being traveled on and the current condition of the wheels, in particular the tires of the vehicle, with the respective object recognition system being connected to the respective sensors and/or control units.
Bevorzugt erfolgt das Erfassen und die Kategorisierung jedes Objekts nur einmalig durch ein neuronales Netzwerk im Objekterkennungssystem. Das neuronale Netzwerk basiert vorzugsweise auf einem YOLO v2 Algorithmus (YOLO - „You Only Look Once“). Der YOLO v2 Algorithmus ist ein schnelle Methode zur Bildkategorisierung, bei der jedes Bild bzw. jede Aufnahme nur ein einziges Mal analysiert wird. Vorteilhaft bei diesem Algorithmus ist, dass die Anzahl von Layern und/oder Variablen reduziert sind, was den Algorithmus zu einem energiesparenden und schnellen Mittel macht, Objekte in Bildern bzw. Aufnahmen zu kategorisieren. Die Genauigkeit des Algorithmus wird insbesondere dadurch realisiert, dass das kleiner gestaltete Modell in geeigneter Weise auf die zu erkennenden Objekte angelernt wird.Each object is preferably detected and categorized only once by a neural network in the object recognition system. The neural network is preferably based on a YOLO v2 algorithm (YOLO - "You Only Look Once"). The YOLO v2 algorithm is a fast image categorization method in which each image or recording is analyzed only once. The advantage of this algorithm is that the number of layers and/or variables is reduced, which makes the algorithm an energy-saving and quick means of categorizing objects in images or recordings. The accuracy of the algorithm is achieved in particular by training the smaller model in a suitable manner for the objects to be recognized.
Die Daten über die Objekterkennung werden an das Assistenzsystem übermittelt oder davon abgerufen, wobei, je nachdem in welche Sicherheitszone und/oder Distanzgruppe das Fahrzeug kategorisiert wurde, mittels des Assistenzsystems zumindest eine sichere Höchstgeschwindigkeit des Fahrzeugs an einen Fahrzeugnutzer ausgegeben wird. Mit anderen Worten wird dem Fahrzeugnutzer ein Vorschlag für eine für das Fahrzeug sichere Maximalgeschwindigkeit übermittelt. Auch weitere Vorschläge für Sicherungsmaßnahmen können durch das Assistenzsystem eingeleitet, vorbereitet, bereitgestellt und/oder ausgegeben werden.The data on the object recognition is transmitted to the assistance system or retrieved from it, with at least one safe maximum driving speed being determined by the assistance system, depending on the safety zone and/or distance group into which the vehicle was categorized vehicle is issued to a vehicle user. In other words, a suggestion for a maximum speed that is safe for the vehicle is transmitted to the vehicle user. Further suggestions for security measures can also be initiated, prepared, provided and/or output by the assistance system.
Die Ausgabe an den Fahrzeugnutzer durch das Assistenzsystem erfolgt vorzugsweise haptisch, akustisch und/oder visualisiert. Dazu weist das Assistenzsystem bevorzugt Mittel zur haptischen Ausgabe, Mittel zur akustischen Ausgabe und/oder Mittel zur optischen Ausgabe an den Fahrzeugnutzer auf. Mittel zur haptischen Ausgabe können beispielsweise vibrierende Elemente an einem Lenkrad, an einem Lenkergriff oder an einer Haltevorrichtung des Fahrzeugs sein. Mittel zur akustischen Ausgabe sind insbesondere Lautsprecher, Sirenen und/oder andere Geräte zur Erzeugung von Schallzeichen bzw. Warnungen sein. Mittel zur optischen Ausgabe können Bildschirme, Monitore, Scheinwerfer, Rundumleuchten oder weitere Leuchtmittel sein.The output to the vehicle user by the assistance system is preferably haptic, acoustic and/or visualized. For this purpose, the assistance system preferably has means for haptic output, means for acoustic output and/or means for visual output to the vehicle user. Means for haptic output can be, for example, vibrating elements on a steering wheel, on a handlebar grip or on a holding device of the vehicle. Means for acoustic output are, in particular, loudspeakers, sirens and/or other devices for generating acoustic signals or warnings. Means for optical output can be screens, monitors, headlights, all-round lights or other light sources.
Nach einem Ausführungsbeispiel wird die Position des Objekts relativ zum Fahrzeug auf einem zweidimensionalen Radarkegel dargestellt, der mehrere dynamisch variierende Sicherheitszonen aufweist. Des Weiteren weist der Radarkegel Distanzgruppen auf, welche die Sicherheitszonen im Wesentlichen in Längsrichtung bzw. in Fahrtrichtung des Fahrzeugs weiter unterteilen, um eine genauere Kategorisierung des jeweiligen erkannten Objekts zu ermöglichen. Sowohl die Sicherheitszonen als auch die Distanzgruppen sind dynamisch variabel, und zwar insbesondere in Abhängigkeit der Fahrzeuggeschwindigkeit. Der Radarkegel kann virtuell auf dem Objekterkennungssystem und/oder dem Assistenzsystem hinterlegt sein oder auf einem Monitor für den Fahrzeugnutzer dargestellt werden.According to one exemplary embodiment, the position of the object relative to the vehicle is represented on a two-dimensional radar cone which has a number of dynamically varying safety zones. Furthermore, the radar cone has distance groups which further subdivide the safety zones essentially in the longitudinal direction or in the direction of travel of the vehicle in order to enable a more precise categorization of the respective detected object. Both the safety zones and the distance groups are dynamically variable, in particular as a function of vehicle speed. The radar cone can be stored virtually on the object recognition system and/or the assistance system or displayed on a monitor for the vehicle user.
Ein erfindungsgemäßes System zur Umfeldüberwachung eines wenigstens teilweise elektrisch angetriebenen Fahrzeugs, wobei mittels einer Sensorik mindestens eines Objekterkennungssystems wenigstens ein RGB-Bild und/oder wenigstens eine Tiefenaufnahme eines Umfeldes des Fahrzeugs erzeugbar ist, wobei das jeweilige Objekterkennungssystem anhand des wenigstens einen RGB-Bildes und/oder der wenigstens einen Tiefenaufnahme das Vorhandensein sowie die Position eines Objekts, relativ zum Fahrzeug im Raum erfasst, wobei das Objekt zumindest in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Position des Objekts relativ zum Fahrzeug in eine von zumindest zwei dynamischen Sicherheitszonen kategorisierbar ist, und wobei ein Assistenzsystem in Abhängigkeit der Informationen über das lokalisierte und kategorisierte Objekt zumindest eine sichere Höchstgeschwindigkeit des Fahrzeugs an einen Fahrzeugnutzer ausgibt.A system according to the invention for monitoring the surroundings of an at least partially electrically powered vehicle, wherein at least one RGB image and/or at least one depth recording of the surroundings of the vehicle can be generated by means of a sensor system of at least one object recognition system, the respective object recognition system using the at least one RGB image and/or or the at least one depth image captures the presence and position of an object in space relative to the vehicle, wherein the object can be categorized into one of at least two dynamic safety zones at least as a function of the vehicle speed and/or the position of the object relative to the vehicle, and wherein an assistance system outputs at least one safe maximum speed of the vehicle to a vehicle user depending on the information about the localized and categorized object.
Die Sensorik umfasst vorzugsweise eine RGB-Kamera und/oder eine Stereo-Infrarotkamera. Die RGB-Kamera ist dazu ausgebildet ein oder mehrere RGB-Bilder des Umfeldes des Fahrzeugs aufzunehmen und an das Objekterkennungssystem zur Speicherung und/oder Weiterverarbeitung zu übermitteln. Die Stereo-Infrarotkamera ist demgegenüber dazu ausgebildet eine oder mehrere Tiefenaufnahmen des Umfeldes des Fahrzeugs zu erstellen. Dies kann beispielsweise in einer farblichen Aufnahme resultieren, die in Form eines Wärmebildes Objekte, insbesondere Personen farblich darstellt, beispielsweise in einer Farbskala zwischen Blau für weit entfernte Objekte und Rot für sich nah an der Sensorik befindliche Objekte. Zur Erzeugung des jeweiligen RGB-Bildes sowie der jeweiligen Tiefenaufnahme kann ferner ein Infrarotstreuungsprojektor genutzt werden.The sensor system preferably includes an RGB camera and/or a stereo infrared camera. The RGB camera is designed to record one or more RGB images of the area surrounding the vehicle and to transmit them to the object recognition system for storage and/or further processing. In contrast, the stereo infrared camera is designed to create one or more depth recordings of the surroundings of the vehicle. This can result, for example, in a color recording that represents objects, in particular people, in color in the form of a thermal image, for example in a color scale between blue for objects that are far away and red for objects that are close to the sensor system. An infrared scattering projector can also be used to generate the respective RGB image as well as the respective depth recording.
Vorzugsweise umfasst das System ferner eine Schnittstelle, die dazu ausgebildet ist, die Informationen über die Position des lokalisierten und kategorisierten Objekts relativ zum Fahrzeug an eine Steuereinheit des Fahrzeugs zu übermitteln. Somit können die mittels der Sensorik erfassten und mittels dem Objekterkennungssystem generierten Information dazu genutzt werden, den wenigstens teilweise erfolgenden elektrischen Fahrbetrieb des Fahrzeugs anzupassen. Insbesondere kann, wenn der Fahrbetrieb wenigstens teilweise autonom erfolgt, eine Trajektorie des Fahrzeugs entsprechend den ausgewerteten Daten angepasst werden. Die Schnittstelle kann am Assistenzsystem und/oder am Objekterfassungssystem vorgesehen sein, um mit weiteren Geräten des Fahrzeugs und/oder mit externen Geräten drahtgebunden oder drahtlos verbunden zu sein bzw. zu werden.The system preferably also includes an interface which is designed to transmit the information about the position of the localized and categorized object relative to the vehicle to a control unit of the vehicle. The information recorded by the sensor system and generated by the object recognition system can thus be used to adapt the at least partially electric driving operation of the vehicle. In particular, if the driving operation takes place at least partially autonomously, a trajectory of the vehicle can be adjusted according to the evaluated data. The interface can be provided on the assistance system and/or on the object detection system in order to be or become wired or wirelessly connected to other devices in the vehicle and/or to external devices.
Das Verfahren gemäß der Erfindung kann beispielsweise von einem Computer beziehungsweise von einem Steuergerät ausgeführt werden. Somit kann das Verfahren in Software implementiert sein. Die entsprechende Software ist insofern ein eigenständig verkaufsfähiges Produkt. Daher bezieht sich die Erfindung auch auf ein Computerprogrammprodukt, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer, und/oder auf einem Steuergerät ausgeführt werden, den Computer und/oder das Steuergerät zu einer Bedienungslogik des Systems zur Umfeldüberwachung eines wenigstens teilweise elektrisch angetriebenen Fahrzeugs aufwerten, und/oder dazu veranlassen, ein Verfahren gemäß der Erfindung auszuführen.The method according to the invention can be carried out, for example, by a computer or by a control device. Thus, the method can be implemented in software. In this respect, the corresponding software is an independently salable product. The invention therefore also relates to a computer program product containing machine-readable instructions which, when executed on a computer and/or on a control unit, convert the computer and/or the control unit into an operating logic of the system for monitoring the surroundings of an at least partially electrically driven Upgrade the vehicle and/or cause it to carry out a method according to the invention.
Die vorhergehenden Ausführungen zum Verfahren gelten gleichermaßen für das erfindungsgemäße System sowie für das erfindungsgemäße Computerprogrammprodukt, und umgekehrt.The above statements on the method apply equally to the erfindungsge Measured system and for the computer program product according to the invention, and vice versa.
Weitere die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung bevorzugter Ausführungsbeispiele der Erfindung anhand der Figuren näher dargestellt. In den Figuren sind gleiche oder ähnliche Elemente mit dem gleichen Bezugszeichen versehen. Hierbei zeigt
-
1 eine schematische Perspektivdarstellung eines elektrisch angetriebenen Fahrzeugs mit einem erfindungsgemäßen System zur Umfeldüberwachung des Fahrzeugs nach einer ersten Ausführungsform, -
2 eine Draufsicht des Fahrzeugs gemäß1 , -
3 eine schematische Draufsicht des Fahrzeugs mit dem System zur Umfeldüberwachung des Fahrzeugs gemäß einer zweiten Ausführungsform, -
4a eine Darstellung eines RGB-Bildes eines Fahrzeugumfelds, -
4b eine Darstellung einer Tiefenaufnahme eines Fahrzeugumfelds, -
4c eine Darstellung einer anhand des RGB-Bildes nach4a und anhand der Tiefenaufnahme nach4b ausgewerteten Aufnahme nach einem ersten Beispiel, -
5a eine Darstellung einer ausgewerteten Aufnahme nach einem zweiten Beispiel, und -
5b eine schematische Darstellung eines Radarkegels nach einer Kategorisierung von erkannten Objekten.
-
1 a schematic perspective view of an electrically driven vehicle with a system according to the invention for monitoring the surroundings of the vehicle according to a first embodiment, -
2 a plan view of the vehicle according to FIG1 , -
3 a schematic plan view of the vehicle with the system for monitoring the vehicle's surroundings according to a second embodiment, -
4a a representation of an RGB image of a vehicle environment, -
4b a representation of a depth recording of a vehicle environment, -
4c a display based on the RGB image4a and based on the depth image4b evaluated recording according to a first example, -
5a a representation of an evaluated recording according to a second example, and -
5b a schematic representation of a radar cone after a categorization of detected objects.
Gemäß den
Nach
Auf dem Objekterfassungssystem 3 ist ein YOLO-Algorithmus (YOLO = „You Only Look Once“) bereitgestellt, welcher derart ausgebildet und antrainiert ist, dass Personen und Tiere im Umfeld 5 des Fahrzeugs 1 erkannt werden, wobei der YOLO-Algorithmus zudem derart ausgebildet ist, dass jedes Objekts 4 nur einmalig durch ein neuronales Netzwerk erkannt und analysiert wird. Der YOLO-Algorithmus bildet ein neuronales Netzwerk aus, welches ein einfaches und schnelles Mittel zur Erkennung von Objekten im Umfeld des Fahrzeugs anhand von Bildaufnahmen ist.A YOLO algorithm (YOLO=“You Only Look Once”) is provided on the
Das Objekterfassungssystem 3 gibt nach der Auswertung des RGB-Bildes sowie der Tiefenaufnahme einen Zuverlässigkeitswert für jedes potenziell erkannte Objekt 4 aus, wobei der Zuverlässigkeitswert, wenn ein Zuverlässigkeitsgrenzwert überschritten wird, das Vorhandensein des Objekts 4 im Umfeld 5 des Fahrzeugs 1 bestätigt. Ist der Zuverlässigkeitsgrenzwert für das potenzielle Objekt 4 nicht erreicht oder überschritten, so wird das Vorhandensein des jeweiligen Objekts 4 verneint. Eine erneute Analyse desselben Objekts 4 bzw. des potenziellen Objekts 4 erfolgt zu einem späteren Zeitpunkt nicht mehr. Anders gesagt werden die Aufnahmen, das heißt das jeweilige RGB-Bild und die jeweilige Tiefenaufnahme, überlagert, was durch den Pfeil 8 dargestellt ist, wobei das Objekterkennungssystem 3 mittels des YOLO-Algorithmus eine Lokalisierung des Objekts relativ zur Sensorik 2 bzw. zum Fahrzeug 1 durchführt. Dazu wird, wie in
In Anschluss an die Objekterkennung erfolgt eine Kategorisierung des jeweiligen erkannten Objekts 4 in eine von drei dynamisch variierende Sicherheitszonen 6a, 6b, 6c sowie in eine von drei innerhalb jeder Sicherheitszone 6a, 6b, 6c definierten, dynamisch variierende Distanzgruppen 10a, 10b, 10c. Eine erste Sicherheitszone 6a liegt in Fahrtrichtung 14 unmittelbar vor dem Fahrzeug 1, wobei jeweils eine weitere Sicherheitszone 6b, 6c in Fahrtrichtung 14 links bzw. rechts neben der ersten Sicherheitszone 6a liegen. Die Gefahr eines Zusammenstoßes des Fahrzeugs 1 mit dem Objekt 4 ist, wenn sich das Objekt 4 in der ersten Sicherheitszone 6a befindet, höher als wenn sich das Objekt 4 in der zweiten oder dritten Sicherheitszone 6b, 6c befindet, da sich das Objekt 4 in Fahrtrichtung 14 direkt vor dem Fahrzeug 1 liegt. Auch mehr als drei Sicherheitszonen 6a, 6b, 6c sind je nach Anwendungsfall denkbar. Jede Sicherheitszone 6a, 6b, 6c ist ausgehend von der Sensorik 2 in Längsrichtung in jeweils drei Distanzgruppen 10a, 10b, 10c unterteilt, und zwar in die Gruppen „nah“, „fern“ und „weit entfernt“.Subsequent to the object detection, the respective detected
Mittels des YOLO-Algorithmus erfolgt eine Kategorisierung der erkannten Objekte 4 in die Sicherheitszonen 6a, 6b, 6c und in die Distanzgruppen 10a, 10b, 10c. Vorliegend ist ein erstes Objekt 4 der ersten Sicherheitszone 6a sowie der dazugehörigen zweiten Distanzgruppe 10b „fern“ zugeordnet. Ein zweites Objekt 4 ist der zweiten Sicherheitszone 6b sowie der dazugehörigen dritten Distanzgruppe 10c „weit entfernt“ zugeordnet, und ein drittes Objekt 4 ist der dritten Sicherheitszone 6c sowie der dazugehörigen ersten Distanzgruppe 10a zugeordnet.The detected objects 4 are categorized into the
Sowohl die Form und Größe der jeweiligen Sicherheitszone 6a, 6b, 6c als auch die Form und Größe der jeweiligen Distanzgruppe 10a, 10b, 10c sind im Wesentlichen abhängig von der aktuellen Fahrzeuggeschwindigkeit sowie dem Anwendungsgebiet des Fahrzeugs 1. Mithin sind sowohl die Sicherheitszonen 6a, 6b, 6c als auch die Distanzgruppen 10a, 10b, 10c dynamisch variierbar. Das Objekterfassungssystem 3 ist dazu mit einem - hier nicht dargestellten - Geschwindigkeitssensor des Fahrzeugs 1 verbunden, welcher Informationen über die Fahrzeuggeschwindigkeit zur Bestimmung der Form und Größe der Sicherheitszonen 6a, 6b, 6c bzw. der Distanzgruppen 10a, 10b, 10c bereitstellt.Both the shape and size of the
Die Koordinaten des Begrenzungsrahmens 12 sowie die Daten zur Kategorisierung des jeweiligen Objekts 4 werden dem Assistenzsystem 7 zur weiteren Verarbeitung zur Verfügung gestellt, wobei das Assistenzsystem 7 anhand dieser Informationen wenigstens eine sichere Höchstgeschwindigkeit des Fahrzeugs 1 an einen Fahrzeugnutzer ausgibt. Das System kann ferner eine - hier nicht gezeigte - Schnittstelle aufweisen, die dazu ausgebildet ist, die Informationen über die Position des lokalisierten und kategorisierten Objekts 4 bzw. der Objekte 4 an eine - hier ebenfalls nicht dargestellte - Steuereinheit des Fahrzeugs 1 zu übermitteln.The coordinates of the
Die Ausgabe der sicheren Höchstgeschwindigkeit an den Fahrzeugnutzer durch das Assistenzsystem 7 erfolgt vorliegend visuell über einen Bildschirm 13, der ebenfalls am Lenkergriff 11, und zwar vorliegend im Blickfeld des Fahrzeugnutzers befestigt ist, wobei ein zweidimensionaler Radarkegel 9 dargestellt wird, der sich aus den Sicherheitszonen 6a, 6b, 6c und den Distanzgruppen 10a, 10b, 10c zusammensetzt. In dem so erzeugten Raster werden die erkannten bzw. kategorisierten Objekten 4 eingefügt und entsprechend abgebildet. Ein solcher Radarkegel 9 ist exemplarisch in
Der zweidimensionale Radarkegel 9 weist die zuvor beschriebenen Sicherheitszonen 6a, 6b, 6c und die dazugehörigen Distanzgruppen 10a, 10b, 10c auf, wobei die Objekte 4, wie anhand der Bezugsrahmen 12 zu sehen ist, erfasst, erkannt und deren Koordinaten abgespeichert wurden und die Objekte 4 anschließend in Abhängigkeit ihrer Position relativ zum Fahrzeug 1 in die Sicherheitszonen 6a, 6b, 6c sowie die Distanzgruppen 10a, 10b, 10c kategorisiert werden. Alternativ oder ergänzend können dem Fahrzeugnutzer auch durch geeignete Mittel haptisch und/oder akustisch bestimmte Informationen bezüglich der Position des Objekts 4 relativ zum Fahrzeug 1 übermittelt werden. Beispielsweise können durch Anpassung einer Vibrationsstärke einer am Lenkergriff 11 angeordneten, haptischen Ausgabeeinheit Informationen über die Position und/oder Entfernung eines Objekts 4 relativ zum Fahrzeug 1 wiedergegeben bzw. bereitgestellt werden.The two-
Das System gemäß dem alternativen Ausführungsbeispiel nach
Alternativ ist denkbar, dass das System drei separate Objekterkennungssysteme 3 umfasst, die jeweils eine Sensorik 2 mit einer RGB-Kamera 2a zur Erstellung von RGB-Bildern des Umfeldes 5 des Fahrzeugs 1 sowie eine Stereo-Infrarotkamera 2b zur Erstellung von Tiefenaufnahmen des Umfeldes 5 des Fahrzeugs 1 umfasst. Die Objekterkennungssysteme 3 können in geeigneter Weise mit dem Assistenzsystem 7 kommunizieren, welches die Informationen entsprechend empfängt und in der zuvor beschriebenen Weise weiterverarbeitet.Alternatively, it is conceivable that the system comprises three separate
BezugszeichenlisteReference List
- 11
- Fahrzeugvehicle
- 22
- Sensoriksensors
- 2a2a
- RGB-KameraRGB camera
- 2b2 B
- Stereo-InfrarotkameraStereo infrared camera
- 33
- Objekterkennungssystemobject detection system
- 44
- Objektobject
- 55
- Umfeld des Fahrzeugsenvironment of the vehicle
- 6a, 6b, 6c6a, 6b, 6c
- Sicherheitszonesafety zone
- 77
- Assistenzsystemassistance system
- 88th
- Pfeilarrow
- 99
- Radarkegelradar cone
- 10a, 10b, 10c10a, 10b, 10c
- Distanzgruppedistance group
- 1111
- Lenkergriffhandlebar grip
- 1212
- Begrenzungsrahmenbounding box
- 1313
- Bildschirmscreen
- 1414
- Fahrtrichtungdriving direction
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 2019/0042865 A1 [0002]US 2019/0042865 A1 [0002]
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020120845.6A DE102020120845A1 (en) | 2020-08-07 | 2020-08-07 | Method and system for monitoring the surroundings of an at least partially electrically powered vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102020120845.6A DE102020120845A1 (en) | 2020-08-07 | 2020-08-07 | Method and system for monitoring the surroundings of an at least partially electrically powered vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102020120845A1 true DE102020120845A1 (en) | 2022-02-10 |
Family
ID=79686349
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102020120845.6A Withdrawn DE102020120845A1 (en) | 2020-08-07 | 2020-08-07 | Method and system for monitoring the surroundings of an at least partially electrically powered vehicle |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102020120845A1 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190042865A1 (en) | 2017-04-25 | 2019-02-07 | Uber Technologies, Inc. | Image-Based Pedestrian Detection |
-
2020
- 2020-08-07 DE DE102020120845.6A patent/DE102020120845A1/en not_active Withdrawn
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190042865A1 (en) | 2017-04-25 | 2019-02-07 | Uber Technologies, Inc. | Image-Based Pedestrian Detection |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102016122481B4 (en) | Method for determining the snow-covered surface condition of a roadway | |
| DE102018132525A1 (en) | Method and device for evaluating a vehicle driving surface | |
| DE102018203591B3 (en) | Method and system for classifying road users | |
| DE102016211182A1 (en) | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map | |
| DE102019203712B4 (en) | Method for training at least one algorithm for a control unit of a motor vehicle, computer program product, motor vehicle and system | |
| WO2015000882A1 (en) | Assistance system and assistance method for support when controlling a motor vehicle | |
| WO2019063341A1 (en) | METHOD FOR DETECTING A ROAD TECHNOLOGY FOR A CAR FOR A MOTOR VEHICLE, DRIVER ASSISTANCE SYSTEM AND MOTOR VEHICLE | |
| DE102019105630B4 (en) | Display control device, vehicle surroundings display system and computer program | |
| DE102019125921A1 (en) | Occupant modeling device, occupant modeling method and occupant modeling program | |
| DE102013019371A1 (en) | Method for operating a driver assistance system for protecting a motor vehicle from damage during a maneuvering process and motor vehicle | |
| DE102019214558A1 (en) | PROJECTION INFORMATION RECOGNITION DEVICE BASED ON AN ARTIFICIAL NEURAL NETWORK AND PROCESSES OF THE SAME | |
| DE102021107523A1 (en) | METHOD OF OPERATING A PARKING ASSISTANCE SYSTEM, COMPUTER PROGRAM PRODUCT, PARKING ASSISTANCE SYSTEM AND VEHICLE | |
| EP2942253B1 (en) | Motor vehicle | |
| EP4239592A1 (en) | Computer-implemented method for detecting a new object in an interior of a train | |
| DE102016101149A1 (en) | A method for detecting smoke in an environmental area of a motor vehicle with the aid of a camera of the motor vehicle, driver assistance system and motor vehicle | |
| DE102019201690A1 (en) | Procedure and assistance system for monitoring the surroundings of an ego vehicle | |
| DE102020120845A1 (en) | Method and system for monitoring the surroundings of an at least partially electrically powered vehicle | |
| DE102017218773A1 (en) | Method and device for driving an actuator | |
| DE102008002567A1 (en) | Image data processing method | |
| EP3884427A1 (en) | Method and system for determining a driving corridor | |
| DE102019121919A1 (en) | Identification of soiling on a roadway | |
| WO2024056698A1 (en) | System for detecting the future walking intention of a pedestrian in an environment, vehicle and traffic monitoring system | |
| DE102020130886B4 (en) | Method, system and computer program product for detecting movements of the vehicle body in a motor vehicle | |
| DE102012214720A1 (en) | Method for operating object recognition system in motor vehicle, involves providing stereo video images generated from images of three cameras, where monitoring program runs on processor core for generating stereo video image | |
| DE102022113992A1 (en) | Method, system and computer program product for interactive communication between a moving object and a user |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |