DE102022106248A1 - System for controlling a camera to support human verification of sensor information - Google Patents
System for controlling a camera to support human verification of sensor information Download PDFInfo
- Publication number
- DE102022106248A1 DE102022106248A1 DE102022106248.1A DE102022106248A DE102022106248A1 DE 102022106248 A1 DE102022106248 A1 DE 102022106248A1 DE 102022106248 A DE102022106248 A DE 102022106248A DE 102022106248 A1 DE102022106248 A1 DE 102022106248A1
- Authority
- DE
- Germany
- Prior art keywords
- feature
- camera
- vehicle
- processor
- lidar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096725—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Atmospheric Sciences (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
Ein Kamerasteuersystem wird zum Steuern des Betriebs einer Kamera (126, 148) bereitgestellt, die an einem Fahrzeug (100) montiert ist. Das System umfasst einen Prozessor (110) und einen Speicher (115), der kommunizierbar mit dem Prozessor verbunden ist. Der Speicher speichert ein Kamerasteuermodul (141), das konfiguriert ist, einen Erkennungskonfidenzgrad, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert zu vergleichen und als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert liegt, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, den Betrieb der Kamera (126, 148) steuert, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs (100) aufzunehmen.A camera control system is provided for controlling the operation of a camera (126, 148) mounted on a vehicle (100). The system includes a processor (110) and a memory (115) communicably coupled to the processor. The memory stores a camera control module (141) configured to compare a detection confidence level associated with a feature to a predetermined threshold and in response to the detection confidence level being below the predetermined threshold and using location information associated with the associated with the feature controls operation of the camera (126, 148) to capture at least one image of the feature during movement of the vehicle (100).
Description
Die vorliegende Offenbarung betrifft die Interpretation von Fahrzeugsensordaten, um ein erfasstes Objekt zu erkennen, und insbesondere die menschliche Überprüfung von Sensordaten, um die Daten mit einem erkannten Objekt zum Zweck der Aktualisierung von Objekterkennungsfähigkeiten von Fahrzeugsensorsystemen zu korrelieren.The present disclosure relates to interpreting vehicle sensor data to detect a sensed object, and more particularly to human review of sensor data to correlate the data to a detected object for the purpose of updating object detection capabilities of vehicle sensor systems.
Fahrzeuge enthalten üblicherweise Lidar- und Radarsensoren, um Merkmale in einer Umgebung eines Fahrzeugs zu erfassen. Das Fahrzeug kann auch Sensordatenverarbeitungsroutinen und Hardware enthalten, die konfiguriert sind, um die Sensordaten zu interpretieren, um zu versuchen, erfasste Merkmale zu erkennen und/oder zu kategorisieren, zum Beispiel durch Vergleichen mit gespeicherten Informationen, die bekannte und zuvor angetroffene Merkmale beschreiben. Einige erfasste Merkmale können jedoch von den Sensordatenverarbeitungsroutinen nicht erkennbar sein, zum Beispiel, weil das Merkmal noch nie zuvor angetroffen wurde, wegen des Zustands des erfassten Merkmals oder weil ein Winkel, in dem das Merkmal von dem Sensor „betrachtet“ wird, es schwierig macht, die verarbeiteten Daten akkurat mit bekannten Merkmalen zu vergleichen. Es existiert auch Software zum Erzeugen von zweidimensionalen und dreidimensionalen Darstellungen von Sensordaten (z.B. Punktwolken) zur Überprüfung durch den Menschen. Aufgrund von Einschränkungen einer solchen Software kann die genaue Identität eines erfassten Objekts jedoch selbst für einen menschlichen Prüfer, der die erzeugte Darstellung des Merkmals überprüft, unklar sein.Vehicles typically include lidar and radar sensors to detect features in a vehicle's surroundings. The vehicle may also include sensor data processing routines and hardware configured to interpret the sensor data to attempt to recognize and/or categorize sensed features, for example by comparing to stored information describing known and previously encountered features. However, some detected features may not be recognizable by the sensor data processing routines, for example because the feature has never been encountered before, because of the state of the detected feature, or because an angle at which the feature is "viewed" by the sensor makes it difficult to accurately compare the processed data to known characteristics. Software also exists for generating two-dimensional and three-dimensional representations of sensor data (e.g., point clouds) for human review. However, due to limitations of such software, the precise identity of a detected object may be unclear even to a human examiner examining the generated representation of the feature.
In einem Aspekt der hierin beschriebenen Ausführungsbeispiele wird ein Kamerasteuersystem zum Steuern des Betriebs einer Kamera bereitgestellt, die an einem Fahrzeug montiert ist. Das System enthält einen Prozessor und einen Speicher, der kommunizierbar mit dem Prozessor verbunden ist. Der Speicher speichert ein Kamerasteuermodul, das computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor bewirken, dass der Prozessor einen Erkennungskonfidenzgrad, der einem Merkmal in einer Umgebung des Fahrzeugs zugeordnet ist, mit einem vorgegebenen Schwellenwert vergleicht und, als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, den Betrieb der Kamera steuert, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.In one aspect of the embodiments described herein, a camera control system for controlling operation of a camera mounted on a vehicle is provided. The system includes a processor and a memory communicably coupled to the processor. The memory stores a camera control module that includes computer-readable instructions that, when executed by the processor, cause the processor to compare a detection confidence level associated with a feature in an area surrounding the vehicle to a predetermined threshold and, in response, the detection confidence level is below the predetermined threshold and, by using location information associated with the feature, controls operation of the camera to capture at least one image of the feature during movement of the vehicle.
In einem weiteren Aspekt der hierin beschriebenen Ausführungsbeispiele wird ein Verfahren zum Steuern des Betriebs einer Kamera bereitgestellt, die an einem Fahrzeug montiert ist. Das Verfahren beinhaltet folgende Schritte: Vergleichen eines Erkennungskonfidenzgrades, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert und, als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, Steuern des Betriebs der Kamera, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.In another aspect of the embodiments described herein, a method for controlling operation of a camera mounted on a vehicle is provided. The method includes the steps of: comparing a recognition confidence level associated with a feature to a predetermined threshold and, in response to the recognition confidence level being below the predetermined threshold, and using location information associated with the feature, controlling operation the camera to capture at least one image of the feature during movement of the vehicle.
In einem weiteren Aspekt der hierin beschriebenen Ausführungsbeispiele wird ein nichtflüchtiges computerlesbares Medium zum Steuern des Betriebs einer Kamera bereitgestellt, die an einem Fahrzeug montiert ist. Das Medium hat darin gespeicherte Anweisungen, die, wenn diese von einem Computersystem ausgeführt werden, bewirken, dass das Computersystem Funktionen durchführt, die enthalten: Vergleichen eines Erkennungskonfidenzgrades, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert und, als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, Steuern des Betriebs der Kamera, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.In another aspect of the embodiments described herein, a non-transitory computer-readable medium for controlling operation of a camera mounted on a vehicle is provided. The medium has instructions stored thereon which, when executed by a computer system, cause the computer system to perform functions including: comparing a detection confidence level associated with a feature to a predetermined threshold and, in response to the detection confidence level is below the predetermined threshold, and by using location information associated with the feature, controlling operation of the camera to capture at least one image of the feature during movement of the vehicle.
Die zugehörigen Zeichnungen, die in die Beschreibung aufgenommen sind und einen Teil davon bilden, stellen verschiedene Systeme, Verfahren und andere Ausführungsbeispiele der Offenbarung dar. Es versteht sich, dass die dargestellten Elementgrenzen (z.B. Kästen, Gruppen von Kästen oder andere Formen) in den Figuren ein Ausführungsbeispiel der Grenzen darstellen. In einigen Ausführungsbeispielen kann ein Element als mehrere Elemente konzipiert sein oder mehrere Elemente können als ein Element konzipiert sein. In einigen Ausführungsbeispielen kann ein Element, das als eine interne Komponente eines anderen Elements gezeigt ist, als eine externe Komponente implementiert sein und umgekehrt. Außerdem können gegebenenfalls Elemente nicht maßstabsgetreu gezeichnet sein.
-
1 ist ein schematisches Blockdiagramm eines Fahrzeugs, das ein Kamerasteuersystem gemäß hierin beschriebenen Ausführungsbeispielen enthält. -
2 ist ein Ablaufdiagramm, das den Betrieb eines Kamerasteuersystems gemäß einem hierin beschriebenen Ausführungsbeispiel darstellt. -
3 ist eine schematische Draufsicht eines Fahrzeugs, das sich während des Betriebs des Kamerasteuersystems gemäß einem hierin beschriebenen Ausführungsbeispiel entlang einer Straße bewegt.
-
1 1 is a schematic block diagram of a vehicle including a camera control system according to embodiments described herein. -
2 FIG. 12 is a flow chart illustrating the operation of a camera control system according to an embodiment described herein. -
3 12 is a schematic plan view of a vehicle that moves during operation of the camera control system according to a herein described embodiment moves along a road.
Hierin beschriebene Ausführungsbeispiele betreffen ein Kamerasteuersystem zum Steuern des Betriebs einer Kamera, die an einem Fahrzeug montiert ist. Das System enthält einen Prozessor und einen Speicher, der kommunizierbar mit dem Prozessor verbunden ist. Der Speicher speichert ein Kamerasteuermodul, das konfiguriert ist, einen Erkennungskonfidenzgrad, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert zu vergleichen. Als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, wird der Betrieb der Kamera gesteuert, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen. Das aufgenommene Bild kann zeitlich mit Lidar- und/oder Radardaten bezüglich des erfassten Merkmals korreliert und gleichzeitig mit dem Kamerabild bezogen werden. Wenn der Konfidenzgrad unter dem vorgegebenen Schwellenwert liegt, können die zeitkorrelierten Kamerabilder und verarbeiteten Lidar-/Radarinformationen an einen menschlichen Prüfer weitergeleitet werden. Der menschliche Prüfer kann die Lidar-/Radarinformationen vergleichen und mit Kamerabildern des tatsächlichen Merkmals in Beziehung setzen, das in den Lidar-/Radarinformationen dargestellt ist. Wenn die Lidar-/Radarinformationen kategorisiert oder einem tatsächlich bekannten Merkmal zugeordnet werden, können die neu bezogenen Lidar-/Radarinformationen in Bezug auf das Merkmal zu einem Katalog bekannter Lidar-/Radarinformationen hinzugefügt werden, die dem Merkmal zugeordnet sind, wodurch die Ressourcendatenbank erweitert wird, die für den Vergleich mit neu bezogenen Lidar-/Radarinformationen verwendet wird. Dies kann die zukünftige Erkennung dieses Merkmals oder eines ähnlichen Merkmals in anderen Fahrzeugen erleichtern, die dieselbe Datenbank als eine Quelle bekannter Lidar-/Radarinformationen zum Vergleich verwenden.Embodiments described herein relate to a camera control system for controlling operation of a camera mounted on a vehicle. The system includes a processor and a memory communicably coupled to the processor. The memory stores a camera control module configured to compare a recognition confidence level associated with a feature to a predetermined threshold. In response to the detection confidence level being below the predetermined threshold and using location information associated with the feature, operation of the camera is controlled to capture at least one image of the feature as the vehicle moves. The captured image can be temporally correlated with lidar and/or radar data regarding the detected feature and obtained simultaneously with the camera image. If the confidence level is below the predetermined threshold, the time-correlated camera images and processed lidar/radar information can be forwarded to a human examiner. The human inspector can compare and correlate the lidar/radar information with camera images of the actual feature represented in the lidar/radar information. When the lidar/radar information is categorized or associated with an actual known feature, the newly obtained lidar/radar information related to the feature can be added to a catalog of known lidar/radar information associated with the feature, thereby expanding the resource database , which is used for comparison with newly acquired lidar/radar information. This may facilitate future detection of that feature or a similar feature in other vehicles using the same database as a source of known lidar/radar information for comparison.
Das Fahrzeug 100 enthält auch verschiedene Elemente. Es versteht sich, dass es in verschiedenen Ausführungsbeispielen möglicherweise nicht erforderlich ist, dass das Fahrzeug 100 alle in
Einige der möglichen Elemente des Fahrzeugs 100 sind in
In einigen Fällen kann das Fahrzeug 100 konfiguriert sein, selektiv zwischen einem autonomen Modus, einem oder mehreren halbautonomen Betriebsmodi und/oder einem manuellen Modus umzuschalten. Ein solches Umschalten kann in geeigneter Weise implementiert werden, die jetzt bekannt ist oder später entwickelt wird. „Manueller Modus“ bedeutet, dass die gesamte oder ein Großteil der Navigation und/oder des Manövrierens des Fahrzeugs gemäß Eingaben durchgeführt wird, die von einem Benutzer (z.B. einem menschlichen Fahrer) empfangen werden. Bei einer oder mehreren Anordnungen kann das Fahrzeug 100 ein herkömmliches Fahrzeug sein, das konfiguriert ist, nur in einem manuellen Modus betrieben zu werden.In some cases, the
In einem oder mehreren Ausführungsbeispielen ist das Fahrzeug 100 ein autonomes Fahrzeug. Wie hierin verwendet, betrifft „autonomes Fahrzeug“ ein Fahrzeug, das in einem autonomen Modus betrieben werden kann. „Autonomer Modus“ bezieht sich auf das Navigieren und/oder Manövrieren des Fahrzeugs 100 entlang einer Fahrtroute durch Verwendung eines oder mehrerer Computersysteme, um das Fahrzeug 100 mit minimaler oder keiner Eingabe von einem menschlichen Fahrer zu steuern. In einem oder mehreren Ausführungsbeispielen ist das Fahrzeug 100 hochautomatisiert oder vollständig automatisiert. In einer oder mehreren Anordnungen ist das Fahrzeug 100 mit einem oder mehreren halbautonomen Betriebsmodi konfiguriert, in denen ein oder mehrere Computersysteme einen Abschnitt der Navigation und/oder des Manövrierens des Fahrzeugs entlang einer Fahrtroute durchführen, und ein Fahrzeugführer (d.h. Fahrer) stellt dem Fahrzeug Eingaben bereit, um einen Abschnitt der Navigation und/oder des Manövrierens des Fahrzeugs 100 entlang der Fahrtroute durchzuführen.In one or more embodiments,
Ausführungsbeispiele des hierin beschriebenen Kamerasteuermoduls 141 können den Betrieb der Überprüfungsunterstützungskamera 148 für die hierin beschriebenen Zwecke autonom steuern, sowohl wenn das Fahrzeug in einem manuellen Modus als auch in einem autonomen Modus betrieben wird. Das Kamerasteuermodul 141 kann nach Bedarf mit dem Autonomes-Fahren-Modul 160 eine Schnittstelle bilden, um die autonome Steuerung der Kamera 148 zu erleichtern.Embodiments of the
Das Fahrzeug 100 kann einen oder mehrere Prozessoren 110 enthalten. In einer oder mehreren Anordnungen kann/können der/die Prozessor(en) 110 ein Hauptprozessor/Hauptprozessor(en) des Fahrzeugs 100 sein. Zum Beispiel kann/können der/die Prozessor(en) 110 eine elektronische Steuereinheit sein (ECU). Das Fahrzeug 100 kann einen oder mehrere Datenspeicher 115 zum Speichern von einem oder mehreren Datentypen enthalten. Der/Die Datenspeicher 115 kann/können flüchtige und/oder nicht flüchtige Speicher enthalten. Beispiele geeigneter Datenspeicher 115 enthalten RAM (Random Access Memory), Flash-Speicher, ROM (Read Only Memory), PROM (Programmable Read Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), Register, Magnetplatten, optische Platten, Festplatten oder jedes andere geeignete Speichermedium oder jede Kombination davon. Der/Die Datenspeicher 115 kann/können eine Komponente des/der Prozessor(en) 110 sein, oder der/die Datenspeicher 115 kann/können mit dem/den Prozessor(en) 110 zur Verwendung durch diesen operativ verbunden sein. Der Begriff „operativ verbunden“, wie er in dieser Beschreibung verwendet wird, kann direkte oder indirekte Verbindungen enthalten, einschließlich Verbindungen ohne direkten physischen Kontakt.The
Der eine oder die mehreren Datenspeicher 115 können Sensordaten 119 enthalten. In diesem Zusammenhang bedeutet „Sensordaten“ beliebige Informationen über die Sensoren, mit denen das Fahrzeug 100 ausgestattet ist, einschließlich der Fähigkeiten und anderer Informationen über solche Sensoren. Wie nachfolgend erläutert wird, kann das Fahrzeug 100 das Sensorsystem 120 enthalten. Die Sensordaten 119 können sich auf einen oder mehrere Sensoren des Sensorsystems 120 beziehen. Als ein Beispiel können die Sensordaten 119 in einer oder mehreren Anordnungen Betriebsinformationen und Spezifikationen zu Radarsensor(en) 109, Lidarsensor(en) 125 und Kamera(s) 126 des Sensorsystems 120 enthalten. Der/Die Datenspeicher 115 kann/können operativ mit der drahtlosen Fahrzeugkommunikationsschnittstelle 169 verbunden sein, um Informationen an eine Cloud oder eine andere Entität außerhalb des Fahrzeugs zu übertragen.The one or
In einem oder mehreren Anordnungen können der eine oder die mehreren Datenspeicher 115 Kartendaten 189 enthalten. Die Kartendaten 189 können Karten von einem oder mehreren geografischen Gebieten enthalten. In einigen Fällen können die Kartendaten 189 Informationen oder Daten zu Straßen, Verkehrsregelungsvorrichtungen, Straßenmarkierungen, Strukturen, interessanten Merkmalen und/oder Orientierungspunkten in dem einen oder den mehreren geografischen Gebieten enthalten. Die Kartendaten 189 können in jeder geeigneten Form vorliegen. In einigen Fällen können die Kartendaten 189 Luftaufnahmen eines Gebiets enthalten. In einigen Fällen können die Kartendaten 189 Bodenansichten eines Gebiets enthalten, einschließlich 360-Grad-Bodenansichten. Die Kartendaten 189 können Messungen, Abmessungen, Entfernungen und/oder Informationen für ein oder mehrere in den Kartendaten 189 enthaltene Elemente und/oder in Bezug auf andere in den Kartendaten 189 enthaltene Elemente beinhalten. Die Kartendaten 189 können eine digitale Karte mit Informationen über Stra-ßengeometrie, Straßengefälle und Steigungen und andere Straßeninformationen enthalten, einschließlich Informationen über die Straße, auf der das Fahrzeug 100 gerade fährt. Die Kartendaten 189 können von hoher Qualität und/oder sehr detailliert sein. In einer oder mehreren Anordnungen können die Kartendaten 189 kontinuierlich (d.h. sobald Informationen bezüglich Revisionen verfügbar werden) oder regelmäßig von einer Cloud-Quelle oder einer anderen Quelle außerhalb des Fahrzeugs aktualisiert werden. Informationen aus den Kartendaten 189 können verwendet werden, um Standortinformationen in Bezug auf Merkmale der Umgebung zu bestimmen, die durch Lidar- und Radar-Scans erfasst werden.In one or more arrangements, the one or
Die Kamerabildinformationen 165 können Bilder (wie beispielsweise digitale Bilder) von Merkmalen der Umgebung enthalten, die von einer Kamera (wie beispielsweise der Überprüfungsunterstützungskamera 148) aufgenommen und/oder aus Daten erzeugt werden, die von der Kamera bezogen werden. Die Kamerabildinformationen 165 können Kamerabilddaten enthalten, aus denen Kamerabilder erzeugt werden können, die von einem menschlichen Prüfer betrachtet werden können. Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die beim Ausführen durch den Prozessor bewirken, dass der Prozessor Kamerabildinformationen 165 mit gleichzeitig bezogenen Lidar-Scan-Informationen und/oder Radar-Scan-Informationen zeitlich korreliert (z.B. können Kamerabilddaten zeitlich mit Lidardaten und/oder Radardaten verknüpft werden, die gleichzeitig mit den Lidar- und/oder Radardaten bezogen werden). Somit kann zum Beispiel ein Kamerabild, das von der Überprüfungsunterstützungskamera 148 um 14:05 Uhr während einer Tagesfahrt mit dem Fahrzeug aufgenommen wurde, mit einem Lidar-Scan zeitlich korreliert werden, der von einem Lidarsensor 125 um 14:05 Uhr während der Tagesfahrt durchgeführt wird.
Die Lidar-Scan-Informationen 118 können Scandaten enthalten, die von einem Lidarsensor 125 während eines Lidar-Scans erfasst werden, Standortinformationen, die Standorte von Merkmalen beschreiben, die durch Lidar-Scans erkannt werden, computergenerierte Identifikationen und/oder Klassifikationen der Merkmale, Konfidenzgrade in Bezug auf die Merkmalsidentifikationen, Informationen, die Punktwolken beschreiben, die aus zugehörigen Lidar-Scans erzeugt werden, Daten und Tageszeiten, zu denen die zugehörigen Lidar-Scans durchgeführt werden, Informationen, die bekannte oder identifizierte Punktwolkenkonfigurationen zum Zweck des Vergleichens mit neu bezogenen Scandaten und zugehörigen Punktwolken beschreiben, und andere Informationen in Bezug auf Lidar-Scans, die von einem Lidarsensor 125 durchgeführt werden. Wie zuvor angegeben, können die Lidar-Scan-Informationen mit gleichzeitig bezogenen Kamerabildinformationen und/oder Radar-Scan-Informationen zeitlich korreliert werden (d.h. Lidardaten können mit Kamerabildern und/oder Radardaten zeitlich verknüpft werden, die gleichzeitig mit Kamerabildern und/oder Radardaten bezogen werden). Durch Verwendung der aus Lidar- und/oder Radar-Scans erfassten Daten können der/die Prozessor(en) 110 Punktwolken erzeugen, die für in der Fahrzeugumgebung erfasste Merkmale repräsentativ sind.The
Die Radar-Scan-Informationen 123 können Scandaten enthalten, die von einem Radarsensor 109 während eines Radar-Scans erfasst werden, Standortinformationen, die Standorte von Merkmalen beschreiben, die durch Radar-Scans erfasst werden, computergenerierte Identifikationen und/oder Klassifikationen der Merkmale, Konfidenzgrade in Bezug auf die Merkmalsidentifikationen, Informationen, die Punktwolken beschreiben, die aus zugehörigen Radar-Scans erzeugt werden, Daten und Tageszeiten, zu denen zugehörige Radar-Scans durchgeführt werden, Informationen, die bekannte oder identifizierte Punktwolkenkonfigurationen zum Zweck des Vergleichens mit neu bezogenen Scandaten und zugehörigen Punktwolken beschreiben, und andere Informationen in Bezug auf Radar-Scans, die von einem Radarsensor 109 durchgeführt werden. Wie zuvor angegeben, können die Radar-Scan-Informationen mit gleichzeitig bezogenen Kamerabildinformationen und/oder Radar-Scan-Informationen zeitlich korreliert werden (d.h. Lidardaten können mit Kamerabildern und/oder Radardaten zeitlich verknüpft werden, die gleichzeitig mit Kamerabildern und/oder Radardaten bezogen werden.The
Durch Verwendung der Daten, die aus Lidar- und/oder Radar-Scans bezogen werden, können der/die Prozessor(en) 110 auf bekannte Weise Punktwolken erzeugen, die für in der Fahrzeugumgebung erfasste Merkmale repräsentativ sind.Using the data obtained from lidar and/or radar scans, the processor(s) 110 can generate point clouds representative of features detected in the vehicle environment in a known manner.
Wie zuvor angemerkt, kann das Fahrzeug 100 das Sensorsystem 120 enthalten. Das Sensorsystem 120 kann einen oder mehrere Sensoren enthalten. „Sensor“ bezeichnet jede Vorrichtung, jede Komponente und/oder jedes System, das etwas erfassen und/oder messen kann. Der eine oder die mehreren Sensoren können konfiguriert sein, um in Echtzeit zu erfassen und/oder zu messen. Wie hierin verwendet, bedeutet der Begriff „Echtzeit“ ein Grad bzw. Maß an Verarbeitungsreaktionsfähigkeit, den ein Benutzer oder System als ausreichend unmittelbar wahrnimmt, damit ein bestimmter Prozess oder eine Bestimmung durchgeführt werden kann, oder das es dem Prozessor ermöglicht, mit einem externen Prozess Schritt zu halten. Bei Anordnungen, bei denen das Sensorsystem 120 eine Mehrzahl von Sensoren enthält, können die Sensoren unabhängig voneinander arbeiten. Alternativ können zwei oder mehr der Sensoren in Kombination miteinander arbeiten. Dabei können die zwei oder mehr Sensoren ein Sensornetzwerk ausbilden. Das Sensorsystem 120 und/oder der eine oder die mehreren Sensoren können mit dem/den Prozessor(en) 110, dem/den Datenspeicher(n) 115 und/oder anderen Element(en) des Fahrzeugs 100 operativ verbunden sein (einschließlich eines beliebigen der Elemente, die in
Das Sensorsystem 120 kann jeden geeigneten Sensortyp enthalten. Hierin werden verschiedene Beispiele unterschiedlicher Arten von Sensoren beschrieben. Es versteht sich jedoch, dass die Ausführungsbeispiele nicht auf die beschriebenen speziellen Sensoren beschränkt sind. Hierin werden verschiedene Beispiele von Sensoren des Sensorsystems 120 beschrieben. Die beispielhaften Sensoren können Teil des einen oder der mehreren Umgebungssensoren 122 und/oder des einen oder der mehreren Fahrzeugsensoren 121 sein. Es versteht sich jedoch, dass die Ausführungsbeispiele nicht auf die beschriebenen speziellen Sensoren beschränkt sind. Das Sensorsystem 120 kann beliebige Sensoren enthalten, die geeignet und/oder erforderlich sind, um beliebige der hier in Betracht gezogenen Datenbezugs- und/oder Fahrzeugsteuerungsvorgänge durchzuführen.
Sensoren des Sensorsystems 120 können kommunizierbar mit den verschiedenen Systemen und Komponenten des Fahrzeugs 100 verbunden bzw. gekoppelt sein. Die Sensoren können operativ mit der drahtlosen Fahrzeugkommunikationsschnittstelle 169 verbunden sein, um Informationen an eine Cloud oder eine andere Speichereinrichtung oder für Fahrzeug-zu-Fahrzeug-(V2V)- oder Fahrzeug-zu-Alles-(V2X)-Kommunikationen zu übertragen. Die Sensoren können auch operativ mit anderen Fahrzeugsystemen und -komponenten verbunden sein, wie beispielweise Datenspeichern 115 und Prozessor(en) 110, um die Speicherung und Verarbeitung von Fahrzeug- und Umgebungssensordaten zu erleichtern. Das Vorhandensein der verschiedenen hierin beschriebenen Bedingungen können durch Verwendung von Sensordaten berechnet oder anderweitig bestimmt werden.Sensors of the
Sensoren des Sensorsystems 120 können einen oder mehrere Zeitgeber oder Uhren (nicht gezeigt) enthalten (oder operativ damit verbunden sein), die konfiguriert sind, um Bezug, Verfolgung, Speicherung, Erzeugung und/oder Verarbeitung von zeitkorrelierten Sensordaten und anderen Informationen wie hierin beschrieben zu ermöglichen. Diese zeitkorrelierten Informationen können einem menschlichen Prüfer bereitgestellt werden, um den Prüfer beim Zuordnen von Merkmalen, die durch Lidar- und Radar-Scans erfasst werden, mit physikalischen Merkmalen zu unterstützen, die in zugeordneten Kamerabildern gezeigt sind.Sensors of
Das Sensorsystem 120 kann einen oder mehrere Fahrzeugsensoren 121 enthalten. Der/die Fahrzeugsensor(en) 121 kann/können Informationen über das Fahrzeug 100 selbst und/oder Insassen innerhalb des Fahrzeugs erfassen, bestimmen und/oder messen. Der/die Fahrzeugsensor(en) 121 kann/können Sensoren enthalten, die konfiguriert sind, um Bedingungen und/oder Ereignisse innerhalb des Fahrzeuginnenraums oder der Fahrgastzelle zu erfassen. In einer oder mehreren Anordnungen kann/können der/die Fahrzeugsensor(en) 121 konfiguriert sein, um Positions- und Orientierungsänderungen des Fahrzeugs 100 zu erfassen und/oder zu messen, wie beispielsweise zum Beispiel basierend auf einer Trägheitsbeschleunigung. In einer oder mehreren Anordnungen kann/können der/die Fahrzeugsensor(en) 121 einen oder mehrere Beschleunigungsmesser, ein oder mehrere Gyroskope, eine Trägheitsmesseinheit (IMU), ein Koppelnavigationssystem, ein globales Satellitennavigationssystem (GNSS), ein globales Positionierungssystem (GPS), ein Navigationssystem 147 und/oder andere geeignete Sensoren enthalten. Der/die Fahrzeugsensor(en) 121 kann/können konfiguriert sein, um eine oder mehrere Eigenschaften des Fahrzeugs 100 zu erfassen und/oder zu messen, wie beispielsweise den aktuellen geografischen Standort des Fahrzeugs. In einer oder mehreren Anordnungen kann/können der/die Fahrzeugsensor(en) 121 einen Tachometer enthalten, um eine aktuelle Geschwindigkeit und Beschleunigung/Verlangsamung des Fahrzeugs 100 zu bestimmen. Der/die Fahrzeugsensor(en) 121 kann/können (nicht gezeigte) Fahrzeugrichtungssensoren enthalten, die konfiguriert sind, um eine aktuelle Fahrtrichtung des Fahrzeugs oder eine Richtung, in die das Fahrzeug weist, zu bestimmen. Der/die Fahrzeugsensor(en) 121 kann/können Sensoren enthalten, die konfiguriert sind, um Aspekte der mechanischen und elektrischen Komponenten und/oder Systeme des Fahrzeugs zu erfassen, um bei der Bestimmung eines mechanischen Zustands des Fahrzeugs und bestehender und/oder potenzieller Probleme mit dem Fahrzeug zu helfen.
Das Sensorsystem 120 kann einen oder mehrere Umgebungssensoren 122 enthalten, die konfiguriert sind, um Daten von zumindest einem Abschnitt der äußeren Umgebung des Fahrzeugs 100 (z.B. Objekte in der Nähe) zu beziehen. Die Umgebungssensoren 122 können Daten oder Informationen über die äußere Umgebung, in der sich das Fahrzeug befindet, oder einen oder mehrere Abschnitte davon erfassen. Zum Beispiel können die Umgebungssensoren 122 konfiguriert sein, um Hindernisse in zumindest einem Abschnitt der äußeren Umgebung des Fahrzeugs 100 und/oder Informationen/Daten über solche Hindernisse zu erfassen, zu quantifizieren und/oder zu messen. Solche Hindernisse können stationäre Objekte und/oder dynamische Objekte sein. Der eine oder die mehreren Umgebungssensoren 122 können konfiguriert sein, um andere Dinge in der äußeren Umgebung des Fahrzeugs 100 zu erfassen, zu ermitteln, zu quantifizieren und/oder zu messen, wie beispielsweise Fahrspurmarkierungen, Schilder, Ampeln, Verkehrszeichen, Fahrspurlinien, Zebrastreifen, Bordsteine in der Nähe des Fahrzeugs 100, Objekte im Gelände, Wetterbedingungen, andere Fahrzeuge usw. Als ein Beispiel können die Umgebungssensoren 122 in einer oder mehreren Anordnungen einen oder mehrere Radarsensoren 109, einen oder mehrere Lidarsensoren 125, eine oder mehrere Kameras 126 (einschließlich Überprüfungsunterstützungskamera 148) und/oder andere Arten von Sensoren 127 enthalten.The
Umgebungssensoren wie Lidarsensor(en) 125 und Radarsensor(en) 109 können betreibbar sein, um zu versuchen, Merkmale in der Fahrzeugumgebung zu erfassen und zu erkennen. Radar 109, Lidar 125, Kamera(s) 126 und/oder andere Sensoren können auch verwendbar sein, um die Geschwindigkeit, Beschleunigung, Position und andere Eigenschaften von Merkmalen in der Umgebung des Fahrzeugs 100 zu überwachen, wie beispielsweise Beschilderung, Blattwerk bzw. Laub, andere Fahrzeuge, Fußgänger usw. Die Umgebungssensoren 122 können konfiguriert sein, um Aspekte der Straßengeometrie, der Straßenqualität/-steigung, der Verkehrsbedingungen, der Bewegungen und Eigenschaften anderer Fahrzeuge, und andere externe Ereignisse und Bedingungen zu erfassen.Surrounding sensors such as lidar sensor(s) 125 and radar sensor(s) 109 may be operable to attempt to sense and recognize features in the vehicle's surroundings.
In einer oder mehreren Anordnungen können die Umgebungssensoren 122 konfiguriert sein, um (entweder alleine oder in Zusammenarbeit mit dem Navigationssystem 147 und dem Sensorsteuermodul 142) Standortinformationen in Bezug auf Merkmale der Fahrzeugumgebung, die von den Sensoren erfasst werden, zu bestimmen oder zu beziehen. Diese Standortinformationen können Sensordaten zugeordnet werden, um eine Bestimmung der Standorte von gescannten Merkmale in Bezug auf den Standort des Fahrzeugs 100 zu ermöglichen, wenn die Sensordaten bezogen werden.In one or more arrangements, the
„Standortinformationen“ können Informationen sein, die den Standort eines Merkmals, einer Punktwolke oder eines aus Lidardaten erzeugter Lidar-/Radardatenpunkts beschreiben, die ausreichend sind, um es dem Kamerasteuermodul 141 (nachfolgend beschrieben) zu ermöglichen, die Überprüfungsunterstützungskamera 148 auf den Standort oder das Merkmal zu richten und zu fokussieren. Die Standortinformationen können in Form von räumlichen Koordinaten oder in irgendeiner anderen Form vorliegen, die für die hierin beschriebenen Zwecke geeignet ist. „Räumliche Koordinaten“ beziehen sich auf eine numerische oder andere Bezeichnung, die einen Standort eines beliebigen Merkmals der Fahrzeugumgebung darstellt (einschließlich eines Merkmals der Fahrzeugumgebung mit niedrigem Erkennungskonfidenzgrad, wie hierin beschrieben). Es kann ein System räumlicher Koordinaten verwendet werden, das einen Standort mit einem Merkmal mit niedrigem Erkennungskonfidenzgrad bereitstellt, auf das die Überprüfungsunterstützungskamera versuchen kann, die Kamera zum Zweck der Bildaufnahme zu fokussieren.“Location Information” may be information describing the location of a feature, point cloud, or lidar/radar data point generated from lidar data sufficient to enable camera control module 141 (described below) to point
In dem Fall eines Merkmals mit niedrigem Erkennungskonfidenzgrad, das in Bezug auf die Erdoberfläche statisch ist, können die räumlichen Koordinaten einen Standort in Bezug auf einen Bezugsrahmen (z.B. auf der Erdoberfläche) darstellen, der in Bezug auf das sich bewegende Fahrzeug als fest betrachtet werden kann. In dem Fall eines Merkmals mit niedrigem Erkennungskonfidenzgrad, das sich relativ zu der Erdoberfläche bewegt, können die räumlichen Koordinaten einen aktuellen Standort des sich bewegenden Objekts relativ zu dem Fahrzeug selbst darstellen. Die räumlichen Koordinaten können kartesische, polare, geografische und/oder jede andere Art oder Arten von Koordinaten sein, die geeignet sind, einen Standort des Merkmals der Fahrzeugumgebung zu spezifizieren. Die räumlichen Koordinaten können einem erfassten Merkmal durch den/die Prozessor(en) 110 zugeordnet werden, die in Verbindung mit dem Fahrzeugnavigationssystem 147 betrieben werden und/oder Kartendaten 189 verwenden, nachdem ein Standort des Merkmals in Bezug auf das relevante Koordinatensystem bestimmt wurde.In the case of a low-confidence feature of detection that is static with respect to the surface of the earth, the spatial coordinates may represent a location with respect to a frame of reference (e.g., on the surface of the earth) that may be considered fixed with respect to the moving vehicle . In the case of a low-confidence feature of detection that is moving relative to the surface of the earth, the spatial coordinates may represent a current location of the moving object relative to the vehicle itself. The spatial coordinates may be Cartesian, polar, geographic, and/or any other type or types of coordinates suitable for specifying a location of the vehicle's environmental feature. The spatial coordinates may be associated with a detected feature by the processor(s) 110 operating in conjunction with the
Eine Überprüfungsunterstützungskamera 148 kann eine Kamera sein, die konfiguriert ist, Bilder von Merkmalen der Umgebung aufzunehmen oder Merkmale der Umgebung zu fotografieren. „Aufnehmen eines Bildes“ eines Merkmals kann das Beziehen von Daten enthalten, aus denen ein digitales Bild konstruiert werden kann. „Fotografieren“ durch die Überprüfungsunterstützungskamera kann das Aufnehmen eines Fotos durch Verwenden einer Kamera (z.B. eine Digitalkamera) oder das Beziehen von Daten enthalten, aus denen ein Foto (wie beispielsweise ein digitales Foto) erstellt werden kann.A
In einer oder mehreren Anordnungen kann die Überprüfungsunterstützungskamera 148 eine spezialisierte Kamera sein, die ausschließlich zum Fotografieren oder Aufnehmen von Bildern von Merkmalen mit niedrigem Erkennungskonfidenzgrad, wie hier beschrieben, bestimmt ist, zu Zwecken der Unterstützung der menschlichen Überprüfung von Informationen in Bezug auf die Merkmale mit niedrigem Erkennungskonfidenzgrad. Alternativ kann eine andere Kamera der Umgebungssensoren neu beauftragt werden, Überprüfungsunterstützungsfunktionen nach Bedarf und wie hierin beschrieben durchzuführen. In diesem Fall kann die bestimmte Überprüfungsunterstützungskamera weggelassen werden und die Steuerung der anderen Kamera kann von dem Sensorsteuermodul 142 auf das Kamerasteuermodul 141 übertragen werden, um Bilder aufzunehmen, die zur Unterstützung der menschlichen Überprüfung der Lidar-/Radar-Scaninformationen verwendbar sind.In one or more arrangements,
Die Überprüfungsunterstützungskamera 148 kann verschiedene Elemente enthalten, die konfiguriert sind, um durch das Kamerasteuermodul 141 steuerbar zu sein (nachfolgend ausführlicher beschrieben). Die Überprüfungsunterstützungskamera 148 kann eine Kamera, beliebige Kamerabefestigungen, Motor(en), Zahnräder, Mechanismen und/oder andere Elemente (nicht separat gezeigt) enthalten, die benötigt werden, um die Ausrichtung, das Sichtfeld und/oder den Fokus der Kamera 148 zu ermöglichen, um für die hierin beschriebenen Zwecke eingestellt zu werden. Die Kamera 148 kann nach Bedarf auch andere Elemente enthalten (nicht gezeigt).
Das Sichtfeld der Kamera 148 kann ein Raumvolumen (in Bezug auf eine aktuelle Position der Kamera) sein, auf das die Kameralinse gerichtet und fokussiert werden kann, um die Aufnahme eines Bildes eines Merkmals zu ermöglichen, das sich innerhalb des Raumvolumens befindet. Wenn dann die Kamera 148 so gesteuert wird, um ein Merkmal in dem Sichtfeld der Kamera zu enthalten, wird ein von der Kamera aufgenommenes Bild ein Bild des Merkmals enthalten. Die Kamera 148 kann auch so ausgerichtet und fokussiert werden, dass ihr Sichtfeld einen Satz räumlicher Koordinaten enthält, die ein Merkmal enthalten, sodass ein aufgenommenes Bild der Koordinaten auch das Merkmal zeigt.The field of view of the
Unter erneutem Bezug auf
Die drahtlose Fahrzeugkommunikationsschnittstelle 169 kann konfiguriert sein, eine Kommunikation zwischen den Komponenten und Systemen des Fahrzeugs und Einheiten (wie beispielsweise Cloud-Einrichtungen, Mobilfunk- und andere mobile Kommunikationsvorrichtungen, andere Fahrzeuge, entfernte Server, Fußgänger usw.) außerhalb des Fahrzeugs zu ermöglichen und/oder zu erleichtern. Die drahtlose Kommunikationsschnittstelle 169 kann konfiguriert sein, um drahtlose V2V- und V2X-Kommunikationen mit jeder Entität außerhalb des Fahrzeugs zu erleichtern, einzurichten, aufrechtzuerhalten und zu beenden, zum Beispiel mit anderen verbindbar konfigurierten Fahrzeugen und verbundenen Fahrzeugen, Fußgängern, Servern und Entitäten, die sich in der Cloud befinden, Edge-Server und andere Informationsquellen und Entitäten. Informationen wie beispielsweise Sensordaten, Kamerabildinformationen, Lidar- und Radar-Scaninformationen und andere Arten von Informationen können über die Kommunikationsschnittstelle 169 übertragen und empfangen werden. Die drahtlose Kommunikationsschnittstelle 169 kann beliebige Netzwerkschnittstellen enthalten oder mit diesen kommunizieren, die zum Kommunizieren mit beliebigen Entitäten und/oder Netzwerken außerhalb des Fahrzeugs benötigt werden.The vehicle
Das Fahrzeug 100 kann ein Eingabesystem 130 enthalten. Ein „Eingabesystem“ enthält eine beliebige Vorrichtung, Komponente, System, Element oder Anordnung oder Gruppen davon, die ermöglichen, dass Informationen/Daten in eine Maschine eingegeben werden. Zum Beispiel kann das Eingabesystem 130 ein Tastenfeld, einen Berührungsbildschirm oder eine andere interaktive Anzeige, ein Spracherkennungssystem und/oder eine beliebige andere Vorrichtung oder ein beliebiges anderes System enthalten, das die Kommunikation zwischen einem Benutzer und dem Fahrzeug erleichtert. Das Eingabesystem 130 kann eine Eingabe von einem Fahrzeuginsassen (z.B. einem Fahrer oder Beifahrer) oder einem von dem Fahrzeug 100 entfernt befindlichen Benutzer empfangen. Das Fahrzeug 100 kann auch ein Ausgabesystem 135 enthalten. Ein „Ausgabesystem“ enthält eine beliebige Vorrichtung, Komponente oder Anordnung oder Gruppen davon, die ermöglichen, dass Informationen/Daten einem Fahrzeuginsassen (z.B. einem Fahrer, einem Fahrzeuginsassen usw.) oder einem entfernten Benutzer präsentiert werden.The
Das Fahrzeug 100 kann ein oder mehrere Fahrzeugsysteme enthalten, die zusammen als 140 bezeichnet sind. Die Fahrzeugsysteme 140 können ein Navigationssystem 147 enthalten. Das Navigationssystem 147 kann eine oder mehrere Vorrichtungen, Anwendungen und/oder Kombinationen davon enthalten, die jetzt bekannt sind oder später entwickelt werden, die konfiguriert sind, um den geografischen Standort des Fahrzeugs 100 zu bestimmen und/oder eine Fahrtroute für das Fahrzeug 100 zu bestimmen. Das Navigationssystem 147 kann eine oder mehrere Kartenanwendungen enthalten, um eine Fahrtroute für das Fahrzeug 100 zu bestimmen. Das Navigationssystem 147 kann ein globales Positionierungssystem, ein lokales Positionierungssystem oder ein Geolokalisierungssystem enthalten. Das Navigationssystem 147 kann konfiguriert sein, um den Weg eines Fahrzeugs entlang einer Fahrtroute zu verfolgen. Das Navigationssystem 147 kann konfiguriert sein, um in Verbindung mit dem Autonomes-Fahren-Modul 160 zu arbeiten, um das Fahrzeug entlang einer von einem Benutzer ausgewählten Fahrtroute zu führen. Das Navigationssystem 147 kann konfiguriert sein, um in Verbindung mit dem Kamerasteuermodul 141 zu arbeiten, um Standortinformationen bezüglich eines Merkmals mit niedrigem Erkennungskonfidenzgrad zu bestimmen und zu aktualisieren, und beim Führen und Aufrechterhalten der Richtung und des Fokus der Kamera 148 in Richtung zu einem Merkmal mit niedrigem Erkennungskonfidenzgrad während der Bewegung des Fahrzeugs 100 helfen.
Die Fahrzeugsysteme 140 können auch andere Systeme enthalten (gemeinsam mit 145 bezeichnet). Zum Beispiel können die Fahrzeugsysteme 140 ein Antriebssystem, ein Bremssystem, ein Lenksystem, ein Drosselsystem, ein Aufhängungssystem, ein Übertragungssystem enthalten (von denen keines explizit in
Das Fahrzeug 100 kann einen oder mehrere Aktoren 150 enthalten. Die Aktoren 150 können ein beliebiges Element oder eine Kombination von Elementen sein, die betreibbar sind, um eines oder mehrere der Fahrzeugsysteme 140 oder Komponenten davon zu abzuwandeln, einzustellen und/oder zu ändern, um auf den Empfang von Signalen oder anderen Eingaben von dem/den Prozessor(en) 110 zu reagieren, beliebige in dem Speicher 112 gespeicherte Module und/oder beliebige andere Fahrzeugkomponenten oder -systeme. Jeder geeignete Aktuator kann verwendet werden. Zum Beispiel können der eine oder die mehreren Aktoren 150 Motoren, pneumatische Aktoren, Hydraulikkolben, Relais, Elektromagnete und/oder piezoelektrische Aktoren enthalten, um nur einige Möglichkeiten zu nennen.The
In hierin beschriebenen Ausführungsbeispielen kann ein Speicher 112 ein Autonomes-Fahren-Modul 160, ein Sensorsteuermodul 142, ein Merkmalserkennungsmodul 143 und ein Kamerasteuermodul 141 speichern. Der Speicher 112 kann ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein Festplattenlaufwerk, ein Flash-Speicher oder ein anderer geeigneter Speicher zum Speichern der Module 160, 141, 142 und 143 sein. Die Module 160, 141, 142 und 143 sind zum Beispiel computerlesbare Anweisungen, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) 110 die verschiedenen hierin offenbarten Funktionen ausführen. Zusätzliche Module (nicht gezeigt) können auch in dem Speicher 112 gespeichert sein.In embodiments described herein, a
Das Fahrzeug 100 kann ein oder mehrere Module enthalten, von denen zumindest einige hierin beschrieben sind. Die Module können als computerlesbarer Programmcode implementiert sein, der, wenn er von dem/den Prozessor(en) 110 ausgeführt wird, einen oder mehrere der verschiedenen hierin beschriebenen Prozesse implementiert. Ein oder mehrere der Module können eine Komponente des/der Prozessor(en) 110 sein, oder ein oder mehrere der Module können auf anderen Verarbeitungssystemen ausgeführt und/oder verteilt werden, mit denen der/die Prozessor(en) 110 operativ verbunden ist/sind. Die Module können Anweisungen (z.B. Programmlogik) enthalten, die von einem oder mehreren Prozessor(en) 110 ausführbar sind. Alternativ oder zusätzlich können ein oder mehrere Datenspeicher 115 oder ein anderer Abschnitt des Fahrzeugs 100 solche Anweisungen enthalten.The
Im Allgemeinen enthält ein Modul, wie es hier verwendet wird, Routinen, Programme, Objekte, Komponenten, Datenstrukturen und so weiter, die bestimmte Aufgaben ausführen oder bestimmte Datentypen implementieren. In weiteren Aspekten speichert ein Speicher im Allgemeinen die erwähnten Module. Der einem Modul zugeordnete Speicher kann ein in einen Prozessor eingebetteter Puffer oder Cache, ein RAM, ein ROM, ein Flash-Speicher oder ein anderes geeignetes elektronisches Speichermedium sein. In weiteren Aspekten wird ein Modul, wie es von der vorliegenden Offenbarung ins Auge gefasst wird, als eine anwendungsspezifische integrierte Schaltung (ASIC), eine Hardwarekomponente eines Systems auf einem Chip (SoC), als ein programmierbares Logikarray (PLA) oder als eine andere geeignete Hardwarekomponente implementiert, die mit einem definierten Konfigurationssatz (z.B. Anweisungen) zum Durchführen der offenbarten Funktionen eingebettet ist.In general, as used herein, a module contains routines, programs, objects, components, data structures, and so on that perform specific tasks or implement specific data types. In further aspects, a memory generally stores the mentioned modules. The memory associated with a module may be a processor embedded buffer or cache, RAM, ROM, flash memory, or other suitable electronic storage medium. In further aspects, a module as contemplated by the present disclosure is embodied as an application specific integrated circuit (ASIC), a hardware component of a system on a chip (SoC), a programmable logic array (PLA), or other suitable one Implements a hardware component embedded with a defined set of configurations (e.g. instructions) for performing the disclosed functions.
In einer oder mehreren Anordnungen können ein oder mehrere der hierin beschriebenen Module Elemente künstlicher oder computergestützter Intelligenz enthalten, z.B. neuronale Netze, Fuzzy-Logik oder andere maschinelle Lernalgorithmen. Des Weiteren können in einer oder mehreren Anordnungen ein oder mehrere der Module auf eine Mehrzahl der hierin beschriebenen Module verteilt sein. In einer oder mehreren Anordnungen können zwei oder mehr der hierin beschriebenen Module zu einem einzigen Modul kombiniert werden.In one or more arrangements, one or more of the modules described herein may include elements of artificial or computational intelligence, e.g., neural networks, fuzzy logic, or other machine learning algorithms. Furthermore, in one or more arrangements, one or more of the modules may be distributed among a plurality of the modules described herein. In one or more arrangements, two or more of the modules described herein can be combined into a single module.
Das Fahrzeug 100 kann ein oder mehrere Autonomes-Fahren-Module 160 enthalten. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um Daten von dem Sensorsystem 120 und/oder jeder anderen Art von System zu empfangen, das in der Lage ist, Informationen bezüglich des Fahrzeugs 100 und/oder der äu-ßeren Umgebung des Fahrzeugs 100 aufzunehmen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können Position und Geschwindigkeit des Fahrzeugs 100 bestimmen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können den Standort bzw. Position von Hindernissen, Hindernissen oder anderen Umgebungsmerkmalen, einschließlich Verkehrsschildern, Bäumen, Sträuchern, benachbarten Fahrzeugen, Fußgängern usw., bestimmen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um Standortinformationen für Hindernisse innerhalb der äußeren Umgebung des Fahrzeugs 100 zur Verwendung durch den/die Prozessor(en) 110, und/oder ein oder mehrere der hierin beschriebenen Module zum Schätzen der Position und Ausrichtung des Fahrzeugs 100, die Fahrzeugposition in globalen Koordinaten basierend auf Signalen von einer Mehrzahl von Satelliten, oder beliebigen anderen Daten und/oder Signalen, die verwendet werden könnten, um den aktuellen Zustand des Fahrzeugs 100 zu bestimmen oder die Position des Fahrzeugs 100 in Bezug auf seine Umgebung zur Verwendung entweder beim Erstellen einer Karte oder beim Bestimmen der Position des Fahrzeugs 100 in Bezug auf Kartendaten zu bestimmen, zu empfangen und/oder zu bestimmen.The
Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, Fahrweg(e), aktuelle autonome Fahrmanöver für das Fahrzeug 100, zukünftige autonome Fahrmanöver und/oder Abwandlungen an aktuellen autonomen Fahrmanövern basierend auf Daten zu bestimmen, die von dem Sensorsystem 120 bezogen werden und/oder Informationen, die von einem Navigationssystem, wie beispielsweise dem Navigationssystem 147, empfangen werden. „Fahrmanöver“ bezeichnet eine oder mehrere Handlungen, welche die Bewegung eines Fahrzeugs beeinflussen. Beispiele für Fahrmanöver enthalten: Beschleunigen, Verlangsamen, Bremsen, Abbiegen, Bewegen in eine seitliche Richtung des Fahrzeugs 100, Wechseln der Fahrspur, Einfädeln in eine Fahrspur und/oder Rückwärtsfahren, um nur einige Möglichkeiten zu nennen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um bestimmte Fahrmanöver zu implementieren. Das/Die Autonomes-Fahren-Modul(e) kann/können direkt oder indirekt bewirken, dass solche autonomen Fahrmanöver implementiert werden. Wie hierin verwendet, bedeutet „bewirken“, dass ein Ereignis oder eine Handlung herbeigeführt, erzwungen, veranlasst, gelenkt, befohlen, angewiesen und/oder ermöglicht wird oder zumindest in einem Zustand ist, in dem ein solches Ereignis oder eine solche Handlung auftreten bzw. eintreten kann, entweder direkt oder indirekt.The autonomous driving module(s) 160 may be configured to determine driving path(s), current autonomous driving maneuvers for the
Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um verschiedene Fahrzeugfunktionen auszuführen und/oder Daten an das bzw. von dem Fahrzeug 100 oder ein oder mehrere Systeme davon (z.B. ein oder mehrere Fahrzeugsysteme 140) zu übertragen, zu empfangen, zu interagieren und/oder zu steuern. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um das Benutzerfahrzeug autonom zu steuern, um das Fahrzeug entlang einer Fahrtroute von einem Anfangs- oder Startort zu einem Ziel zu fahren.The autonomous driving module(s) 160 may be configured to perform various vehicle functions and/or transmit data to/from the
Der/Die Prozessor(en) 110, das Autonomes-Fahren-Modul 160, das Kamerasteuermodul 141 und/oder andere hierin beschriebene Module können operativ verbunden sein, um miteinander und mit den anderen Elementen des Fahrzeugs zu kommunizieren, einschließlich verschiedener Fahrzeugsysteme 140 und /oder einzelne Komponenten davon. Zum Beispiel können in Bezug auf
Der/die Prozessor(en) 110, das/die Autonomes-Fahren-Modul(e) 160, und das Navigationssystem 147 können operativ bzw. betreibbar sein, um die Navigation und/oder das Manövrieren des Fahrzeugs 100 durch Steuern eines oder mehrerer der Fahrzeugsysteme 140 und/oder dessen Komponenten zu steuern. Wenn zum Beispiel in einem autonomen Modus gearbeitet wird, können der/die Prozessor(en) 110 und/oder das/die Autonomes-Fahren-Modul(e) 160 die Richtung und/oder Geschwindigkeit des Fahrzeugs 100 steuern. Der/die Prozessor(en) und/oder das/die Autonomes-Fahren-Modul(e) 160 können bewirken, dass das Fahrzeug 100 beschleunigt (z.B. durch Erhöhen der Kraftstoffzufuhr, die dem Motor bereitgestellt wird), verlangsamt (z.B. durch Verringern der Kraftstoffzufuhr, die dem Motor bereitgestellt wird, und/oder durch Betätigen der Bremsen) und/oder die Richtung wechselt (z.B. durch Drehen bzw. Lenken der beiden Vorderräder).The processor(s) 110, the autonomous driving module(s) 160, and the
Das Fahrzeug 100 kann ein Sensorsteuermodul 142 enthalten. Das Sensorsteuermodul 142 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) den Betrieb der Fahrzeugsensoren 121 und/oder der Umgebungssensoren 122 steuern. Zum Beispiel kann das Sensorsteuermodul 142 konfiguriert sein, um Vorgänge bzw. Operationen eines oder mehrerer Sensoren zu steuern, um Sensor-Scanraten zu variieren, Scan- oder Betrachtungswinkel zu variieren und andere Sensorbetriebsparameter gemäß bestehenden Bedingungen und Erfassungsanforderungen zu steuern. Alternativ können einer oder mehrere der Fahrzeugsensoren 121 und/oder der Umgebungssensoren 122 für eine automatische oder interne Steuerung konfiguriert sein, indem darin unabhängige Prozessoren und/oder Speicher eingebaut werden, wodurch die Notwendigkeit einer separaten Steuerung für den/die relevanten Sensor(en) vermieden wird.The
In einer oder mehreren bestimmten Anordnungen kann das Sensorsteuermodul 142 konfiguriert sein, um Vorgänge bzw. Operationen von einem oder mehreren der Umgebungssensoren 122 mit Ausnahme der Überprüfungsunterstützungskamera 148 zu steuern, deren Vorgänge bzw. Operationen durch das Kamerasteuermodul 141 gesteuert werden können. In anderen besonderen Anordnungen können die Steuerfunktionen des Kamerasteuermoduls 141, wie hierin beschrieben, in das Sensorsteuermodul 142 eingebaut (und von diesem durchgeführt) sein.In one or more particular arrangements, the
Das Fahrzeug 100 kann ein Merkmalserkennungsmodul 143 enthalten. Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Lidar- und Radar-Scandaten und/oder andere Informationen, die von dem Lidar bezogen und/oder erzeugt werden, und/oder Radar-Scans der Umgebung verarbeiten, um zu versuchen, Merkmale der Fahrzeugumgebung zu erkennen oder zu identifizieren, die durch die Daten und/oder andere Informationen dargestellt werden.The
Die resultierenden Merkmalsidentifikationen können anschließend einem menschlichen Fahrer mitgeteilt werden, um die Entscheidungsfindung des Fahrers zu unterstützen. Die resultierenden Merkmalsidentifikationen können auch von anderen Modulen und/oder anderen Fahrzeugsystemen zur autonomen Entscheidungsfindung verwendet oder weiterverarbeitet werden.The resulting feature identifications can then be communicated to a human driver to support the driver's decision making. The resulting feature identifications can also be used or further processed by other modules and/or other vehicle systems for autonomous decision-making.
Die Fahrzeugumgebung kann alles außerhalb der Fahrzeuginnenräume enthalten und von dem Fahrzeug 100 getrennt sein. Ein Merkmal der Fahrzeugumgebung kann ein diskretes Objekt oder ein Abschnitt eines diskreten Objekts sein, das sich in der Fahrzeugumgebung befindet. Das Merkmal kann durch Verarbeitung von Lidar- und/oder Radar-Scandaten durch das Merkmalserkennungsmodul 143 identifiziert oder erkannt werden oder nicht. Beim Empfangen von Daten aus dem Lidar-Scan kann das Merkmalserkennungsmodul 143 (oder ein anderes Modul) in Zusammenarbeit mit dem/den Prozessor(en) 110 die Lidar- und/oder Radardaten verarbeiten, um eine oder mehrere Punktwolken zu erzeugen, die Darstellungen von gescannten Merkmalen enthalten. Das Merkmalserkennungsmodul 143 kann dann in Zusammenarbeit mit dem/den Prozessor(en) 110 Merkmalserkennungsroutinen ausführen, die darauf gerichtet sind, das durch die Punktwolken dargestellte Merkmal zu identifizieren oder zu erkennen. Die resultierenden Merkmalsidentifikationen können anschließend einem menschlichen Fahrer mitgeteilt werden, um die Entscheidungsfindung des Fahrers zu unterstützen. Die resultierenden Merkmalsidentifikationen können auch von anderen Modulen und/oder anderen Fahrzeugsystemen zur autonomen Entscheidungsfindung verwendet oder weiterverarbeitet werden. Zum Beispiel kann das Merkmalserkennungsmodul 143 konfiguriert sein, um aus Lidar- und/oder Radar-Scandaten erzeugte Punktwolken mit Punktwolken und/oder anderen Informationen zu vergleichen, die bekannte Merkmale darstellen, die in einer Fahrzeugumgebung vorhanden sein können. Informationen bezüglich der bekannten Merkmale können in einem Speicher (wie beispielsweise Lidar-Scan-Informationen 118, Radar-Scan-Informationen 123 und/oder einem anderen Speicher, der konfiguriert ist, um für das Merkmalserkennungsmodul 143 zugänglich zu sein) gespeichert werden.The vehicle environment may include everything outside of the vehicle interiors and may be separate from the
Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en), der/die Prozessor(en) mit den Umgebungssensoren 122 und dem Navigationssystem 147 zusammenarbeiten bzw. kooperieren, um Standortinformationen bezüglich der Merkmale der identifizierten Umgebung durch das Merkmalserkennungsmodul zu bestimmen. Die Merkmalsstandorte können durch Verwendung von Standortsinformationen bestimmt werden, die in Lidar-Scan-Informationen 118 und/oder Radar-Scan-Informationen 123 gespeichert sind und während Lidar- und/oder Radar-Scans bezogen werden. Sensor-Scanraten können ausreichend hoch sein, so dass ein bestimmtes Merkmal, sobald es identifiziert ist, zuverlässig verfolgt und auf Änderungen seines Standorts, seines Erkennungskonfidenzgrads und anderer zugeordnete Eigenschaften überwacht werden kann, und so dass in dem Speicher gespeicherte Merkmalsinformationen aktualisiert werden können.The
Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Erkennungskonfidenzgrade für Merkmalsidentifikationen berechnen, die von dem Merkmalserkennungsmodul 143 erzeugt werden. Die Erkennungskonfidenzgrade können in Verbindung mit der Merkmalsidentifikation in dem Speicher gespeichert werden.The
Einige der durch die Lidar-Scans erfassten Merkmale sind möglicherweise nicht leicht durch das Merkmalserkennungsmodul 143 identifizierbar, aufgrund des Winkels in Bezug auf das Fahrzeug 100, in dem das Merkmal gescannt wurde, aufgrund der das Merkmal darstellende Punktwolke, die nicht ausreichend ähnlich genug zu der in dem Speicher gespeicherten Punktwolken für den Vergleich ist, aufgrund des Scans, der teilweise behindert bzw. versperrt ist, und/oder aufgrund anderer Gründe. Somit können die von dem Merkmalserkennungsmodul 143 erzeugten Merkmalsidentifikationen unterschiedliche bzw. variierende Gewissheitsgrade haben, die ihnen zugeordnet sind. Folglich kann das Merkmalserkennungsmodul 143 konfiguriert sein, um einen Konfidenzgrad (CL) zu berechnen, welcher der Identifizierung jedes Merkmals zuzuordnen ist. Der Konfidenzgrad kann ein Konfidenz- oder Gewissheitsmaß dafür sein, dass die Identifizierung des Merkmals durch das Merkmalserkennungsmodul 143 korrekt ist. Zum Beispiel kann eine Überprüfung einer Punktwolke, die aus bezogenen Daten erzeugt wird, wenn sich ein Merkmal in einem ungewöhnlichen Betrachtungswinkel befindet (aufgrund starker Winde oder Schäden an dem gescannten Merkmal), zu einem relativ niedrigeren berechneten Konfidenzgrad basierend auf einer computergenerierten Erkennung des Merkmals führen als die Überprüfung desselben Merkmals unter idealen Sensor-Scanbedingungen.Some of the features captured by the lidar scans may not be readily identifiable by the
Ein „Erkennungskonfidenzgrad“ oder „Konfidenzgrad“ ist ein numerischer Wert oder ein anderer Indikator eines Grades von Konfidenz in einer computergenerierten Erkennung eines Merkmals der Fahrzeugumgebung. Ein Indikator des Erkennungskonfidenzgrads kann ein numerischer Indikator sein, der von einem Prozessor bestimmt wird und für den Vergleich mit einem numerischen vorgegebenen Merkmalserkennungskonfidenzgrad-Schwellenwert ausgelegt ist. Das Merkmalserkennungsmodul kann konfiguriert sein, um einer computergenerierten Identifizierung eines Merkmals, das durch einen Lidar- oder Radar-Scan erfasst wird, einen Erkennungskonfidenzgrad (CL) zuzuweisen. Ein „niedriger Erkennungskonfidenzgrad“ betrifft einen Erkennungskonfidenzgrad, der unter dem vorgegebenen Schwellenwert liegt. Ein „Merkmal eines niedrigen Erkennungskonfidenzgrades“ ist ein Merkmal der Umgebung, das einen Erkennungskonfidenzgrad hat, der unter dem vorgegebenen Schwellenwert liegt.A “detection confidence level” or “confidence level” is a numerical value or other indicator of a level of confidence in a computer-generated recognition of a feature of the vehicle's surroundings. A recognition confidence level indicator may be a numeric indicator determined by a processor and adapted for comparison to a numerical predetermined feature recognition confidence level threshold. The feature detection module may be configured to assign a detection confidence level (CL) to a computer-generated identification of a feature detected by a lidar or radar scan. A "low detection confidence level" refers to a detection confidence level that is below the predetermined threshold. A "feature of low detection confidence level" is a feature of the environment that has a detection confidence level that is below the predetermined threshold.
Für die hierin beschriebenen Zwecke können die Erkennungskonfidenzgrade auf einer beliebigen Reihe von Kriterien basieren. Zum Beispiel können in einer oder mehreren Anordnungen die Konfidenzgrade zumindest teilweise basierend auf einem Vergleich zwischen Informationen, die aus einer Reihe aufeinanderfolgender Lidar-/Radar-Scans stammen, die während der Fahrzeugbewegung aufgenommen wurden, und einer oder mehreren Referenzpunktwolken berechnet werden, wenn ein Abstand von dem Fahrzeug zu dem gescannten bzw. abgetasteten Merkmal abnimmt und/oder wenn sich ein Winkel, in dem ein Abschnitt der Sensor-Scanwelle das Merkmal berührt, während der Fahrzeugbewegung ändert. Dieser „Scanwinkel“ kann damit verknüpft sein, wie das Merkmal visuell erscheint, wenn es aus der Perspektive des sich bewegenden Fahrzeugs betrachtet wird. Wenn der Vergleich zeigt, dass das gescannte Merkmal dem durch die Referenzpunktwolke dargestellten Merkmal immer ähnlicher erscheint, während sich das Fahrzeug bewegt, kann ein relativ höherer Konfidenzgrad berechnet und der Merkmalsidentifikation zugeordnet werden. Jedes einer Mehrzahl von zusätzlichen oder alternativen Kriterien kann in einem Algorithmus verwendet werden, der konfiguriert ist, um einen Konfidenzgrad zu berechnen, der einer Merkmalsidentifikation zuzuordnen ist.For the purposes described herein, the detection confidence levels can be based on any number of criteria. For example, in one or more arrangements, the confidence levels may be calculated based at least in part on a comparison between information derived from a series of consecutive lidar/radar scans taken during vehicle movement and one or more reference point clouds when a distance from the vehicle to the scanned feature decreases and/or as an angle at which a portion of the sensor scan wave contacts the feature changes during vehicle movement. This “scan angle” can be linked to how the feature appears visually when viewed from the perspective of the moving vehicle. If the comparison shows that the scanned feature appears increasingly similar to the feature represented by the reference point cloud as the vehicle moves, a relatively higher level of confidence can be calculated and assigned to the feature identification. Any of a plurality of additional or alternative criteria may be used in an algorithm configured to calculate a confidence level to be associated with a feature identification.
Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) einen Konfidenzgrad der Merkmalsidentifikation mit einem vorgegebenen Schwellenwert vergleichen. Wenn der Konfidenzgrad in einer gegebenen Merkmalsidentifikation über dem Schwellenwert liegt, kann die durch das Merkmalserkennungsmodul bestimmte Merkmalsidentifikation von den Fahrzeugsystemen beim Durchführen weiterer Berechnungen und Funktionen verwendet werden. Wenn jedoch der Konfidenzgrad in einer gegebenen Merkmalsidentifikation bei oder unter dem Schwellenwert liegt, können Bilder des Merkmals mit niedrigem Konfidenzgrad wie hierin beschrieben aufgenommen werden, um von einem menschlichen Prüfer überprüft zu werden.The
Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Standortinformationen in Bezug auf identifizierte Merkmale, zugeordnete Konfidenzgrade, Informationen bezüglich der Merkmalsklassifikationen (z.B. „Blattwerk bzw. Laub“) und andere Informationen in Bezug auf die Scans von erfassten Umgebungsmerkmalen speichern. Zum Beispiel können solche Informationen in einem Speicher gespeichert werden, wie beispielsweise Lidar-Scan-Informationen 118 (für Informationen bezüglich Lidar-Scans).
Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Merkmalsinformationen basierend auf den letzten Lidar-/Radar-Scans (im Speicher) aktualisieren. Solche aktualisierten Merkmalsinformationen können überarbeitete Erkennungskonfidenzgrade, aktualisierte Merkmalsstandortinformationen, aktualisierte Punktwolkeninformationen, die das Merkmal darstellen, und beliebige andere Informationen in Bezug auf das Merkmal enthalten. In einer oder mehreren Anordnungen können solche Informationen in einem Speicher (zum Beispiel in Lidar-Scan-Informationen 118) aktualisiert werden, wo die Informationen gespeichert werden.
Das Fahrzeug 100 kann ein Kamerasteuermodul 141 enthalten. Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) einen Erkennungskonfidenzgrad, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert vergleichen, und als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert liegt und Standortinformationen verwendet werden, die dem Merkmal zugeordnet sind, den Betrieb der Kamera steuern, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.The
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) den Betrieb der Überprüfungsunterstützungskamera 148 steuern, um Bilder von Merkmalen der Fahrzeugumgebung gleichzeitig mit dem Betrieb des Lidarsensors 125 aufzunehmen. Das Kamerasteuermodul kann auch computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den Prozessor, der Prozessor den Betrieb der Fahrzeugkamera steuert, um Bilder des Merkmals gleichzeitig mit dem Betrieb eines Radarsensors 109 aufzunehmen. Diese gleichzeitigen Vorgänge bzw. Operationen der Überprüfungsunterstützungskamera 148 und der Radar- und Lidarsensoren ermöglichen, dass die von diesen Sensoren bezogenen Informationen zeitlich korreliert und zugeordnet werden.
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) alle Überprüfungsunterstützungskameravorgänge steuern, einschließlich Bewegung, Zeigen, Fokussieren und Bildaufnahme als Reaktion auf die Fahrzeugbewegungsrichtung und Geschwindigkeit, Standortinformationen, die sich auf Merkmale mit niedrigem Erkennungskonfidenzgrad der abzubildenden Umgebung beziehen, und andere relevante Informationen.The
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Lidardaten und/oder Radardaten (d.h. Daten, die während der Scans von den Lidar- und Radarsensoren bezogen werden) mit zumindest einem gleichzeitigen Bild des von der Kamera 148 erfassten Merkmals zeitlich korrelieren (d.h. ein Bild, das zur selben bzw. gleichen Zeit erfasst wurde, zu der die Lidar-/Radar-Scandaten durch den Lidar-Scan und/oder Radar-Scan bezogen wurden), und umgekehrt. Diese zeitliche Korrelation kann verwendet werden, um Lidar- und Radar-Scans mit gleichzeitig aufgenommene Bildern für die menschliche Überprüfung zuzuordnen. So kann zum Beispiel ein Kamerabild, das von der Überprüfungsunterstützungskamera 148 um 14:05 Uhr während einer Fahrzeugfahrt aufgenommen wurde, mit einem Lidar-Scan verknüpft werden, der von einem Lidarsensor 125 um 14:05 Uhr während der Fahrt durchgeführt wird, um die menschliche Überprüfung der Lidardaten und der zugeordneten Kamerabilder zu erleichtern.
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Lidardaten mit zumindest einem gleichzeitigen Bild des von der Fahrzeugkamera aufgenommenen Merkmals zeitlich korrelieren.The
Das Kamerasteuermodul kann auch computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Radardaten mit zumindest einem gleichzeitigen Bild des von der Kamera aufgenommenen Merkmals zeitlich korrelieren.The camera control module may also include computer-readable instructions that, when executed by the processor(s) 110, cause the processor(s) to temporally correlate radar data with at least one simultaneous image of the feature captured by the camera.
Die Kamerabilder können mit gleichzeitig erfassten Lidar-Scandaten und/oder Radar-Scandaten zeitlich korreliert werden (z.B. können Kamerabilder mit Lidar- und/oder Radardaten zeitlich verknüpft werden, die zur gleichen Zeit wie die Lidar und/oder Radardaten bezogen werden).The camera images may be temporally correlated with simultaneously acquired lidar scan data and/or radar scan data (e.g., camera images may be temporally linked with lidar and/or radar data acquired at the same time as the lidar and/or radar data).
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) mit dem Navigationssystem 147 zusammenarbeiten, um ein Merkmal oder einen geografischen oder räumlichen Standort während der Bewegung des Fahrzeugs 100 zu „verfolgen“ oder darauf fokussiert zu bleiben. Die Fähigkeit, die Kamera 148 zu betreiben, um den Fokus auf ein Merkmal oder einen Bereich aufrechtzuerhalten, kann von dem Grad abhängen, zu dem die Kamera 148 geschwenkt, verschoben, angehoben und niedergedrückt werden kann, und/oder dem Grad, in dem die Linse gerichtet sein kann und dem Grad, zu dem diese refokussiert werden kann usw. Es ist wünschenswert, das Merkmal der Fahrzeugumgebung in dem aktuellen Blickfeld der Kamera 148 aufrechtzuerhalten, während sich das Fahrzeug 100 bewegt, um eine Hochfrequenzerfassung von Bildern von Merkmalen zu ermöglichen, während sich das Fahrzeug bewegt.
In einer oder mehreren Anordnungen kann das Kamerasteuermodul 141 zum Zwecke des Zugreifens auf Merkmalsinformationen, die zum Steuern des Betriebs der Überprüfungsunterstützungskamera 148 benötigt werden, computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) auf einen Speicher (zum Beispiel Lidar-Scan-Informationen 118 oder Radar-Scan-Informationen 123) zugreifen, in dem Merkmalsinformationen für die Merkmalsstandortinformationen, Konfidenzgrade und andere Informationen gespeichert sind. Der Zugriff auf Standortinformationen in Bezug auf ein Merkmal mit niedrigem Konfidenzgrad kann es dem Kamerasteuermodul 141 ermöglichen, die Kamera 148 zu steuern, um Bilder des Merkmals aufzunehmen, indem die Kamera auf das Merkmal oder auf einen Standort fokussiert wird, an dem sich das Merkmal befindet.In one or more arrangements, for the purpose of accessing feature information needed to control the operation of the
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) entweder periodisch oder als Reaktion auf Aktualisierungen in Lidar-/Radar-Scaninformationen auf aktualisierte Merkmalsinformationen in Bezug auf ein Merkmal zugreifen, das zuvor als Merkmal mit niedrigem Konfidenzgrad bestimmt wurde, und das aktuell für die Bildaufnahme durch die Kamera 148 ausgewählt ist. Dies kann durchgeführt werden, um zu bestimmen, ob sich der Konfidenzgrad in Bezug auf das Merkmal zwischen Sensor-Scans geändert hat.
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) den aktuellen Erkennungskonfidenzgrad (d.h. den Konfidenzgrad, der durch Verwendung von Daten aus dem letzten Sensor-Scan bestimmt wird) mit einem Merkmal auf einen vorgegebenen Schwellenwert vergleichen. Dieser Vergleich kann es dem Kamerasteuermodul 141 ermöglichen, zu bestimmen, ob der Konfidenzgrad über den vorgegebenen Schwellenwert gestiegen ist, basierend auf einer Interpretation der letzten Radar-/Lidar-Scandaten (zum Beispiel aufgrund einer Änderung des Scanwinkels eines Sensors, die durch eine Bewegung des Fahrzeugs verursacht wird) durch Vergleichen des aktuellen Erkennungskonfidenzgrades mit dem vorgegebenen Schwellenwert. Basierend auf diesem Vergleich kann das Kamerasteuermodul 141 die Kamera 148 so steuern, um entweder zu versuchen aufzuhören, Bilder des Merkmals aufzunehmen (wenn der Erkennungskonfidenzgrad bei oder über dem Schwellenwert liegt), oder weiterhin zu versuchen, Bilder des Merkmals aufzunehmen (wenn die Kamera aktuell versucht, Bilder des Merkmals aufzunehmen, ist der aktuelle Erkennungskonfidenzgrad, der dem Merkmal zugeordnet ist, niedrig, und der zuletzt bestimmte Erkennungskonfidenzgrad war ebenfalls niedrig).
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en), als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert liegt, und durch Verwendung der Standortinformationen, die dem Merkmal zugeordnet sind, den Betrieb der Kamera 148 steuern, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs 100 aufzunehmen. Somit kann das Kamerasteuermodul 141, wenn der Konfidenzgrad, der einem Merkmal zugeordnet ist, zuerst als unter dem Schwellenwert liegend bestimmt wird, die Überprüfungsunterstützungskamera 148 steuern, um mit dem Aufnehmen von Bildern des Merkmals zu beginnen. Zusätzlich kann, solange der dem Merkmal zugeordnete Konfidenzgrad weiterhin unter dem Schwellenwert liegt, das Kamerasteuermodul 141 die Überprüfungsunterstützungskamera 148 steuern, um weiterhin zu versuchen, Bilder des Merkmals aufzunehmen.
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessoren), als Reaktion darauf, dass der Erkennungskonfidenzgrad bei oder über dem vorgegebenen Schwellenwert liegt, den Betrieb der Kamera 148 steuern, um den Versuch zu unterbrechen, Bilder des Merkmals aufzunehmen. Wenn somit das Merkmalserkennungsmodul 143 ein Merkmal mit einem ausreichenden Konfidenzgrad erkannt hat, besteht möglicherweise keine Notwendigkeit mehr für eine menschliche Überprüfung des Merkmals, und die Überprüfungsunterstützungskamera 148 kann gesteuert werden, um das Aufnehmen von Bildern des Merkmals zu stoppen.The
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) bestimmen, ob sich ein Merkmal aktuell an einem Kameraausschlussort befindet, nachdem die Kamera 148 zumindest ein Bild des Merkmals aufgenommen hat, und als Reaktion darauf, dass sich das Merkmal an einem Kameraausschlussort befindet, den Betrieb der Kamera 148 steuern, um den Versuch zu unterbrechen, Bilder des Merkmals aufzunehmen.
Es kann bestimmt werden, dass sich ein Merkmal mit niedrigem Erkennungskonfidenzgrad an einem „Kameraausschlussort“ befindet, wenn sich das Merkmal mit niedrigem Erkennungskonfidenzgrad nicht mehr in einer Position in Bezug auf das Fahrzeug 100 befindet, so dass die Kamera 148 so gesteuert werden kann, um das Merkmal in einem Sichtfeld der Kamera zu enthalten (d.h. die Kamera 148 kann nicht länger geschwenkt, angehoben, abgesenkt, verschoben oder anderweitig gesteuert werden, um das Merkmal in deren Sichtfeld zu bringen).A low-confidence feature may be determined to be in a "camera cut-off location" if the feature with a low detection confidence level is no longer in a position relative to the
Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en), als Reaktion darauf, dass sich ein Merkmal in einer Kameraausschlusszone befindet, nachdem die Fahrzeugkamera 148 zumindest ein Foto des Merkmals aufgenommen hat, den Betrieb des Fahrzeugs 100 steuern, um Merkmalsinformationen an eine Entität außerhalb des Fahrzeugs zur menschlichen Überprüfung zu übertragen. In einer oder mehreren Anordnungen kann die fahrzeugexterne Einheit eine Menschliche-Überprüfung-Einrichtung 196 (
In bestimmten Anordnungen können die Merkmalsinformationen Punktwolkendaten, die das Merkmal mit niedrigem Konfidenzgrad darstellen, und ein oder mehrere zeitkorrelierte Bilder des Merkmals enthalten, die von der Kamera 148 aufgenommen werden. Die Menschliche-Überprüfung-Einrichtung 196 kann Hardware und Software aufweisen, die zum Verarbeiten von Punktwolkendaten benötigt werden, um zweidimensionale oder dreidimensionale grafische Darstellungen des durch die Punktwolke dargestellten Merkmals zum Vergleichen mit einem oder mehreren zugeordneten Kamerabildern durch einen menschlichen Prüfer zu erzeugen.In certain arrangements, the feature information may include point cloud data representing the feature with a low level of confidence and one or more time-correlated images of the feature captured by
In einer oder mehreren Anordnungen können, nachdem das Merkmal mit niedrigem Erkennungskonfidenzgrad von einem menschlichen Prüfer klassifiziert wurde, die Identifikation, die dem Merkmal zugeordnete(n) Punktwolke(n) und andere relevante Informationen an eine Servereinrichtung oder eine andere Entität 197 weitergeleitet werden, wo die neuen Merkmalsinformationen in ein Merkmalsidentifikationssystem (nicht gezeigt) aufgenommen werden können, das konfiguriert ist, um die Analyse und Identifikation von Punktwolkeninformationen zu erleichtern. Das Merkmalsidentifikationssystem kann bekannte Referenzpunktwolken zum Vergleichen mit Lidar- und Radar-Scandaten enthalten, die von anderen Fahrzeugen 198, 199 bezogen werden, die das Merkmalsidentifikationssystem als eine Quelle bekannter Referenzpunktwolken verwenden. Die anderen Fahrzeuge 198, 199 können dann Zugriff auf die neuen Merkmalsinformationen zum Vergleichen mit Punktwolken haben, die aus Lidar- und Radar-Scans erzeugt werden, die von diesen Fahrzeugen durchgeführt werden. Die neuen Merkmalsinformationen können in der Servereinrichtung 197 für den Fernzugriff durch die anderen Fahrzeuge 198, 199 nach Bedarf gespeichert werden, oder die neuen Merkmalsinformationen können an die Fahrzeuge 198, 199 zur lokalen Verwendung nach Bedarf verbreitet werden.In one or more arrangements, after the feature has been classified by a human examiner with a low recognition confidence level, the identification, the point cloud(s) associated with the feature and other relevant information can be forwarded to a server facility or
Während der Bewegung entlang der Straße 153 (
In Bezug auf
Beim Empfangen von Daten aus dem Lidar-Scan kann das Merkmalserkennungsmodul 143 (oder ein anderes Modul) in Zusammenarbeit mit dem/den Prozessor(en) 110 die Lidardaten verarbeiten, um eine oder mehrere Punktwolken zu erzeugen, die Darstellungen von gescannten Merkmalen enthalten. Das Merkmalserkennungsmodul 143 kann dann (in Block 304) Routinen ausführen, die darauf gerichtet sind, erfasste Merkmale zu identifizieren, einschließlich Merkmal 99. Das Merkmalserkennungsmodul 143 kann dann Erkennungskonfidenzgrade für die Merkmalsidentifikationen berechnen, einschließlich eines Konfidenzgrades für die Identifizierung des Merkmals 99. Das Merkmalserkennungsmodul 143 kann dann (in Block 306) Merkmalsinformationen bezüglich alle erfassten Merkmale (einschließlich Merkmal 99) in dem Speicher speichern (wie beispielsweise Lidar-Scan-Informationen 118).Upon receiving data from the lidar scan, the feature detection module 143 (or other module), in cooperation with the processor(s) 110, may process the lidar data to generate one or more point clouds containing representations of scanned features. The
Während sich das Fahrzeug 100 noch in Position „A“ (oder in einer Position der Zwischenposition „A“ des sich bewegenden Fahrzeugs und Position „B“) befindet, kann das Kamerasteuermodul 141 (in Block 307) auf die gespeicherten Merkmalsinformationen in dem Speicher zugreifen um zu bestimmen, ob ein Erkennungskonfidenzgrad irgendeines erfassten Merkmals unter dem vorgegebenen Schwellenwert liegt. In dem in
Zu diesem Zeitpunkt hat sich das Fahrzeug 100 zu der Position „B“ (
Als Reaktion auf jede Merkmalsinformationsaktualisierung kann das Kamerasteuermodul 141 (in Block 322) auf den Konfidenzgrad zugreifen, der dem Merkmal 99 zugeordnet ist. Das Kamerasteuermodul kann dann (in Block 324) bestimmen, ob sich das Merkmal 99 mit niedrigem Konfidenzgrad aktuell an einem Kameraausschlussort in Bezug auf das Fahrzeug 100 befindet. Wenn sich das Merkmal 99 mit niedrigem Konfidenzgrad nicht an einem Kameraausschlussort befindet, kann das Kamerasteuermodul 141 (in Block 326) den aktualisierten Konfidenzgrad mit dem vorgegebenen Schwellenwert vergleichen, um zu bestimmen, ob der aktualisierte Konfidenzgrad immer noch unter dem Schwellenwert liegt. Das Fahrzeug kann nun in Position „C“ in
Das Kamerasteuermodul 141 kann wie gerade beschrieben das Steuern der Kamera 148 fortsetzen, um Bilder des Merkmals 99 aufzunehmen, solange der dem Merkmal 99 zugeordnete Konfidenzgrad unter dem Schwellenwert bleibt und solange sich das Merkmal 99 innerhalb eines Sichtfelds der Kamera 148 befindet (d.h. solange sich das Merkmal nicht an einem Kameraausschlussort befindet).As just described, the
Zurückkehrend zu Block 326 (
Zurückkehrend zu Block 324 ist die Kamera 148 nicht länger in der Lage, Bilder des Merkmals aufzunehmen, wenn sich das Merkmal 99 mit niedrigem Konfidenzgrad an einem Kameraausschlussort befindet. In diesem Fall kann das Kamerasteuermodul 141 (in Block 330) die Kamera 148 steuern, um den Versuch, Bilder des Merkmals 99 aufzunehmen, zu unterbrechen.
Da zusätzlich bei Block 330 der dem Merkmal 99 zugeordnete Konfidenzgrad während der Bildaufnahme und Aktualisierung der Merkmalsinformationen niemals einen Grad bei oder über dem Schwellenwert erreicht hat, bleibt das Merkmal 99 als „nicht identifiziert“ klassifiziert. Somit kann das Kamerasteuermodul 141 nach Block 330 eine abschließende Überprüfung durchführen (in Block 332), um zu bestimmen, ob bis zu diesem Zeitpunkt irgendwelche Bilder des Merkmals 99 aufgenommen wurden. Wenn keine Bilder aufgenommen wurden, gibt es keine Kamerabilder, die an einen menschlichen Prüfer weitergeleitet werden können, und die Bilderfassungsroutine kann bei Block 334 enden. Wenn jedoch Bilder des Merkmals 99 mit niedrigem Konfidenzgrad aufgenommen wurden, kann das Kamerasteuermodul 141 (in Block 336) den Betrieb des Fahrzeugs 100 steuern, um Merkmalsinformationen bezüglich des Merkmals 99 für die menschliche Überprüfung zu übertragen.Additionally, since at
In den hierin beschriebenen Ausführungsbeispielen kann der menschliche Prüfer die Lidar-/Radarinformationen mit zugeordneten Kamerabildern des tatsächlichen Merkmals, das in den Lidar-/Radarinformationen dargestellt ist, vergleichen und in Beziehung setzen (in Echtzeit). Die Bereitstellung von Kamerabildern eines Merkmals, dessen Identifizierung von einem Menschen überprüft wird, kann eine schnellere und genauere Identifizierung des Merkmals und folglich genauere Korrelationen zwischen Punktwolken und den physischen Objekten, die sie darstellen, ermöglichen. Zusätzlich können, wenn die Lidar-/Radarinformationen kategorisiert oder einem tatsächlich bekannten Merkmal zugeordnet werden, die neu bezogenen Lidar-/Radarinformationen in Bezug auf das Merkmal zu einem Katalog bekannter Lidar-/Radarinformationen hinzugefügt werden, die dem Merkmal zugeordnet sind, wodurch die Ressourcendatenbank erweitert wird, die von einem Computersystem zum Vergleichen mit neu erfassten Lidar-/Radarinformationen verwendet wird. Dies kann die zukünftige Erkennung dieses Merkmals oder eines ähnlichen Merkmals in anderen Fahrzeugen erleichtern, die dieselbe Datenbank als eine Quelle bekannter Lidar-/Radarinformationen zum Vergleichen verwenden.In the embodiments described herein, the human examiner may compare and correlate (in real time) the lidar/radar information with associated camera images of the actual feature represented in the lidar/radar information. The provision of camera images of a feature whose identification is being verified by a human can allow faster and more accurate identification of the feature and consequently more accurate correlations between point clouds and the physical objects they represent. Additionally, if the lidar/radar information is categorized or associated with an actual known feature, the newly obtained lidar/radar information related to the feature may be added to a catalog of known lidar/radar information associated with the feature, thereby increasing the resource database used by a computer system to compare with newly acquired lidar/radar information. This may facilitate future detection of that feature or a similar feature in other vehicles using the same database as a source of known lidar/radar information for comparison.
Detaillierte Ausführungsbeispiele werden hierin offenbart. Es versteht sich jedoch, dass die offenbarten Ausführungsbeispiele nur als Beispiele gedacht sind. Daher sind hierin offenbarte spezifische strukturelle und funktionelle Details nicht als einschränkend zu interpretieren, sondern lediglich als eine Basis für die Ansprüche und als eine repräsentative Basis, um einem Fachmann zu lehren, die Aspekte hierin in praktisch jeder angemessen detaillierten Struktur vielfältig einzusetzen. Des Weiteren sollen die hierin verwendeten Begriffe und Ausdrücke nicht einschränkend sein, sondern eher eine verständliche Beschreibung möglicher Implementierungen bereitstellen. In den
Die Ablaufdiagramme und Blockdiagramme in den Figuren stellen die Architektur, Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsbeispielen dar. In dieser Hinsicht kann jeder Block in den Ablaufdiagrammen oder Blockdiagrammen ein Modul, ein Segment oder einen Codeabschnitt darstellen, der eine oder mehrere ausführbare Anweisungen zum Implementieren der angegebenen logischen Funktion(en) umfasst. Es sei ebenfalls angemerkt, dass in einigen alternativen Implementierungen die in dem Block angegebenen Funktionen außerhalb der in den Figuren angegebenen Reihenfolge auftreten können. Zum Beispiel können zwei nacheinander gezeigte Blöcke tatsächlich im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal in der umgekehrten Reihenfolge ausgeführt werden, abhängig von der beteiligten Funktionalität.The flowcharts and block diagrams in the figures represent the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to various exemplary embodiments. In this regard, each block in the flowcharts or block diagrams may represent a module, segment, or portion of code that comprises one or more executable instructions for implementing the specified logical function(s). It should also be noted that, in some alternative implementations, the functions noted in the block may occur out of the order noted in the figures. For example, two blocks shown sequentially may actually be executed substantially simultaneously, or the blocks may sometimes be executed in the reverse order depending on the functionality involved.
Die zuvor beschriebenen Systeme, Komponenten und/oder Prozesse können in Hardware oder einer Kombination aus Hardware und Software realisiert werden und können in einer zentralisierten Weise in einem Verarbeitungssystem oder in einer verteilten Weise realisiert werden, in der verschiedene Elemente über mehrere miteinander verbundene Verarbeitungssysteme verteilt sind. Jede Art von Verarbeitungssystem oder eine andere Vorrichtung, die zum Ausführen der hierin beschriebenen Verfahren geeignet ist, ist geeignet. Eine typische Kombination aus Hardware und Software kann ein Verarbeitungssystem mit computernutzbarem Programmcode sein, der, wenn er geladen und ausgeführt wird, das Verarbeitungssystem so steuert, dass es die hierin beschriebenen Verfahren ausführt. Die Systeme, Komponenten und/oder Prozesse können auch in einen computerlesbaren Speicher eingebettet sein, wie beispielsweise einem Computerprogrammprodukt oder eine andere Datenprogrammspeichervorrichtung, die von einer Maschine lesbar ist und konkret ein Programm von Anweisungen verkörpert, die von der Maschine ausführbar sind, um Verfahren und hier beschriebenen Prozesse auszuführen. Diese Elemente können auch in ein Anwendungsprodukt eingebettet werden, das alle Merkmale umfasst, welche die Implementierung der hierin beschriebenen Verfahren ermöglichen, und das, wenn es in ein Verarbeitungssystem geladen wird, in der Lage ist, diese Verfahren auszuführen.The systems, components and/or processes described above may be implemented in hardware or a combination of hardware and software and may be implemented in a centralized manner in a processing system or in a distributed manner in which various elements are distributed across multiple interconnected processing systems. Any type of processing system or other device suitable for performing the methods described herein is suitable. A typical combination of hardware and software may be a processing system having computer-usable program code that, when loaded and executed, controls the processing system to perform the methods described herein. The systems, components and/or processes may also be embedded in computer readable storage, such as a computer program product or other data program storage device readable by a machine and tangibly embodying a program of instructions executable by the machine to implement methods and carry out the processes described here. These elements can also be embedded in an application product that includes all the features that enable the implementation of the methods described herein and that, when loaded into a processing system, is capable of executing those methods.
Darüber hinaus können hierin beschriebene Anordnungen die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien verkörpert ist, auf denen computerlesbarer Programmcode verkörpert ist., z.B. darauf gespeichert. Jede Kombination aus einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Der Ausdruck „computerlesbares Speichermedium“ bedeutet ein nichtflüchtiges Speichermedium. Ein computerlesbares Speichermedium kann zum Beispiel ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, Vorrichtung oder ein Gerät oder eine beliebige geeignete Kombination der Vorstehenden sein, ist aber nicht darauf beschränkt. Spezifischere Beispiele (eine nicht erschöpfende Liste) des computerlesbaren Speichermediums wären die folgenden: eine tragbare Computerdiskette, ein Festplattenlaufwerk (HDD), ein Solid-State-Laufwerk (SSD), ein Nur-Lese-Speicher (ROM), einen löschbaren programmierbaren Nur-Lese-Speicher (EPROM oder Flash-Speicher), einen tragbaren Compact-Disc-Nur-Lese-Speicher (CD-ROM), eine Digital-Versatile-Disc (DVD), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder jede geeignete Kombination der zuvor Beschriebenen. Im Kontext dieses Dokuments kann ein computerlesbares Speichermedium ein beliebiges materielles Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem System zur Befehlsausführung, Vorrichtung oder Gerät enthalten oder speichern kann.Additionally, arrangements described herein may take the form of a computer program product embodied in one or more computer readable media having computer readable program code embodied thereon, e.g. Any combination of one or more computer-readable media can be used. The computer-readable medium can be a computer-readable signal medium or a computer-readable storage medium. The term "computer-readable storage medium" means a non-transitory storage medium. A computer-readable storage medium can be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any suitable combination of the foregoing. More specific examples (a non-exhaustive list) of computer-readable storage media would be the following: a portable computer floppy disk, a hard disk drive (HDD), a solid-state drive (SSD), a read-only memory (ROM), an erasable programmable read only memory (EPROM or flash memory), a compact disc portable read only memory (CD-ROM), a digital versatile disc (DVD), an optical storage device, a magnetic storage device, or any suitable combination of the previously described. In the context of this document, a computer-readable storage medium can be any tangible medium that can contain or store a program for use by or in connection with an instruction execution system, apparatus, or device.
Programmcode, der auf einem computerlesbaren Medium verkörpert ist, kann durch Verwendung jedes geeigneten Mediums übertragen werden, einschließlich, aber nicht beschränkt auf, drahtlos, drahtgebunden, Lichtwellenleiter, Kabel, HF usw. oder jede geeignete Kombination der zuvor Beschriebenen. Computerprogrammcode zum Ausführen von Operationen für Aspekte der vorliegenden Anordnungen kann in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, einschließlich einer objektorientierten Programmiersprache wie beispielsweise Java™, Smalltalk, C++ oder dergleichen und einer herkömmlichen prozeduralen Programmiersprache wie beispielsweise die „C“ Programmiersprache oder ähnliche Programmiersprachen. Der Programmcode kann vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als ein eigenständiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernten Computer bzw. Remotecomputer oder vollständig auf dem entfernten Computer bzw. Remotecomputer oder Server ausgeführt werden. In dem letzteren Szenario kann der entfernte Computer bzw. Remotecomputer über jede Art von Netzwerk mit dem Computer des Benutzers verbunden sein, einschließlich eines lokalen Netzwerks (LAN) oder eines Weitverkehrsnetzwerks (WAN), oder die Verbindung kann mit einem externen Computer (zum Beispiel über das Internet über einen Internetdienstanbieter) hergestellt werden.Program code embodied on a computer-readable medium may be transmitted using any suitable medium, including but not limited to wireless, wireline, fiber optic, cable, RF, etc., or any suitable combination of the foregoing. Computer program code for performing operations for aspects of the present arrangements may be written in any combination of one or more programming languages, including an object-oriented programming language such as Java™, Smalltalk, C++ or the like and a conventional procedural programming language such as the "C" programming language or similar programming languages. The program code may run entirely on the user's computer, partially on the user's computer, as a standalone software package, partially on the user's computer and partially on a remote computer, or entirely on the remote computer or server . In the latter scenario, the remote computer can be connected to the user's computer over any type of network, including a local area network (LAN) or a wide area network (WAN), or the connection can be to an external computer (for example, via the internet via an internet service provider).
Die Begriffe „ein“ und „eine“, wie hierin verwendet, sind als eins oder mehr als eins definiert. Der Begriff „Mehrzahl“, wie hierin verwendet, ist als zwei oder mehr als zwei definiert. Der Begriff „andere“, wie hierin verwendet, ist als zumindest eine Sekunde oder mehr definiert. Die Begriffe „enthalten/einschließlich“ und/oder „haben/aufweisen“, wie hierin verwendet, sind als umfassen/enthalten (d.h. offene Sprachbedeutung) definiert. Der Ausdruck „zumindest einer von ... und ....“, wie hierin verwendet, bezieht sich auf alle möglichen Kombinationen von einem oder mehreren der zugordneten aufgelisteten Elemente und umfasst diese. Als ein Beispiel enthält der Ausdruck „zumindest einer von A, B und C“ nur A, nur B, nur C oder eine beliebige Kombination davon (z.B. AB, AC, BC oder ABC).The terms "a" and "an" as used herein are defined as one or more than one. The term "plurality" as used herein is defined as two or more than two. The term "other" as used herein is defined as at least one second or more. The terms "include/including" and/or "have/comprise" as used herein are defined as including (i.e. open-ended language meaning). The phrase "at least one of ... and ....", as used herein, refers to and includes all possible combinations of one or more of the associated listed items. As an example, the phrase "at least one of A, B, and C" includes only A, only B, only C, or any combination thereof (e.g., AB, AC, BC, or ABC).
Aspekte hierin können in anderen Formen verkörpert werden, ohne von der Idee oder wesentlichen Attributen davon abzuweichen. Dementsprechend sollte auf die folgenden Ansprüche und weniger die vorstehende Beschreibung Bezug genommen werden, um deren Anwendungsbereich anzugeben.Aspects herein may be embodied in other forms without departing from the spirit or essential attributes thereof. Accordingly, reference should be made to the following claims, rather than the foregoing description, for an indication of their scope.
Claims (20)
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US202163165240P | 2021-03-24 | 2021-03-24 | |
| USUS63/165240 | 2021-03-24 | ||
| US17/500,059 US11763569B2 (en) | 2021-03-24 | 2021-10-13 | System for controlling a camera supporting human review of sensor information |
| USUS17/500059 | 2021-10-13 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102022106248A1 true DE102022106248A1 (en) | 2022-09-29 |
Family
ID=83192917
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102022106248.1A Pending DE102022106248A1 (en) | 2021-03-24 | 2022-03-17 | System for controlling a camera to support human verification of sensor information |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11763569B2 (en) |
| JP (1) | JP7294476B2 (en) |
| CN (1) | CN115209041B (en) |
| DE (1) | DE102022106248A1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7776480B2 (en) * | 2023-11-15 | 2025-11-26 | 本田技研工業株式会社 | Position estimation device and vehicle control system |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101617197B (en) * | 2007-02-16 | 2011-06-22 | 三菱电机株式会社 | Feature identification apparatus, measurement apparatus and measuring method |
| RU2011128379A (en) * | 2008-12-09 | 2013-01-20 | Томтом Норт Америка, Инк. | METHOD FOR PRODUCING A PRODUCT OF A GEODESIC REFERENCE DATABASE |
| US9165468B2 (en) * | 2010-04-12 | 2015-10-20 | Robert Bosch Gmbh | Video based intelligent vehicle control system |
| EP2719187A4 (en) | 2011-06-07 | 2015-03-11 | In Situ Media Corp | System and method for identifying and altering images in a digital video |
| US20140263143A1 (en) | 2013-03-15 | 2014-09-18 | The Carpenter Group | Articulated Arm Lifting System |
| US9665595B2 (en) | 2013-05-01 | 2017-05-30 | Cloudsight, Inc. | Image processing client |
| US10789840B2 (en) * | 2016-05-09 | 2020-09-29 | Coban Technologies, Inc. | Systems, apparatuses and methods for detecting driving behavior and triggering actions based on detected driving behavior |
| US10942031B2 (en) * | 2016-06-10 | 2021-03-09 | Pioneer Corporation | Information processing device, measurement device and control method |
| CN108225348B (en) * | 2017-12-29 | 2021-08-24 | 百度在线网络技术(北京)有限公司 | Map creation and moving entity positioning method and device |
| CN112106003A (en) * | 2018-03-29 | 2020-12-18 | 索尼公司 | Controller, control method, and program |
| US11067693B2 (en) * | 2018-07-12 | 2021-07-20 | Toyota Research Institute, Inc. | System and method for calibrating a LIDAR and a camera together using semantic segmentation |
| US10816979B2 (en) * | 2018-08-24 | 2020-10-27 | Baidu Usa Llc | Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras |
| CN109800805A (en) | 2019-01-14 | 2019-05-24 | 上海联影智能医疗科技有限公司 | Image processing system and computer equipment based on artificial intelligence |
| US10841483B1 (en) * | 2019-07-11 | 2020-11-17 | Denso International America, Inc. | System and method for calibrating at least one camera and a light detection and ranging sensor |
| CN110789533B (en) * | 2019-09-25 | 2021-08-13 | 华为技术有限公司 | Method and terminal device for presenting data |
-
2021
- 2021-10-13 US US17/500,059 patent/US11763569B2/en active Active
-
2022
- 2022-03-04 JP JP2022033705A patent/JP7294476B2/en active Active
- 2022-03-17 DE DE102022106248.1A patent/DE102022106248A1/en active Pending
- 2022-03-21 CN CN202210283900.6A patent/CN115209041B/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| CN115209041B (en) | 2024-08-13 |
| CN115209041A (en) | 2022-10-18 |
| JP7294476B2 (en) | 2023-06-20 |
| US20220311932A1 (en) | 2022-09-29 |
| US11763569B2 (en) | 2023-09-19 |
| JP2022151680A (en) | 2022-10-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102016114535B4 (en) | Route determination for automated vehicles | |
| DE102010006828B4 (en) | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle | |
| DE102020102725B4 (en) | METHOD AND APPARATUS FOR A CONTEXT-DEPENDENT, CROWD-SOURCE, SPARSE, HIGH-RESOLUTION MAP | |
| DE102014223363B4 (en) | Method and device for localizing a motor vehicle in a fixed reference map | |
| DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
| EP3824247A1 (en) | Method and system for determining a position of a vehicle | |
| DE102019133536A1 (en) | Method and apparatus for enabling sequential bottom view image projection synthesis and complicated scene reconstruction at map anomaly hotspots | |
| DE102016112492A9 (en) | Minimization of incorrect sensor data associations for autonomous vehicles | |
| DE102016112913A1 (en) | Method and apparatus for determining a vehicle ego position | |
| DE102017126925A1 (en) | Automated co-pilot control for autonomous vehicles | |
| DE102013208521A1 (en) | Collective learning of a highly accurate road model | |
| DE102018005869A1 (en) | System for creating an environmental model of a vehicle | |
| EP2769373A1 (en) | Acquisition of data from image data-based map services by an assistance system | |
| DE112018005907T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOVABLE BODY | |
| DE102019112649A1 (en) | DEVICE AND METHOD FOR IMPROVING RADAR BEAM FORMING | |
| DE102020100022A1 (en) | POSITION DETERMINATION TECHNOLOGY | |
| DE102020126973A1 (en) | PROCEDURE AND SYSTEM FOR LOCALIZED LANE DETECTION | |
| DE112021006402T5 (en) | Estimating automatic exposure values of a camera by prioritizing an object of interest based on contextual input from 3D maps | |
| DE112020000590T5 (en) | MAP AND PROCEDURE FOR CREATING A MAP | |
| DE102016224212A1 (en) | Automated free space detection using differential analysis for vehicles | |
| DE102021206075A1 (en) | Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles | |
| DE102018215753A1 (en) | Device and method for determining a trajectory of a vehicle | |
| DE102018214971A1 (en) | Method for creating a map of the surroundings of a vehicle | |
| DE112022003094T5 (en) | METHOD, SYSTEM AND COMPUTER PROGRAM PRODUCT FOR RESOLVING LEVEL AMBIGUITY FOR AUTONOMOUS VEHICLE RADAR SYSTEMS | |
| DE112021006099T5 (en) | Onboard feedback system for autonomous vehicles |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed |