[go: up one dir, main page]

DE102022106248A1 - System for controlling a camera to support human verification of sensor information - Google Patents

System for controlling a camera to support human verification of sensor information Download PDF

Info

Publication number
DE102022106248A1
DE102022106248A1 DE102022106248.1A DE102022106248A DE102022106248A1 DE 102022106248 A1 DE102022106248 A1 DE 102022106248A1 DE 102022106248 A DE102022106248 A DE 102022106248A DE 102022106248 A1 DE102022106248 A1 DE 102022106248A1
Authority
DE
Germany
Prior art keywords
feature
camera
vehicle
processor
lidar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022106248.1A
Other languages
German (de)
Inventor
Shawn Hunt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102022106248A1 publication Critical patent/DE102022106248A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Atmospheric Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

Ein Kamerasteuersystem wird zum Steuern des Betriebs einer Kamera (126, 148) bereitgestellt, die an einem Fahrzeug (100) montiert ist. Das System umfasst einen Prozessor (110) und einen Speicher (115), der kommunizierbar mit dem Prozessor verbunden ist. Der Speicher speichert ein Kamerasteuermodul (141), das konfiguriert ist, einen Erkennungskonfidenzgrad, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert zu vergleichen und als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert liegt, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, den Betrieb der Kamera (126, 148) steuert, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs (100) aufzunehmen.A camera control system is provided for controlling the operation of a camera (126, 148) mounted on a vehicle (100). The system includes a processor (110) and a memory (115) communicably coupled to the processor. The memory stores a camera control module (141) configured to compare a detection confidence level associated with a feature to a predetermined threshold and in response to the detection confidence level being below the predetermined threshold and using location information associated with the associated with the feature controls operation of the camera (126, 148) to capture at least one image of the feature during movement of the vehicle (100).

Description

Die vorliegende Offenbarung betrifft die Interpretation von Fahrzeugsensordaten, um ein erfasstes Objekt zu erkennen, und insbesondere die menschliche Überprüfung von Sensordaten, um die Daten mit einem erkannten Objekt zum Zweck der Aktualisierung von Objekterkennungsfähigkeiten von Fahrzeugsensorsystemen zu korrelieren.The present disclosure relates to interpreting vehicle sensor data to detect a sensed object, and more particularly to human review of sensor data to correlate the data to a detected object for the purpose of updating object detection capabilities of vehicle sensor systems.

Fahrzeuge enthalten üblicherweise Lidar- und Radarsensoren, um Merkmale in einer Umgebung eines Fahrzeugs zu erfassen. Das Fahrzeug kann auch Sensordatenverarbeitungsroutinen und Hardware enthalten, die konfiguriert sind, um die Sensordaten zu interpretieren, um zu versuchen, erfasste Merkmale zu erkennen und/oder zu kategorisieren, zum Beispiel durch Vergleichen mit gespeicherten Informationen, die bekannte und zuvor angetroffene Merkmale beschreiben. Einige erfasste Merkmale können jedoch von den Sensordatenverarbeitungsroutinen nicht erkennbar sein, zum Beispiel, weil das Merkmal noch nie zuvor angetroffen wurde, wegen des Zustands des erfassten Merkmals oder weil ein Winkel, in dem das Merkmal von dem Sensor „betrachtet“ wird, es schwierig macht, die verarbeiteten Daten akkurat mit bekannten Merkmalen zu vergleichen. Es existiert auch Software zum Erzeugen von zweidimensionalen und dreidimensionalen Darstellungen von Sensordaten (z.B. Punktwolken) zur Überprüfung durch den Menschen. Aufgrund von Einschränkungen einer solchen Software kann die genaue Identität eines erfassten Objekts jedoch selbst für einen menschlichen Prüfer, der die erzeugte Darstellung des Merkmals überprüft, unklar sein.Vehicles typically include lidar and radar sensors to detect features in a vehicle's surroundings. The vehicle may also include sensor data processing routines and hardware configured to interpret the sensor data to attempt to recognize and/or categorize sensed features, for example by comparing to stored information describing known and previously encountered features. However, some detected features may not be recognizable by the sensor data processing routines, for example because the feature has never been encountered before, because of the state of the detected feature, or because an angle at which the feature is "viewed" by the sensor makes it difficult to accurately compare the processed data to known characteristics. Software also exists for generating two-dimensional and three-dimensional representations of sensor data (e.g., point clouds) for human review. However, due to limitations of such software, the precise identity of a detected object may be unclear even to a human examiner examining the generated representation of the feature.

In einem Aspekt der hierin beschriebenen Ausführungsbeispiele wird ein Kamerasteuersystem zum Steuern des Betriebs einer Kamera bereitgestellt, die an einem Fahrzeug montiert ist. Das System enthält einen Prozessor und einen Speicher, der kommunizierbar mit dem Prozessor verbunden ist. Der Speicher speichert ein Kamerasteuermodul, das computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor bewirken, dass der Prozessor einen Erkennungskonfidenzgrad, der einem Merkmal in einer Umgebung des Fahrzeugs zugeordnet ist, mit einem vorgegebenen Schwellenwert vergleicht und, als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, den Betrieb der Kamera steuert, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.In one aspect of the embodiments described herein, a camera control system for controlling operation of a camera mounted on a vehicle is provided. The system includes a processor and a memory communicably coupled to the processor. The memory stores a camera control module that includes computer-readable instructions that, when executed by the processor, cause the processor to compare a detection confidence level associated with a feature in an area surrounding the vehicle to a predetermined threshold and, in response, the detection confidence level is below the predetermined threshold and, by using location information associated with the feature, controls operation of the camera to capture at least one image of the feature during movement of the vehicle.

In einem weiteren Aspekt der hierin beschriebenen Ausführungsbeispiele wird ein Verfahren zum Steuern des Betriebs einer Kamera bereitgestellt, die an einem Fahrzeug montiert ist. Das Verfahren beinhaltet folgende Schritte: Vergleichen eines Erkennungskonfidenzgrades, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert und, als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, Steuern des Betriebs der Kamera, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.In another aspect of the embodiments described herein, a method for controlling operation of a camera mounted on a vehicle is provided. The method includes the steps of: comparing a recognition confidence level associated with a feature to a predetermined threshold and, in response to the recognition confidence level being below the predetermined threshold, and using location information associated with the feature, controlling operation the camera to capture at least one image of the feature during movement of the vehicle.

In einem weiteren Aspekt der hierin beschriebenen Ausführungsbeispiele wird ein nichtflüchtiges computerlesbares Medium zum Steuern des Betriebs einer Kamera bereitgestellt, die an einem Fahrzeug montiert ist. Das Medium hat darin gespeicherte Anweisungen, die, wenn diese von einem Computersystem ausgeführt werden, bewirken, dass das Computersystem Funktionen durchführt, die enthalten: Vergleichen eines Erkennungskonfidenzgrades, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert und, als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, Steuern des Betriebs der Kamera, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.In another aspect of the embodiments described herein, a non-transitory computer-readable medium for controlling operation of a camera mounted on a vehicle is provided. The medium has instructions stored thereon which, when executed by a computer system, cause the computer system to perform functions including: comparing a detection confidence level associated with a feature to a predetermined threshold and, in response to the detection confidence level is below the predetermined threshold, and by using location information associated with the feature, controlling operation of the camera to capture at least one image of the feature during movement of the vehicle.

Die zugehörigen Zeichnungen, die in die Beschreibung aufgenommen sind und einen Teil davon bilden, stellen verschiedene Systeme, Verfahren und andere Ausführungsbeispiele der Offenbarung dar. Es versteht sich, dass die dargestellten Elementgrenzen (z.B. Kästen, Gruppen von Kästen oder andere Formen) in den Figuren ein Ausführungsbeispiel der Grenzen darstellen. In einigen Ausführungsbeispielen kann ein Element als mehrere Elemente konzipiert sein oder mehrere Elemente können als ein Element konzipiert sein. In einigen Ausführungsbeispielen kann ein Element, das als eine interne Komponente eines anderen Elements gezeigt ist, als eine externe Komponente implementiert sein und umgekehrt. Außerdem können gegebenenfalls Elemente nicht maßstabsgetreu gezeichnet sein.

  • 1 ist ein schematisches Blockdiagramm eines Fahrzeugs, das ein Kamerasteuersystem gemäß hierin beschriebenen Ausführungsbeispielen enthält.
  • 2 ist ein Ablaufdiagramm, das den Betrieb eines Kamerasteuersystems gemäß einem hierin beschriebenen Ausführungsbeispiel darstellt.
  • 3 ist eine schematische Draufsicht eines Fahrzeugs, das sich während des Betriebs des Kamerasteuersystems gemäß einem hierin beschriebenen Ausführungsbeispiel entlang einer Straße bewegt.
The accompanying drawings, which are incorporated in and form a part of the specification, illustrate various systems, methods, and other embodiments of the disclosure. It should be understood that the illustrated entity boundaries (eg, boxes, groups of boxes, or other shapes) in the figures represent an embodiment of the boundaries. In some embodiments, an element can be designed as multiple elements or multiple elements can be designed as one element. In some embodiments, an element shown as an internal component of another element may be implemented as an external component and vice versa. Additionally, elements may not be drawn to scale.
  • 1 1 is a schematic block diagram of a vehicle including a camera control system according to embodiments described herein.
  • 2 FIG. 12 is a flow chart illustrating the operation of a camera control system according to an embodiment described herein.
  • 3 12 is a schematic plan view of a vehicle that moves during operation of the camera control system according to a herein described embodiment moves along a road.

Hierin beschriebene Ausführungsbeispiele betreffen ein Kamerasteuersystem zum Steuern des Betriebs einer Kamera, die an einem Fahrzeug montiert ist. Das System enthält einen Prozessor und einen Speicher, der kommunizierbar mit dem Prozessor verbunden ist. Der Speicher speichert ein Kamerasteuermodul, das konfiguriert ist, einen Erkennungskonfidenzgrad, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert zu vergleichen. Als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, wird der Betrieb der Kamera gesteuert, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen. Das aufgenommene Bild kann zeitlich mit Lidar- und/oder Radardaten bezüglich des erfassten Merkmals korreliert und gleichzeitig mit dem Kamerabild bezogen werden. Wenn der Konfidenzgrad unter dem vorgegebenen Schwellenwert liegt, können die zeitkorrelierten Kamerabilder und verarbeiteten Lidar-/Radarinformationen an einen menschlichen Prüfer weitergeleitet werden. Der menschliche Prüfer kann die Lidar-/Radarinformationen vergleichen und mit Kamerabildern des tatsächlichen Merkmals in Beziehung setzen, das in den Lidar-/Radarinformationen dargestellt ist. Wenn die Lidar-/Radarinformationen kategorisiert oder einem tatsächlich bekannten Merkmal zugeordnet werden, können die neu bezogenen Lidar-/Radarinformationen in Bezug auf das Merkmal zu einem Katalog bekannter Lidar-/Radarinformationen hinzugefügt werden, die dem Merkmal zugeordnet sind, wodurch die Ressourcendatenbank erweitert wird, die für den Vergleich mit neu bezogenen Lidar-/Radarinformationen verwendet wird. Dies kann die zukünftige Erkennung dieses Merkmals oder eines ähnlichen Merkmals in anderen Fahrzeugen erleichtern, die dieselbe Datenbank als eine Quelle bekannter Lidar-/Radarinformationen zum Vergleich verwenden.Embodiments described herein relate to a camera control system for controlling operation of a camera mounted on a vehicle. The system includes a processor and a memory communicably coupled to the processor. The memory stores a camera control module configured to compare a recognition confidence level associated with a feature to a predetermined threshold. In response to the detection confidence level being below the predetermined threshold and using location information associated with the feature, operation of the camera is controlled to capture at least one image of the feature as the vehicle moves. The captured image can be temporally correlated with lidar and/or radar data regarding the detected feature and obtained simultaneously with the camera image. If the confidence level is below the predetermined threshold, the time-correlated camera images and processed lidar/radar information can be forwarded to a human examiner. The human inspector can compare and correlate the lidar/radar information with camera images of the actual feature represented in the lidar/radar information. When the lidar/radar information is categorized or associated with an actual known feature, the newly obtained lidar/radar information related to the feature can be added to a catalog of known lidar/radar information associated with the feature, thereby expanding the resource database , which is used for comparison with newly acquired lidar/radar information. This may facilitate future detection of that feature or a similar feature in other vehicles using the same database as a source of known lidar/radar information for comparison.

1 zeigt ein schematisches Blockdiagramm eines Fahrzeugs 100, das ein Kamerasteuersystem enthält, gemäß hierin beschriebener Ausführungsbeispiele. Das Kamerasteuersystem kann konfiguriert sein, den Betrieb einer Überprüfungsunterstützungskamera 148 zu steuern, die an dem Fahrzeug 100 montiert ist. Wie hierin verwendet, ist ein „Fahrzeug“ jede Form von motorisiertem Transportmittel. In einer oder mehreren Implementierungen ist das Fahrzeug 100 ein herkömmlicher Personenkraftwagen, wie beispielsweise eine Limousine, ein Pickup-Truck oder ein SUV, obwohl das Fahrzeug 100 jede Form eines motorisierten Transportmittels sein kann, das einen Lidarsensor und/oder einen Radarsensor als Teil der Fahrzeugsensoren enthält. 1 10 shows a schematic block diagram of a vehicle 100 including a camera control system, according to embodiments described herein. The camera control system may be configured to control the operation of an inspection support camera 148 mounted on the vehicle 100 . As used herein, a "vehicle" is any form of motorized transportation. In one or more implementations, the vehicle 100 is a conventional passenger vehicle, such as a sedan, pickup truck, or SUV, although the vehicle 100 may be any form of motorized transportation that includes a lidar sensor and/or a radar sensor as part of the vehicle's sensors contains.

Das Fahrzeug 100 enthält auch verschiedene Elemente. Es versteht sich, dass es in verschiedenen Ausführungsbeispielen möglicherweise nicht erforderlich ist, dass das Fahrzeug 100 alle in 1 gezeigten Elemente aufweist. Das Fahrzeug 100 kann eine beliebige Kombination der verschiedenen in 1 gezeigten Elemente aufweisen. Des Weiteren kann das Fahrzeug 100 zusätzliche Elemente zu den in 1 gezeigten aufweisen. In einigen Anordnungen kann das Fahrzeug 100 ohne eines oder mehreren der in 1 gezeigten Elemente implementiert sein. Während die verschiedenen Elemente in 1 als innerhalb des Fahrzeugs 100 angeordnet gezeigt sind, versteht es sich, dass eines oder mehrere dieser Elemente außerhalb des Fahrzeugs 100 angeordnet sein können.The vehicle 100 also includes various elements. It is understood that in various exemplary embodiments it may not be necessary for the vehicle 100 to have all of the 1 has elements shown. The vehicle 100 can be any combination of the various in 1 have elements shown. Furthermore, the vehicle 100 can have additional elements to those in 1 have shown. In some arrangements, the vehicle 100 may be without one or more of the 1 elements shown can be implemented. While the various elements in 1 are shown as being located within the vehicle 100, it is understood that one or more of these elements may be located outside of the vehicle 100.

Einige der möglichen Elemente des Fahrzeugs 100 sind in 1 gezeigt und werden in Bezug darauf beschrieben. Außerdem versteht es sich, dass zur Vereinfachung und Klarheit der Darstellung gegebenenfalls Bezugszeichen zwischen den verschiedenen Figuren wiederholt worden sein können, um entsprechende oder analoge Elemente anzugeben. Zusätzlich skizziert die Diskussion zahlreiche spezifische Details, um ein gründliches Verständnis der hierin beschriebenen Ausführungsbeispiele bereitzustellen. Der Fachmann wird jedoch verstehen, dass die hierin beschriebenen Ausführungsbeispiele durch Verwendung verschiedener Kombinationen dieser Elemente praktiziert werden können.Some of the possible elements of the vehicle 100 are in 1 shown and described in relation thereto. In addition, it should be understood that for simplicity and clarity of presentation, where appropriate, reference numbers may have been repeated between the different figures to indicate corresponding or analogous elements. In addition, the discussion outlines numerous specific details in order to provide a thorough understanding of the embodiments described herein. However, those skilled in the art will understand that the embodiments described herein can be practiced using various combinations of these elements.

In einigen Fällen kann das Fahrzeug 100 konfiguriert sein, selektiv zwischen einem autonomen Modus, einem oder mehreren halbautonomen Betriebsmodi und/oder einem manuellen Modus umzuschalten. Ein solches Umschalten kann in geeigneter Weise implementiert werden, die jetzt bekannt ist oder später entwickelt wird. „Manueller Modus“ bedeutet, dass die gesamte oder ein Großteil der Navigation und/oder des Manövrierens des Fahrzeugs gemäß Eingaben durchgeführt wird, die von einem Benutzer (z.B. einem menschlichen Fahrer) empfangen werden. Bei einer oder mehreren Anordnungen kann das Fahrzeug 100 ein herkömmliches Fahrzeug sein, das konfiguriert ist, nur in einem manuellen Modus betrieben zu werden.In some cases, the vehicle 100 may be configured to selectively switch between an autonomous mode, one or more semi-autonomous operating modes, and/or a manual mode. Such switching can be implemented in any suitable manner now known or later developed. "Manual Mode" means that all or a majority of the navigation and/or maneuvering of the vehicle is performed in accordance with inputs received from a user (e.g., a human driver). In one or more arrangements, the vehicle 100 may be a conventional vehicle configured to operate in a manual mode only.

In einem oder mehreren Ausführungsbeispielen ist das Fahrzeug 100 ein autonomes Fahrzeug. Wie hierin verwendet, betrifft „autonomes Fahrzeug“ ein Fahrzeug, das in einem autonomen Modus betrieben werden kann. „Autonomer Modus“ bezieht sich auf das Navigieren und/oder Manövrieren des Fahrzeugs 100 entlang einer Fahrtroute durch Verwendung eines oder mehrerer Computersysteme, um das Fahrzeug 100 mit minimaler oder keiner Eingabe von einem menschlichen Fahrer zu steuern. In einem oder mehreren Ausführungsbeispielen ist das Fahrzeug 100 hochautomatisiert oder vollständig automatisiert. In einer oder mehreren Anordnungen ist das Fahrzeug 100 mit einem oder mehreren halbautonomen Betriebsmodi konfiguriert, in denen ein oder mehrere Computersysteme einen Abschnitt der Navigation und/oder des Manövrierens des Fahrzeugs entlang einer Fahrtroute durchführen, und ein Fahrzeugführer (d.h. Fahrer) stellt dem Fahrzeug Eingaben bereit, um einen Abschnitt der Navigation und/oder des Manövrierens des Fahrzeugs 100 entlang der Fahrtroute durchzuführen.In one or more embodiments, vehicle 100 is an autonomous vehicle. As used herein, “autonomous vehicle” refers to a vehicle that can be operated in an autonomous mode. “Autonomous mode” refers to navigating and/or maneuvering the vehicle 100 along a route through the use of one or more computers systems to control the vehicle 100 with minimal or no input from a human driver. In one or more embodiments, the vehicle 100 is highly automated or fully automated. In one or more arrangements, the vehicle 100 is configured with one or more semi-autonomous modes of operation in which one or more computing systems perform a portion of navigating and/or maneuvering the vehicle along a travel route, and a vehicle operator (ie, driver) provides inputs to the vehicle ready to perform a portion of navigating and/or maneuvering the vehicle 100 along the route.

Ausführungsbeispiele des hierin beschriebenen Kamerasteuermoduls 141 können den Betrieb der Überprüfungsunterstützungskamera 148 für die hierin beschriebenen Zwecke autonom steuern, sowohl wenn das Fahrzeug in einem manuellen Modus als auch in einem autonomen Modus betrieben wird. Das Kamerasteuermodul 141 kann nach Bedarf mit dem Autonomes-Fahren-Modul 160 eine Schnittstelle bilden, um die autonome Steuerung der Kamera 148 zu erleichtern.Embodiments of the camera control module 141 described herein can autonomously control the operation of the inspection support camera 148 for the purposes described herein, both when the vehicle is operating in a manual mode and in an autonomous mode. The camera control module 141 may interface with the autonomous driving module 160 to facilitate autonomous control of the camera 148 as needed.

Das Fahrzeug 100 kann einen oder mehrere Prozessoren 110 enthalten. In einer oder mehreren Anordnungen kann/können der/die Prozessor(en) 110 ein Hauptprozessor/Hauptprozessor(en) des Fahrzeugs 100 sein. Zum Beispiel kann/können der/die Prozessor(en) 110 eine elektronische Steuereinheit sein (ECU). Das Fahrzeug 100 kann einen oder mehrere Datenspeicher 115 zum Speichern von einem oder mehreren Datentypen enthalten. Der/Die Datenspeicher 115 kann/können flüchtige und/oder nicht flüchtige Speicher enthalten. Beispiele geeigneter Datenspeicher 115 enthalten RAM (Random Access Memory), Flash-Speicher, ROM (Read Only Memory), PROM (Programmable Read Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), Register, Magnetplatten, optische Platten, Festplatten oder jedes andere geeignete Speichermedium oder jede Kombination davon. Der/Die Datenspeicher 115 kann/können eine Komponente des/der Prozessor(en) 110 sein, oder der/die Datenspeicher 115 kann/können mit dem/den Prozessor(en) 110 zur Verwendung durch diesen operativ verbunden sein. Der Begriff „operativ verbunden“, wie er in dieser Beschreibung verwendet wird, kann direkte oder indirekte Verbindungen enthalten, einschließlich Verbindungen ohne direkten physischen Kontakt.The vehicle 100 may include one or more processors 110 . In one or more arrangements, the processor(s) 110 may be a main processor(s) of the vehicle 100 . For example, the processor(s) 110 may be an electronic control unit (ECU). The vehicle 100 may include one or more data stores 115 for storing one or more types of data. Data store(s) 115 may include volatile and/or non-volatile memory. Examples of suitable data storage 115 include RAM (Random Access Memory), flash memory, ROM (Read Only Memory), PROM (Programmable Read Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory ), registers, magnetic disks, optical disks, hard disks or any other suitable storage medium or any combination thereof. The data store(s) 115 may be a component of the processor(s) 110, or the data store(s) 115 may be operatively connected to the processor(s) 110 for use thereby. The term "operatively connected" as used in this specification may include direct or indirect connections, including connections without direct physical contact.

Der eine oder die mehreren Datenspeicher 115 können Sensordaten 119 enthalten. In diesem Zusammenhang bedeutet „Sensordaten“ beliebige Informationen über die Sensoren, mit denen das Fahrzeug 100 ausgestattet ist, einschließlich der Fähigkeiten und anderer Informationen über solche Sensoren. Wie nachfolgend erläutert wird, kann das Fahrzeug 100 das Sensorsystem 120 enthalten. Die Sensordaten 119 können sich auf einen oder mehrere Sensoren des Sensorsystems 120 beziehen. Als ein Beispiel können die Sensordaten 119 in einer oder mehreren Anordnungen Betriebsinformationen und Spezifikationen zu Radarsensor(en) 109, Lidarsensor(en) 125 und Kamera(s) 126 des Sensorsystems 120 enthalten. Der/Die Datenspeicher 115 kann/können operativ mit der drahtlosen Fahrzeugkommunikationsschnittstelle 169 verbunden sein, um Informationen an eine Cloud oder eine andere Entität außerhalb des Fahrzeugs zu übertragen.The one or more data stores 115 may contain sensor data 119 . In this context, “sensor data” means any information about the sensors that the vehicle 100 is equipped with, including capabilities and other information about such sensors. As discussed below, the vehicle 100 may include the sensor system 120 . The sensor data 119 can relate to one or more sensors of the sensor system 120 . As an example, sensor data 119 may include operational information and specifications related to radar sensor(s) 109, lidar sensor(s) 125, and camera(s) 126 of sensor system 120 in one or more arrangements. The data store(s) 115 may be operatively connected to the vehicle wireless communication interface 169 to transmit information to a cloud or other entity outside the vehicle.

In einem oder mehreren Anordnungen können der eine oder die mehreren Datenspeicher 115 Kartendaten 189 enthalten. Die Kartendaten 189 können Karten von einem oder mehreren geografischen Gebieten enthalten. In einigen Fällen können die Kartendaten 189 Informationen oder Daten zu Straßen, Verkehrsregelungsvorrichtungen, Straßenmarkierungen, Strukturen, interessanten Merkmalen und/oder Orientierungspunkten in dem einen oder den mehreren geografischen Gebieten enthalten. Die Kartendaten 189 können in jeder geeigneten Form vorliegen. In einigen Fällen können die Kartendaten 189 Luftaufnahmen eines Gebiets enthalten. In einigen Fällen können die Kartendaten 189 Bodenansichten eines Gebiets enthalten, einschließlich 360-Grad-Bodenansichten. Die Kartendaten 189 können Messungen, Abmessungen, Entfernungen und/oder Informationen für ein oder mehrere in den Kartendaten 189 enthaltene Elemente und/oder in Bezug auf andere in den Kartendaten 189 enthaltene Elemente beinhalten. Die Kartendaten 189 können eine digitale Karte mit Informationen über Stra-ßengeometrie, Straßengefälle und Steigungen und andere Straßeninformationen enthalten, einschließlich Informationen über die Straße, auf der das Fahrzeug 100 gerade fährt. Die Kartendaten 189 können von hoher Qualität und/oder sehr detailliert sein. In einer oder mehreren Anordnungen können die Kartendaten 189 kontinuierlich (d.h. sobald Informationen bezüglich Revisionen verfügbar werden) oder regelmäßig von einer Cloud-Quelle oder einer anderen Quelle außerhalb des Fahrzeugs aktualisiert werden. Informationen aus den Kartendaten 189 können verwendet werden, um Standortinformationen in Bezug auf Merkmale der Umgebung zu bestimmen, die durch Lidar- und Radar-Scans erfasst werden.In one or more arrangements, the one or more data stores 115 may include map data 189 . Map data 189 may include maps of one or more geographic areas. In some cases, the map data 189 may include information or data regarding roads, traffic control devices, road markings, structures, points of interest, and/or landmarks in the one or more geographic areas. Map data 189 may be in any suitable form. In some cases, the map data 189 may include aerial photos of an area. In some cases, the map data 189 may include ground views of an area, including 360 degree ground views. Map data 189 may include measurements, dimensions, distances, and/or information for one or more items included in map data 189 and/or relating to other items included in map data 189 . Map data 189 may include a digital map with information about road geometry, road grades and gradients, and other road information, including information about the road on which vehicle 100 is currently traveling. The map data 189 can be of high quality and/or very detailed. In one or more arrangements, the map data 189 may be updated continuously (i.e., as information regarding revisions becomes available) or periodically from a cloud source or other off-vehicle source. Information from the map data 189 can be used to determine location information related to features of the surrounding area captured by lidar and radar scans.

Die Kamerabildinformationen 165 können Bilder (wie beispielsweise digitale Bilder) von Merkmalen der Umgebung enthalten, die von einer Kamera (wie beispielsweise der Überprüfungsunterstützungskamera 148) aufgenommen und/oder aus Daten erzeugt werden, die von der Kamera bezogen werden. Die Kamerabildinformationen 165 können Kamerabilddaten enthalten, aus denen Kamerabilder erzeugt werden können, die von einem menschlichen Prüfer betrachtet werden können. Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die beim Ausführen durch den Prozessor bewirken, dass der Prozessor Kamerabildinformationen 165 mit gleichzeitig bezogenen Lidar-Scan-Informationen und/oder Radar-Scan-Informationen zeitlich korreliert (z.B. können Kamerabilddaten zeitlich mit Lidardaten und/oder Radardaten verknüpft werden, die gleichzeitig mit den Lidar- und/oder Radardaten bezogen werden). Somit kann zum Beispiel ein Kamerabild, das von der Überprüfungsunterstützungskamera 148 um 14:05 Uhr während einer Tagesfahrt mit dem Fahrzeug aufgenommen wurde, mit einem Lidar-Scan zeitlich korreliert werden, der von einem Lidarsensor 125 um 14:05 Uhr während der Tagesfahrt durchgeführt wird.Camera image information 165 may include images (such as digital images) of features of the environment captured by a camera (such as inspection support camera 148) and/or generated from data captured by the camera be obtained. The camera image information 165 can include camera image data from which camera images can be generated that can be viewed by a human reviewer. The camera control module 141 may include computer-readable instructions that, when executed by the processor, cause the processor to temporally correlate camera image information 165 with simultaneously acquired lidar scan information and/or radar scan information (e.g., camera image data may be temporally correlated with lidar data and/or radar data are linked, which are obtained simultaneously with the lidar and/or radar data). Thus, for example, a camera image taken by the verification support camera 148 at 2:05 p.m. during a daytime drive with the vehicle can be time-correlated with a lidar scan performed by a lidar sensor 125 at 2:05 p.m. during the daytime drive .

Die Lidar-Scan-Informationen 118 können Scandaten enthalten, die von einem Lidarsensor 125 während eines Lidar-Scans erfasst werden, Standortinformationen, die Standorte von Merkmalen beschreiben, die durch Lidar-Scans erkannt werden, computergenerierte Identifikationen und/oder Klassifikationen der Merkmale, Konfidenzgrade in Bezug auf die Merkmalsidentifikationen, Informationen, die Punktwolken beschreiben, die aus zugehörigen Lidar-Scans erzeugt werden, Daten und Tageszeiten, zu denen die zugehörigen Lidar-Scans durchgeführt werden, Informationen, die bekannte oder identifizierte Punktwolkenkonfigurationen zum Zweck des Vergleichens mit neu bezogenen Scandaten und zugehörigen Punktwolken beschreiben, und andere Informationen in Bezug auf Lidar-Scans, die von einem Lidarsensor 125 durchgeführt werden. Wie zuvor angegeben, können die Lidar-Scan-Informationen mit gleichzeitig bezogenen Kamerabildinformationen und/oder Radar-Scan-Informationen zeitlich korreliert werden (d.h. Lidardaten können mit Kamerabildern und/oder Radardaten zeitlich verknüpft werden, die gleichzeitig mit Kamerabildern und/oder Radardaten bezogen werden). Durch Verwendung der aus Lidar- und/oder Radar-Scans erfassten Daten können der/die Prozessor(en) 110 Punktwolken erzeugen, die für in der Fahrzeugumgebung erfasste Merkmale repräsentativ sind.The lidar scan information 118 may include scan data captured by a lidar sensor 125 during a lidar scan, location information describing locations of features recognized by lidar scans, computer generated identifications and/or classifications of the features, confidence levels in relation to the feature identifications, information describing point clouds generated from associated lidar scans, dates and times of day when the associated lidar scans are performed, information describing known or identified point cloud configurations for the purpose of comparison with newly obtained scan data and associated point clouds, and other information related to lidar scans performed by a lidar sensor 125 . As previously indicated, the lidar scan information may be temporally correlated with simultaneously obtained camera image information and/or radar scan information (i.e., lidar data may be temporally linked to camera images and/or radar data that are obtained simultaneously with camera images and/or radar data ). Using the data collected from lidar and/or radar scans, the processor(s) 110 may generate point clouds representative of features detected in the vehicle's surroundings.

Die Radar-Scan-Informationen 123 können Scandaten enthalten, die von einem Radarsensor 109 während eines Radar-Scans erfasst werden, Standortinformationen, die Standorte von Merkmalen beschreiben, die durch Radar-Scans erfasst werden, computergenerierte Identifikationen und/oder Klassifikationen der Merkmale, Konfidenzgrade in Bezug auf die Merkmalsidentifikationen, Informationen, die Punktwolken beschreiben, die aus zugehörigen Radar-Scans erzeugt werden, Daten und Tageszeiten, zu denen zugehörige Radar-Scans durchgeführt werden, Informationen, die bekannte oder identifizierte Punktwolkenkonfigurationen zum Zweck des Vergleichens mit neu bezogenen Scandaten und zugehörigen Punktwolken beschreiben, und andere Informationen in Bezug auf Radar-Scans, die von einem Radarsensor 109 durchgeführt werden. Wie zuvor angegeben, können die Radar-Scan-Informationen mit gleichzeitig bezogenen Kamerabildinformationen und/oder Radar-Scan-Informationen zeitlich korreliert werden (d.h. Lidardaten können mit Kamerabildern und/oder Radardaten zeitlich verknüpft werden, die gleichzeitig mit Kamerabildern und/oder Radardaten bezogen werden.The radar scan information 123 may include scan data captured by a radar sensor 109 during a radar scan, location information describing locations of features captured by radar scans, computer generated identifications and/or classifications of the features, confidence levels in relation to the feature identifications, information describing point clouds generated from associated radar scans, dates and times of day when associated radar scans are performed, information describing known or identified point cloud configurations for the purpose of comparison with newly acquired scan data and describe associated point clouds and other information related to radar scans performed by a radar sensor 109 . As previously indicated, the radar scan information may be temporally correlated with simultaneously obtained camera image information and/or radar scan information (i.e., lidar data may be temporally linked to camera images and/or radar data that are obtained simultaneously with camera images and/or radar data .

Durch Verwendung der Daten, die aus Lidar- und/oder Radar-Scans bezogen werden, können der/die Prozessor(en) 110 auf bekannte Weise Punktwolken erzeugen, die für in der Fahrzeugumgebung erfasste Merkmale repräsentativ sind.Using the data obtained from lidar and/or radar scans, the processor(s) 110 can generate point clouds representative of features detected in the vehicle environment in a known manner.

Wie zuvor angemerkt, kann das Fahrzeug 100 das Sensorsystem 120 enthalten. Das Sensorsystem 120 kann einen oder mehrere Sensoren enthalten. „Sensor“ bezeichnet jede Vorrichtung, jede Komponente und/oder jedes System, das etwas erfassen und/oder messen kann. Der eine oder die mehreren Sensoren können konfiguriert sein, um in Echtzeit zu erfassen und/oder zu messen. Wie hierin verwendet, bedeutet der Begriff „Echtzeit“ ein Grad bzw. Maß an Verarbeitungsreaktionsfähigkeit, den ein Benutzer oder System als ausreichend unmittelbar wahrnimmt, damit ein bestimmter Prozess oder eine Bestimmung durchgeführt werden kann, oder das es dem Prozessor ermöglicht, mit einem externen Prozess Schritt zu halten. Bei Anordnungen, bei denen das Sensorsystem 120 eine Mehrzahl von Sensoren enthält, können die Sensoren unabhängig voneinander arbeiten. Alternativ können zwei oder mehr der Sensoren in Kombination miteinander arbeiten. Dabei können die zwei oder mehr Sensoren ein Sensornetzwerk ausbilden. Das Sensorsystem 120 und/oder der eine oder die mehreren Sensoren können mit dem/den Prozessor(en) 110, dem/den Datenspeicher(n) 115 und/oder anderen Element(en) des Fahrzeugs 100 operativ verbunden sein (einschließlich eines beliebigen der Elemente, die in 1 gezeigt sind).As previously noted, the vehicle 100 may include the sensor system 120 . Sensor system 120 may include one or more sensors. “Sensor” means any device, component and/or system that can sense and/or measure something. The one or more sensors may be configured to sense and/or measure in real time. As used herein, the term "real-time" means a degree or measure of processing responsiveness that a user or system perceives as sufficiently immediate for a particular process or determination to be performed, or that allows the processor to interact with an external process Keep up. In arrangements where the sensor system 120 includes a plurality of sensors, the sensors can operate independently of one another. Alternatively, two or more of the sensors can work in combination. In this case, the two or more sensors can form a sensor network. The sensor system 120 and/or the one or more sensors may be operatively connected to the processor(s) 110, the data storage(s) 115, and/or other element(s) of the vehicle 100 (including any of the elements in 1 are shown).

Das Sensorsystem 120 kann jeden geeigneten Sensortyp enthalten. Hierin werden verschiedene Beispiele unterschiedlicher Arten von Sensoren beschrieben. Es versteht sich jedoch, dass die Ausführungsbeispiele nicht auf die beschriebenen speziellen Sensoren beschränkt sind. Hierin werden verschiedene Beispiele von Sensoren des Sensorsystems 120 beschrieben. Die beispielhaften Sensoren können Teil des einen oder der mehreren Umgebungssensoren 122 und/oder des einen oder der mehreren Fahrzeugsensoren 121 sein. Es versteht sich jedoch, dass die Ausführungsbeispiele nicht auf die beschriebenen speziellen Sensoren beschränkt sind. Das Sensorsystem 120 kann beliebige Sensoren enthalten, die geeignet und/oder erforderlich sind, um beliebige der hier in Betracht gezogenen Datenbezugs- und/oder Fahrzeugsteuerungsvorgänge durchzuführen.Sensor system 120 may include any suitable type of sensor. Various examples of different types of sensors are described herein. However, it goes without saying that the exemplary embodiments are not limited to the specific sensors described. Various examples of sensors of the sensor system 120 are described herein. The example sensors may be part of the one or more environmental sensors 122 and/or the one or the multiple vehicle sensors 121 . However, it goes without saying that the exemplary embodiments are not limited to the specific sensors described. Sensor system 120 may include any sensors suitable and/or required to perform any of the data acquisition and/or vehicle control operations contemplated herein.

Sensoren des Sensorsystems 120 können kommunizierbar mit den verschiedenen Systemen und Komponenten des Fahrzeugs 100 verbunden bzw. gekoppelt sein. Die Sensoren können operativ mit der drahtlosen Fahrzeugkommunikationsschnittstelle 169 verbunden sein, um Informationen an eine Cloud oder eine andere Speichereinrichtung oder für Fahrzeug-zu-Fahrzeug-(V2V)- oder Fahrzeug-zu-Alles-(V2X)-Kommunikationen zu übertragen. Die Sensoren können auch operativ mit anderen Fahrzeugsystemen und -komponenten verbunden sein, wie beispielweise Datenspeichern 115 und Prozessor(en) 110, um die Speicherung und Verarbeitung von Fahrzeug- und Umgebungssensordaten zu erleichtern. Das Vorhandensein der verschiedenen hierin beschriebenen Bedingungen können durch Verwendung von Sensordaten berechnet oder anderweitig bestimmt werden.Sensors of the sensor system 120 may be communicably coupled to the various systems and components of the vehicle 100 . The sensors may be operatively connected to the vehicle wireless communication interface 169 to transmit information to a cloud or other storage device or for vehicle-to-vehicle (V2V) or vehicle-to-everything (V2X) communications. The sensors may also be operatively connected to other vehicle systems and components, such as data storage 115 and processor(s) 110 to facilitate storage and processing of vehicle and environmental sensor data. The presence of the various conditions described herein may be calculated or otherwise determined using sensor data.

Sensoren des Sensorsystems 120 können einen oder mehrere Zeitgeber oder Uhren (nicht gezeigt) enthalten (oder operativ damit verbunden sein), die konfiguriert sind, um Bezug, Verfolgung, Speicherung, Erzeugung und/oder Verarbeitung von zeitkorrelierten Sensordaten und anderen Informationen wie hierin beschrieben zu ermöglichen. Diese zeitkorrelierten Informationen können einem menschlichen Prüfer bereitgestellt werden, um den Prüfer beim Zuordnen von Merkmalen, die durch Lidar- und Radar-Scans erfasst werden, mit physikalischen Merkmalen zu unterstützen, die in zugeordneten Kamerabildern gezeigt sind.Sensors of sensor system 120 may include (or be operatively associated with) one or more timers or clocks (not shown) configured to obtain, track, store, generate, and/or process time-correlated sensor data and other information as described herein enable. This time-correlated information can be provided to a human inspector to assist the inspector in associating features detected by lidar and radar scans with physical features shown in associated camera images.

Das Sensorsystem 120 kann einen oder mehrere Fahrzeugsensoren 121 enthalten. Der/die Fahrzeugsensor(en) 121 kann/können Informationen über das Fahrzeug 100 selbst und/oder Insassen innerhalb des Fahrzeugs erfassen, bestimmen und/oder messen. Der/die Fahrzeugsensor(en) 121 kann/können Sensoren enthalten, die konfiguriert sind, um Bedingungen und/oder Ereignisse innerhalb des Fahrzeuginnenraums oder der Fahrgastzelle zu erfassen. In einer oder mehreren Anordnungen kann/können der/die Fahrzeugsensor(en) 121 konfiguriert sein, um Positions- und Orientierungsänderungen des Fahrzeugs 100 zu erfassen und/oder zu messen, wie beispielsweise zum Beispiel basierend auf einer Trägheitsbeschleunigung. In einer oder mehreren Anordnungen kann/können der/die Fahrzeugsensor(en) 121 einen oder mehrere Beschleunigungsmesser, ein oder mehrere Gyroskope, eine Trägheitsmesseinheit (IMU), ein Koppelnavigationssystem, ein globales Satellitennavigationssystem (GNSS), ein globales Positionierungssystem (GPS), ein Navigationssystem 147 und/oder andere geeignete Sensoren enthalten. Der/die Fahrzeugsensor(en) 121 kann/können konfiguriert sein, um eine oder mehrere Eigenschaften des Fahrzeugs 100 zu erfassen und/oder zu messen, wie beispielsweise den aktuellen geografischen Standort des Fahrzeugs. In einer oder mehreren Anordnungen kann/können der/die Fahrzeugsensor(en) 121 einen Tachometer enthalten, um eine aktuelle Geschwindigkeit und Beschleunigung/Verlangsamung des Fahrzeugs 100 zu bestimmen. Der/die Fahrzeugsensor(en) 121 kann/können (nicht gezeigte) Fahrzeugrichtungssensoren enthalten, die konfiguriert sind, um eine aktuelle Fahrtrichtung des Fahrzeugs oder eine Richtung, in die das Fahrzeug weist, zu bestimmen. Der/die Fahrzeugsensor(en) 121 kann/können Sensoren enthalten, die konfiguriert sind, um Aspekte der mechanischen und elektrischen Komponenten und/oder Systeme des Fahrzeugs zu erfassen, um bei der Bestimmung eines mechanischen Zustands des Fahrzeugs und bestehender und/oder potenzieller Probleme mit dem Fahrzeug zu helfen.Sensor system 120 may include one or more vehicle sensors 121 . The vehicle sensor(s) 121 may sense, determine, and/or measure information about the vehicle 100 itself and/or occupants within the vehicle. Vehicle sensor(s) 121 may include sensors configured to sense conditions and/or events within the vehicle interior or cabin. In one or more arrangements, the vehicle sensor(s) 121 may be configured to detect and/or measure changes in position and orientation of the vehicle 100, such as, for example, based on inertial acceleration. In one or more arrangements, the vehicle sensor(s) 121 may include one or more accelerometers, one or more gyroscopes, an inertial measurement unit (IMU), a dead reckoning system, a global navigation satellite system (GNSS), a global positioning system (GPS), a Navigation system 147 and/or other suitable sensors included. The vehicle sensor(s) 121 may be configured to sense and/or measure one or more characteristics of the vehicle 100, such as the current geographic location of the vehicle. In one or more arrangements, the vehicle sensor(s) 121 may include a tachometer to determine a current speed and acceleration/deceleration of the vehicle 100 . Vehicle sensor(s) 121 may include vehicle direction sensors (not shown) configured to determine a current direction of travel of the vehicle or a direction that the vehicle is pointing. Vehicle sensor(s) 121 may include sensors configured to sense aspects of the vehicle's mechanical and electrical components and/or systems to assist in determining a mechanical condition of the vehicle and existing and/or potential issues to help with the vehicle.

Das Sensorsystem 120 kann einen oder mehrere Umgebungssensoren 122 enthalten, die konfiguriert sind, um Daten von zumindest einem Abschnitt der äußeren Umgebung des Fahrzeugs 100 (z.B. Objekte in der Nähe) zu beziehen. Die Umgebungssensoren 122 können Daten oder Informationen über die äußere Umgebung, in der sich das Fahrzeug befindet, oder einen oder mehrere Abschnitte davon erfassen. Zum Beispiel können die Umgebungssensoren 122 konfiguriert sein, um Hindernisse in zumindest einem Abschnitt der äußeren Umgebung des Fahrzeugs 100 und/oder Informationen/Daten über solche Hindernisse zu erfassen, zu quantifizieren und/oder zu messen. Solche Hindernisse können stationäre Objekte und/oder dynamische Objekte sein. Der eine oder die mehreren Umgebungssensoren 122 können konfiguriert sein, um andere Dinge in der äußeren Umgebung des Fahrzeugs 100 zu erfassen, zu ermitteln, zu quantifizieren und/oder zu messen, wie beispielsweise Fahrspurmarkierungen, Schilder, Ampeln, Verkehrszeichen, Fahrspurlinien, Zebrastreifen, Bordsteine in der Nähe des Fahrzeugs 100, Objekte im Gelände, Wetterbedingungen, andere Fahrzeuge usw. Als ein Beispiel können die Umgebungssensoren 122 in einer oder mehreren Anordnungen einen oder mehrere Radarsensoren 109, einen oder mehrere Lidarsensoren 125, eine oder mehrere Kameras 126 (einschließlich Überprüfungsunterstützungskamera 148) und/oder andere Arten von Sensoren 127 enthalten.The sensor system 120 may include one or more environmental sensors 122 configured to obtain data from at least a portion of the vehicle's 100 external environment (e.g., nearby objects). The environmental sensors 122 may collect data or information about the external environment in which the vehicle is located, or one or more portions thereof. For example, the environmental sensors 122 may be configured to sense, quantify, and/or measure obstacles in at least a portion of the vehicle's 100 exterior environment and/or information/data about such obstacles. Such obstacles can be stationary objects and/or dynamic objects. The one or more environmental sensors 122 may be configured to sense, determine, quantify, and/or measure other things in the external environment of the vehicle 100, such as lane markers, signs, traffic lights, traffic signs, lane lines, crosswalks, curbs near vehicle 100, off-road objects, weather conditions, other vehicles, etc. As an example, environmental sensors 122 may include, in one or more arrangements, one or more radar sensors 109, one or more lidar sensors 125, one or more cameras 126 (including inspection support camera 148 ) and/or other types of sensors 127 included.

Umgebungssensoren wie Lidarsensor(en) 125 und Radarsensor(en) 109 können betreibbar sein, um zu versuchen, Merkmale in der Fahrzeugumgebung zu erfassen und zu erkennen. Radar 109, Lidar 125, Kamera(s) 126 und/oder andere Sensoren können auch verwendbar sein, um die Geschwindigkeit, Beschleunigung, Position und andere Eigenschaften von Merkmalen in der Umgebung des Fahrzeugs 100 zu überwachen, wie beispielsweise Beschilderung, Blattwerk bzw. Laub, andere Fahrzeuge, Fußgänger usw. Die Umgebungssensoren 122 können konfiguriert sein, um Aspekte der Straßengeometrie, der Straßenqualität/-steigung, der Verkehrsbedingungen, der Bewegungen und Eigenschaften anderer Fahrzeuge, und andere externe Ereignisse und Bedingungen zu erfassen.Surrounding sensors such as lidar sensor(s) 125 and radar sensor(s) 109 may be operable to attempt to sense and recognize features in the vehicle's surroundings. Radar 109, lidar 125, camera(s) 126, and/or other sensors may also be usable to monitor the speed, acceleration, position, and other properties of features in the vicinity of vehicle 100, such as signage, foliage , other vehicles, pedestrians, etc. The environmental sensors 122 may be configured to sense aspects of road geometry, road quality/grade, traffic conditions, movements and characteristics of other vehicles, and other external events and conditions.

In einer oder mehreren Anordnungen können die Umgebungssensoren 122 konfiguriert sein, um (entweder alleine oder in Zusammenarbeit mit dem Navigationssystem 147 und dem Sensorsteuermodul 142) Standortinformationen in Bezug auf Merkmale der Fahrzeugumgebung, die von den Sensoren erfasst werden, zu bestimmen oder zu beziehen. Diese Standortinformationen können Sensordaten zugeordnet werden, um eine Bestimmung der Standorte von gescannten Merkmale in Bezug auf den Standort des Fahrzeugs 100 zu ermöglichen, wenn die Sensordaten bezogen werden.In one or more arrangements, the environmental sensors 122 may be configured to determine or obtain (either alone or in cooperation with the navigation system 147 and the sensor control module 142) location information related to features of the vehicle's surroundings sensed by the sensors. This location information may be associated with sensor data to enable determination of the locations of scanned features relative to the location of the vehicle 100 when the sensor data is obtained.

„Standortinformationen“ können Informationen sein, die den Standort eines Merkmals, einer Punktwolke oder eines aus Lidardaten erzeugter Lidar-/Radardatenpunkts beschreiben, die ausreichend sind, um es dem Kamerasteuermodul 141 (nachfolgend beschrieben) zu ermöglichen, die Überprüfungsunterstützungskamera 148 auf den Standort oder das Merkmal zu richten und zu fokussieren. Die Standortinformationen können in Form von räumlichen Koordinaten oder in irgendeiner anderen Form vorliegen, die für die hierin beschriebenen Zwecke geeignet ist. „Räumliche Koordinaten“ beziehen sich auf eine numerische oder andere Bezeichnung, die einen Standort eines beliebigen Merkmals der Fahrzeugumgebung darstellt (einschließlich eines Merkmals der Fahrzeugumgebung mit niedrigem Erkennungskonfidenzgrad, wie hierin beschrieben). Es kann ein System räumlicher Koordinaten verwendet werden, das einen Standort mit einem Merkmal mit niedrigem Erkennungskonfidenzgrad bereitstellt, auf das die Überprüfungsunterstützungskamera versuchen kann, die Kamera zum Zweck der Bildaufnahme zu fokussieren.“Location Information” may be information describing the location of a feature, point cloud, or lidar/radar data point generated from lidar data sufficient to enable camera control module 141 (described below) to point verification support camera 148 to the site or the feature to direct and focus. The location information may be in the form of spatial coordinates or in any other form suitable for the purposes described herein. “Spatial Coordinates” refers to a numeric or other designation representing a location of any feature of the vehicle's surroundings (including a feature of the vehicle's surroundings with a low detection confidence level, as described herein). A system of spatial coordinates may be used that provides a location with a low-confidence-of-detection feature that the inspection support camera may attempt to focus the camera on for image capture purposes.

In dem Fall eines Merkmals mit niedrigem Erkennungskonfidenzgrad, das in Bezug auf die Erdoberfläche statisch ist, können die räumlichen Koordinaten einen Standort in Bezug auf einen Bezugsrahmen (z.B. auf der Erdoberfläche) darstellen, der in Bezug auf das sich bewegende Fahrzeug als fest betrachtet werden kann. In dem Fall eines Merkmals mit niedrigem Erkennungskonfidenzgrad, das sich relativ zu der Erdoberfläche bewegt, können die räumlichen Koordinaten einen aktuellen Standort des sich bewegenden Objekts relativ zu dem Fahrzeug selbst darstellen. Die räumlichen Koordinaten können kartesische, polare, geografische und/oder jede andere Art oder Arten von Koordinaten sein, die geeignet sind, einen Standort des Merkmals der Fahrzeugumgebung zu spezifizieren. Die räumlichen Koordinaten können einem erfassten Merkmal durch den/die Prozessor(en) 110 zugeordnet werden, die in Verbindung mit dem Fahrzeugnavigationssystem 147 betrieben werden und/oder Kartendaten 189 verwenden, nachdem ein Standort des Merkmals in Bezug auf das relevante Koordinatensystem bestimmt wurde.In the case of a low-confidence feature of detection that is static with respect to the surface of the earth, the spatial coordinates may represent a location with respect to a frame of reference (e.g., on the surface of the earth) that may be considered fixed with respect to the moving vehicle . In the case of a low-confidence feature of detection that is moving relative to the surface of the earth, the spatial coordinates may represent a current location of the moving object relative to the vehicle itself. The spatial coordinates may be Cartesian, polar, geographic, and/or any other type or types of coordinates suitable for specifying a location of the vehicle's environmental feature. The spatial coordinates may be associated with a detected feature by the processor(s) 110 operating in conjunction with the vehicle navigation system 147 and/or using map data 189 after a location of the feature with respect to the relevant coordinate system has been determined.

Eine Überprüfungsunterstützungskamera 148 kann eine Kamera sein, die konfiguriert ist, Bilder von Merkmalen der Umgebung aufzunehmen oder Merkmale der Umgebung zu fotografieren. „Aufnehmen eines Bildes“ eines Merkmals kann das Beziehen von Daten enthalten, aus denen ein digitales Bild konstruiert werden kann. „Fotografieren“ durch die Überprüfungsunterstützungskamera kann das Aufnehmen eines Fotos durch Verwenden einer Kamera (z.B. eine Digitalkamera) oder das Beziehen von Daten enthalten, aus denen ein Foto (wie beispielsweise ein digitales Foto) erstellt werden kann.A verification support camera 148 may be a camera configured to capture images of or photograph features of the environment. "Capturing an image" of a feature may include obtaining data from which a digital image can be constructed. "Taking photographs" by the verification support camera may include taking a photograph using a camera (e.g., a digital camera) or obtaining data from which a photograph (such as a digital photograph) can be created.

In einer oder mehreren Anordnungen kann die Überprüfungsunterstützungskamera 148 eine spezialisierte Kamera sein, die ausschließlich zum Fotografieren oder Aufnehmen von Bildern von Merkmalen mit niedrigem Erkennungskonfidenzgrad, wie hier beschrieben, bestimmt ist, zu Zwecken der Unterstützung der menschlichen Überprüfung von Informationen in Bezug auf die Merkmale mit niedrigem Erkennungskonfidenzgrad. Alternativ kann eine andere Kamera der Umgebungssensoren neu beauftragt werden, Überprüfungsunterstützungsfunktionen nach Bedarf und wie hierin beschrieben durchzuführen. In diesem Fall kann die bestimmte Überprüfungsunterstützungskamera weggelassen werden und die Steuerung der anderen Kamera kann von dem Sensorsteuermodul 142 auf das Kamerasteuermodul 141 übertragen werden, um Bilder aufzunehmen, die zur Unterstützung der menschlichen Überprüfung der Lidar-/Radar-Scaninformationen verwendbar sind.In one or more arrangements, verification support camera 148 may be a specialized camera dedicated solely to photographing or capturing images of features with a low recognition confidence level, as described herein, for purposes of assisting human verification of information related to the features low detection confidence level. Alternatively, another environmental sensor camera may be reassigned to perform verification support functions as needed and as described herein. In this case, the dedicated verification support camera can be omitted and control of the other camera can be transferred from the sensor control module 142 to the camera control module 141 to capture images that can be used to support human verification of the lidar/radar scan information.

Die Überprüfungsunterstützungskamera 148 kann verschiedene Elemente enthalten, die konfiguriert sind, um durch das Kamerasteuermodul 141 steuerbar zu sein (nachfolgend ausführlicher beschrieben). Die Überprüfungsunterstützungskamera 148 kann eine Kamera, beliebige Kamerabefestigungen, Motor(en), Zahnräder, Mechanismen und/oder andere Elemente (nicht separat gezeigt) enthalten, die benötigt werden, um die Ausrichtung, das Sichtfeld und/oder den Fokus der Kamera 148 zu ermöglichen, um für die hierin beschriebenen Zwecke eingestellt zu werden. Die Kamera 148 kann nach Bedarf auch andere Elemente enthalten (nicht gezeigt).Inspection support camera 148 may include various elements that are configured to be controllable by camera control module 141 (described in more detail below). The verification support camera 148 can be a camera, any camera mounts, motor(s), gears, mechanisms and/or other elements (not separately shown) needed to enable the orientation, field of view, and/or focus of the camera 148 to be adjusted for the purposes described herein. The camera 148 may also include other elements (not shown) as needed.

Das Sichtfeld der Kamera 148 kann ein Raumvolumen (in Bezug auf eine aktuelle Position der Kamera) sein, auf das die Kameralinse gerichtet und fokussiert werden kann, um die Aufnahme eines Bildes eines Merkmals zu ermöglichen, das sich innerhalb des Raumvolumens befindet. Wenn dann die Kamera 148 so gesteuert wird, um ein Merkmal in dem Sichtfeld der Kamera zu enthalten, wird ein von der Kamera aufgenommenes Bild ein Bild des Merkmals enthalten. Die Kamera 148 kann auch so ausgerichtet und fokussiert werden, dass ihr Sichtfeld einen Satz räumlicher Koordinaten enthält, die ein Merkmal enthalten, sodass ein aufgenommenes Bild der Koordinaten auch das Merkmal zeigt.The field of view of the camera 148 may be a volume of space (relative to a current position of the camera) at which the camera lens may be aimed and focused to enable capturing an image of a feature located within the volume of space. Then, when the camera 148 is controlled to include a feature in the camera's field of view, an image captured by the camera will include an image of the feature. The camera 148 can also be oriented and focused so that its field of view includes a set of spatial coordinates that contain a feature such that a captured image of the coordinates also shows the feature.

Unter erneutem Bezug auf 1 kann ein Sensorfusionsalgorithmus 167 ein Algorithmus (oder eine Computervorrichtung, die einen Algorithmus speichert) sein, der konfiguriert ist, um Daten von dem Sensorsystem 120 als eine Eingabe zu akzeptieren. Die Daten können zum Beispiel Daten enthalten, die Informationen darstellen, die an den Sensoren des Sensorsystems 120 gemessen werden. Der Sensorfusionsalgorithmus 167 kann zum Beispiel einen Kalman-Filter, ein Bayes'sches Netzwerk oder einen anderen Algorithmus enthalten oder dafür konfiguriert sein, durch Verwendung dieser ausgeführt zu werden. Der Sensorfusionsalgorithmus 167 kann verschiedene Bewertungen basierend auf den Daten von dem Sensorsystem 120 bereitstellen. Abhängig von dem Ausführungsbeispiel können die Bewertungen Auswertungen einzelner Objekte und/oder Merkmale in der Umgebung des Fahrzeugs 100, Auswertungen bestimmter Situationen und/oder Auswertungen möglicher Auswirkungen basierend auf den bestimmten Situationen enthalten. Andere Bewertungen sind möglich. Somit kann zum Beispiel in einer oder mehreren Anordnungen die Sensorfusion verwendet werden, um zu versuchen, ein Merkmal aus einer kürzlich gescannten bzw. abgetasteten Punktwolke zu identifizieren.Referring again to 1 For example, a sensor fusion algorithm 167 may be an algorithm (or a computing device storing an algorithm) that is configured to accept data from the sensor system 120 as an input. For example, the data may include data representing information measured at sensors of sensor system 120 . For example, the sensor fusion algorithm 167 may include or be configured to be performed using a Kalman filter, Bayesian network, or other algorithm. The sensor fusion algorithm 167 can provide various scores based on the data from the sensor system 120 . Depending on the exemplary embodiment, the assessments can include evaluations of individual objects and/or features in the environment of the vehicle 100, evaluations of specific situations, and/or evaluations of possible effects based on the specific situations. Other ratings are possible. Thus, for example, in one or more arrangements, sensor fusion can be used to attempt to identify a feature from a recently scanned point cloud.

Die drahtlose Fahrzeugkommunikationsschnittstelle 169 kann konfiguriert sein, eine Kommunikation zwischen den Komponenten und Systemen des Fahrzeugs und Einheiten (wie beispielsweise Cloud-Einrichtungen, Mobilfunk- und andere mobile Kommunikationsvorrichtungen, andere Fahrzeuge, entfernte Server, Fußgänger usw.) außerhalb des Fahrzeugs zu ermöglichen und/oder zu erleichtern. Die drahtlose Kommunikationsschnittstelle 169 kann konfiguriert sein, um drahtlose V2V- und V2X-Kommunikationen mit jeder Entität außerhalb des Fahrzeugs zu erleichtern, einzurichten, aufrechtzuerhalten und zu beenden, zum Beispiel mit anderen verbindbar konfigurierten Fahrzeugen und verbundenen Fahrzeugen, Fußgängern, Servern und Entitäten, die sich in der Cloud befinden, Edge-Server und andere Informationsquellen und Entitäten. Informationen wie beispielsweise Sensordaten, Kamerabildinformationen, Lidar- und Radar-Scaninformationen und andere Arten von Informationen können über die Kommunikationsschnittstelle 169 übertragen und empfangen werden. Die drahtlose Kommunikationsschnittstelle 169 kann beliebige Netzwerkschnittstellen enthalten oder mit diesen kommunizieren, die zum Kommunizieren mit beliebigen Entitäten und/oder Netzwerken außerhalb des Fahrzeugs benötigt werden.The vehicle wireless communication interface 169 may be configured to enable communication between the vehicle's components and systems and entities (such as cloud facilities, cellular and other mobile communication devices, other vehicles, remote servers, pedestrians, etc.) outside the vehicle and/or or to facilitate. The wireless communications interface 169 may be configured to facilitate, establish, maintain, and terminate wireless V2V and V2X communications with any entity outside the vehicle, for example, other connectably configured vehicles and connected vehicles, pedestrians, servers, and entities that located in the cloud, edge servers and other information sources and entities. Information such as sensor data, camera image information, lidar and radar scan information, and other types of information may be transmitted and received over communication interface 169 . The wireless communication interface 169 may include or communicate with any network interfaces needed to communicate with any entities and/or networks outside of the vehicle.

Das Fahrzeug 100 kann ein Eingabesystem 130 enthalten. Ein „Eingabesystem“ enthält eine beliebige Vorrichtung, Komponente, System, Element oder Anordnung oder Gruppen davon, die ermöglichen, dass Informationen/Daten in eine Maschine eingegeben werden. Zum Beispiel kann das Eingabesystem 130 ein Tastenfeld, einen Berührungsbildschirm oder eine andere interaktive Anzeige, ein Spracherkennungssystem und/oder eine beliebige andere Vorrichtung oder ein beliebiges anderes System enthalten, das die Kommunikation zwischen einem Benutzer und dem Fahrzeug erleichtert. Das Eingabesystem 130 kann eine Eingabe von einem Fahrzeuginsassen (z.B. einem Fahrer oder Beifahrer) oder einem von dem Fahrzeug 100 entfernt befindlichen Benutzer empfangen. Das Fahrzeug 100 kann auch ein Ausgabesystem 135 enthalten. Ein „Ausgabesystem“ enthält eine beliebige Vorrichtung, Komponente oder Anordnung oder Gruppen davon, die ermöglichen, dass Informationen/Daten einem Fahrzeuginsassen (z.B. einem Fahrer, einem Fahrzeuginsassen usw.) oder einem entfernten Benutzer präsentiert werden.The vehicle 100 may include an input system 130 . An "input system" includes any device, component, system, element, or assembly, or groups thereof, that enable information/data to be input into a machine. For example, the input system 130 may include a keypad, touch screen or other interactive display, a voice recognition system, and/or any other device or system that facilitates communication between a user and the vehicle. The input system 130 may receive input from a vehicle occupant (e.g., a driver or passenger) or a user remote from the vehicle 100 . The vehicle 100 may also include an output system 135 . An "output system" includes any device, component, or arrangement, or groups thereof, that enable information/data to be presented to a vehicle occupant (e.g., a driver, a vehicle occupant, etc.) or a remote user.

Das Fahrzeug 100 kann ein oder mehrere Fahrzeugsysteme enthalten, die zusammen als 140 bezeichnet sind. Die Fahrzeugsysteme 140 können ein Navigationssystem 147 enthalten. Das Navigationssystem 147 kann eine oder mehrere Vorrichtungen, Anwendungen und/oder Kombinationen davon enthalten, die jetzt bekannt sind oder später entwickelt werden, die konfiguriert sind, um den geografischen Standort des Fahrzeugs 100 zu bestimmen und/oder eine Fahrtroute für das Fahrzeug 100 zu bestimmen. Das Navigationssystem 147 kann eine oder mehrere Kartenanwendungen enthalten, um eine Fahrtroute für das Fahrzeug 100 zu bestimmen. Das Navigationssystem 147 kann ein globales Positionierungssystem, ein lokales Positionierungssystem oder ein Geolokalisierungssystem enthalten. Das Navigationssystem 147 kann konfiguriert sein, um den Weg eines Fahrzeugs entlang einer Fahrtroute zu verfolgen. Das Navigationssystem 147 kann konfiguriert sein, um in Verbindung mit dem Autonomes-Fahren-Modul 160 zu arbeiten, um das Fahrzeug entlang einer von einem Benutzer ausgewählten Fahrtroute zu führen. Das Navigationssystem 147 kann konfiguriert sein, um in Verbindung mit dem Kamerasteuermodul 141 zu arbeiten, um Standortinformationen bezüglich eines Merkmals mit niedrigem Erkennungskonfidenzgrad zu bestimmen und zu aktualisieren, und beim Führen und Aufrechterhalten der Richtung und des Fokus der Kamera 148 in Richtung zu einem Merkmal mit niedrigem Erkennungskonfidenzgrad während der Bewegung des Fahrzeugs 100 helfen.Vehicle 100 may include one or more vehicle systems, collectively referred to as 140 . The vehicle systems 140 may include a navigation system 147 . The navigation system 147 may include one or more devices, applications, and/or combinations thereof, now known or later developed, that are configured to determine the geographic location of the vehicle 100 and/or determine a route for the vehicle 100 to travel . The navigation system 147 may include one or more mapping applications to determine a route for the vehicle 100 to travel. The navigation system 147 may include a global positioning system, a local positioning system, or a geolocation system. The navigation system 147 may be configured to track a vehicle's path along a trip route to follow. The navigation system 147 may be configured to work in conjunction with the autonomous driving module 160 to guide the vehicle along a user selected driving route. The navigation system 147 may be configured to work in conjunction with the camera control module 141 to determine and update location information regarding a feature with a low level of detection confidence, and in guiding and maintaining the direction and focus of the camera 148 toward a feature low detection confidence level during vehicle 100 movement.

Die Fahrzeugsysteme 140 können auch andere Systeme enthalten (gemeinsam mit 145 bezeichnet). Zum Beispiel können die Fahrzeugsysteme 140 ein Antriebssystem, ein Bremssystem, ein Lenksystem, ein Drosselsystem, ein Aufhängungssystem, ein Übertragungssystem enthalten (von denen keines explizit in 1 gezeigt ist). Jedes dieser Fahrzeugsysteme kann eine oder mehrere Vorrichtungen, Komponenten und/oder eine Kombination davon enthalten, die jetzt bekannt sind oder später entwickelt werden.The vehicle systems 140 may also include other systems (collectively referred to as 145). For example, the vehicle systems 140 may include a powertrain system, a braking system, a steering system, a throttle system, a suspension system, a transmission system (none of which are explicitly described in 1 is shown). Each of these vehicle systems may include one or more devices, components, and/or a combination thereof that are now known or later developed.

Das Fahrzeug 100 kann einen oder mehrere Aktoren 150 enthalten. Die Aktoren 150 können ein beliebiges Element oder eine Kombination von Elementen sein, die betreibbar sind, um eines oder mehrere der Fahrzeugsysteme 140 oder Komponenten davon zu abzuwandeln, einzustellen und/oder zu ändern, um auf den Empfang von Signalen oder anderen Eingaben von dem/den Prozessor(en) 110 zu reagieren, beliebige in dem Speicher 112 gespeicherte Module und/oder beliebige andere Fahrzeugkomponenten oder -systeme. Jeder geeignete Aktuator kann verwendet werden. Zum Beispiel können der eine oder die mehreren Aktoren 150 Motoren, pneumatische Aktoren, Hydraulikkolben, Relais, Elektromagnete und/oder piezoelektrische Aktoren enthalten, um nur einige Möglichkeiten zu nennen.The vehicle 100 may include one or more actuators 150 . The actuators 150 may be any element or combination of elements operable to modify, adjust and/or change one or more of the vehicle systems 140 or components thereof to respond to receiving signals or other inputs from the/ the processor(s) 110, any modules stored in the memory 112, and/or any other vehicle components or systems. Any suitable actuator can be used. For example, the one or more actuators 150 may include motors, pneumatic actuators, hydraulic pistons, relays, solenoids, and/or piezoelectric actuators, to name a few possibilities.

In hierin beschriebenen Ausführungsbeispielen kann ein Speicher 112 ein Autonomes-Fahren-Modul 160, ein Sensorsteuermodul 142, ein Merkmalserkennungsmodul 143 und ein Kamerasteuermodul 141 speichern. Der Speicher 112 kann ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein Festplattenlaufwerk, ein Flash-Speicher oder ein anderer geeigneter Speicher zum Speichern der Module 160, 141, 142 und 143 sein. Die Module 160, 141, 142 und 143 sind zum Beispiel computerlesbare Anweisungen, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) 110 die verschiedenen hierin offenbarten Funktionen ausführen. Zusätzliche Module (nicht gezeigt) können auch in dem Speicher 112 gespeichert sein.In embodiments described herein, a memory 112 may store an autonomous driving module 160 , a sensor control module 142 , a feature recognition module 143 , and a camera control module 141 . Memory 112 may be random access memory (RAM), read only memory (ROM), hard disk drive, flash memory, or other suitable memory for storing modules 160, 141, 142, and 143. Modules 160, 141, 142, and 143 are, for example, computer-readable instructions that, when executed by processor(s) 110, cause processor(s) 110 to perform the various functions disclosed herein. Additional modules (not shown) may also be stored in memory 112 .

Das Fahrzeug 100 kann ein oder mehrere Module enthalten, von denen zumindest einige hierin beschrieben sind. Die Module können als computerlesbarer Programmcode implementiert sein, der, wenn er von dem/den Prozessor(en) 110 ausgeführt wird, einen oder mehrere der verschiedenen hierin beschriebenen Prozesse implementiert. Ein oder mehrere der Module können eine Komponente des/der Prozessor(en) 110 sein, oder ein oder mehrere der Module können auf anderen Verarbeitungssystemen ausgeführt und/oder verteilt werden, mit denen der/die Prozessor(en) 110 operativ verbunden ist/sind. Die Module können Anweisungen (z.B. Programmlogik) enthalten, die von einem oder mehreren Prozessor(en) 110 ausführbar sind. Alternativ oder zusätzlich können ein oder mehrere Datenspeicher 115 oder ein anderer Abschnitt des Fahrzeugs 100 solche Anweisungen enthalten.The vehicle 100 may include one or more modules, at least some of which are described herein. The modules may be implemented as computer-readable program code that, when executed by the processor(s) 110, implements one or more of the various processes described herein. One or more of the modules may be a component of processor(s) 110, or one or more of the modules may be executed and/or distributed on other processing systems to which processor(s) 110 is operatively connected . The modules may contain instructions (e.g., program logic) executable by processor(s) 110 . Alternatively or additionally, one or more data stores 115 or another portion of the vehicle 100 may contain such instructions.

Im Allgemeinen enthält ein Modul, wie es hier verwendet wird, Routinen, Programme, Objekte, Komponenten, Datenstrukturen und so weiter, die bestimmte Aufgaben ausführen oder bestimmte Datentypen implementieren. In weiteren Aspekten speichert ein Speicher im Allgemeinen die erwähnten Module. Der einem Modul zugeordnete Speicher kann ein in einen Prozessor eingebetteter Puffer oder Cache, ein RAM, ein ROM, ein Flash-Speicher oder ein anderes geeignetes elektronisches Speichermedium sein. In weiteren Aspekten wird ein Modul, wie es von der vorliegenden Offenbarung ins Auge gefasst wird, als eine anwendungsspezifische integrierte Schaltung (ASIC), eine Hardwarekomponente eines Systems auf einem Chip (SoC), als ein programmierbares Logikarray (PLA) oder als eine andere geeignete Hardwarekomponente implementiert, die mit einem definierten Konfigurationssatz (z.B. Anweisungen) zum Durchführen der offenbarten Funktionen eingebettet ist.In general, as used herein, a module contains routines, programs, objects, components, data structures, and so on that perform specific tasks or implement specific data types. In further aspects, a memory generally stores the mentioned modules. The memory associated with a module may be a processor embedded buffer or cache, RAM, ROM, flash memory, or other suitable electronic storage medium. In further aspects, a module as contemplated by the present disclosure is embodied as an application specific integrated circuit (ASIC), a hardware component of a system on a chip (SoC), a programmable logic array (PLA), or other suitable one Implements a hardware component embedded with a defined set of configurations (e.g. instructions) for performing the disclosed functions.

In einer oder mehreren Anordnungen können ein oder mehrere der hierin beschriebenen Module Elemente künstlicher oder computergestützter Intelligenz enthalten, z.B. neuronale Netze, Fuzzy-Logik oder andere maschinelle Lernalgorithmen. Des Weiteren können in einer oder mehreren Anordnungen ein oder mehrere der Module auf eine Mehrzahl der hierin beschriebenen Module verteilt sein. In einer oder mehreren Anordnungen können zwei oder mehr der hierin beschriebenen Module zu einem einzigen Modul kombiniert werden.In one or more arrangements, one or more of the modules described herein may include elements of artificial or computational intelligence, e.g., neural networks, fuzzy logic, or other machine learning algorithms. Furthermore, in one or more arrangements, one or more of the modules may be distributed among a plurality of the modules described herein. In one or more arrangements, two or more of the modules described herein can be combined into a single module.

Das Fahrzeug 100 kann ein oder mehrere Autonomes-Fahren-Module 160 enthalten. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um Daten von dem Sensorsystem 120 und/oder jeder anderen Art von System zu empfangen, das in der Lage ist, Informationen bezüglich des Fahrzeugs 100 und/oder der äu-ßeren Umgebung des Fahrzeugs 100 aufzunehmen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können Position und Geschwindigkeit des Fahrzeugs 100 bestimmen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können den Standort bzw. Position von Hindernissen, Hindernissen oder anderen Umgebungsmerkmalen, einschließlich Verkehrsschildern, Bäumen, Sträuchern, benachbarten Fahrzeugen, Fußgängern usw., bestimmen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um Standortinformationen für Hindernisse innerhalb der äußeren Umgebung des Fahrzeugs 100 zur Verwendung durch den/die Prozessor(en) 110, und/oder ein oder mehrere der hierin beschriebenen Module zum Schätzen der Position und Ausrichtung des Fahrzeugs 100, die Fahrzeugposition in globalen Koordinaten basierend auf Signalen von einer Mehrzahl von Satelliten, oder beliebigen anderen Daten und/oder Signalen, die verwendet werden könnten, um den aktuellen Zustand des Fahrzeugs 100 zu bestimmen oder die Position des Fahrzeugs 100 in Bezug auf seine Umgebung zur Verwendung entweder beim Erstellen einer Karte oder beim Bestimmen der Position des Fahrzeugs 100 in Bezug auf Kartendaten zu bestimmen, zu empfangen und/oder zu bestimmen.The vehicle 100 may include one or more autonomous driving modules 160 . The autonomous driving module(s) 160 may be configured to receive data from the sensor system 120 and/or any other type of system capable of providing information regarding the vehicle 100 and/or the external environment of the vehicle 100 record. The Autono mes driving module(s) 160 may determine position and speed of the vehicle 100 . The autonomous driving module(s) 160 can determine the location of obstacles, obstacles, or other environmental features including traffic signs, trees, shrubs, neighboring vehicles, pedestrians, and so forth. The autonomous driving module(s) 160 may be configured to obtain location information for obstacles within the external environment of the vehicle 100 for use by the processor(s) 110, and/or one or more of those described herein Modules for estimating the position and orientation of the vehicle 100, the vehicle's position in global coordinates based on signals from a plurality of satellites, or any other data and/or signals that could be used to determine the current state of the vehicle 100 or the determine, receive and/or determine position of the vehicle 100 in relation to its surroundings for use in either creating a map or determining the position of the vehicle 100 in relation to map data.

Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, Fahrweg(e), aktuelle autonome Fahrmanöver für das Fahrzeug 100, zukünftige autonome Fahrmanöver und/oder Abwandlungen an aktuellen autonomen Fahrmanövern basierend auf Daten zu bestimmen, die von dem Sensorsystem 120 bezogen werden und/oder Informationen, die von einem Navigationssystem, wie beispielsweise dem Navigationssystem 147, empfangen werden. „Fahrmanöver“ bezeichnet eine oder mehrere Handlungen, welche die Bewegung eines Fahrzeugs beeinflussen. Beispiele für Fahrmanöver enthalten: Beschleunigen, Verlangsamen, Bremsen, Abbiegen, Bewegen in eine seitliche Richtung des Fahrzeugs 100, Wechseln der Fahrspur, Einfädeln in eine Fahrspur und/oder Rückwärtsfahren, um nur einige Möglichkeiten zu nennen. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um bestimmte Fahrmanöver zu implementieren. Das/Die Autonomes-Fahren-Modul(e) kann/können direkt oder indirekt bewirken, dass solche autonomen Fahrmanöver implementiert werden. Wie hierin verwendet, bedeutet „bewirken“, dass ein Ereignis oder eine Handlung herbeigeführt, erzwungen, veranlasst, gelenkt, befohlen, angewiesen und/oder ermöglicht wird oder zumindest in einem Zustand ist, in dem ein solches Ereignis oder eine solche Handlung auftreten bzw. eintreten kann, entweder direkt oder indirekt.The autonomous driving module(s) 160 may be configured to determine driving path(s), current autonomous driving maneuvers for the vehicle 100, future autonomous driving maneuvers, and/or modifications to current autonomous driving maneuvers based on data received from sensor system 120 and/or information received from a navigation system such as navigation system 147 . “Driving Manoeuvre” means one or more actions that affect the movement of a vehicle. Examples of driving maneuvers include: accelerating, decelerating, braking, turning, moving in a lateral direction of the vehicle 100, changing lanes, merging into a lane, and/or reversing, to name a few possibilities. The autonomous driving module(s) 160 may be configured to implement particular driving maneuvers. The autonomous driving module(s) may directly or indirectly cause such autonomous driving maneuvers to be implemented. As used herein, "causing" means that an event or action is brought about, compelled, caused, directed, commanded, instructed and/or enabled, or at least is in a state in which such event or action will occur or be caused. can occur, either directly or indirectly.

Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um verschiedene Fahrzeugfunktionen auszuführen und/oder Daten an das bzw. von dem Fahrzeug 100 oder ein oder mehrere Systeme davon (z.B. ein oder mehrere Fahrzeugsysteme 140) zu übertragen, zu empfangen, zu interagieren und/oder zu steuern. Das/Die Autonomes-Fahren-Modul(e) 160 kann/können konfiguriert sein, um das Benutzerfahrzeug autonom zu steuern, um das Fahrzeug entlang einer Fahrtroute von einem Anfangs- oder Startort zu einem Ziel zu fahren.The autonomous driving module(s) 160 may be configured to perform various vehicle functions and/or transmit data to/from the vehicle 100 or one or more systems thereof (e.g., one or more vehicle systems 140). , receive, interact and/or control. The autonomous driving module(s) 160 may be configured to autonomously control the user's vehicle to drive the vehicle along a driving route from an initial or starting location to a destination.

Der/Die Prozessor(en) 110, das Autonomes-Fahren-Modul 160, das Kamerasteuermodul 141 und/oder andere hierin beschriebene Module können operativ verbunden sein, um miteinander und mit den anderen Elementen des Fahrzeugs zu kommunizieren, einschließlich verschiedener Fahrzeugsysteme 140 und /oder einzelne Komponenten davon. Zum Beispiel können in Bezug auf 1 der/die Prozessor(en) 110 und das/die Autonomes-Fahren-Modul(e) 160 in Kommunikation stehen, um Informationen von den verschiedenen Fahrzeugsystemen 140 zu senden und/oder zu empfangen, um die Bewegung, die Geschwindigkeit, das Manövrieren, den Kurs, die Richtung usw. des Fahrzeugs 100 zu steuern. Der/die Prozessor(en) 110, das/die Autonomes-Fahren-Modul(e) 160, und/oder andere Elemente des Fahrzeugs können einige oder alle der Fahrzeugsysteme 140 steuern und können somit teilweise oder vollständig autonom sein.The processor(s) 110, autonomous driving module 160, camera control module 141, and/or other modules described herein may be operatively linked to communicate with each other and with the other elements of the vehicle, including various vehicle systems 140 and/or or individual components thereof. For example, regarding 1 the processor(s) 110 and the autonomous driving module(s) 160 are in communication to send and/or receive information from the various vehicle systems 140 to determine movement, speed, maneuvering, to control the course, direction, etc. of the vehicle 100 . The processor(s) 110, the autonomous driving module(s) 160, and/or other elements of the vehicle may control some or all of the vehicle systems 140 and thus may be partially or fully autonomous.

Der/die Prozessor(en) 110, das/die Autonomes-Fahren-Modul(e) 160, und das Navigationssystem 147 können operativ bzw. betreibbar sein, um die Navigation und/oder das Manövrieren des Fahrzeugs 100 durch Steuern eines oder mehrerer der Fahrzeugsysteme 140 und/oder dessen Komponenten zu steuern. Wenn zum Beispiel in einem autonomen Modus gearbeitet wird, können der/die Prozessor(en) 110 und/oder das/die Autonomes-Fahren-Modul(e) 160 die Richtung und/oder Geschwindigkeit des Fahrzeugs 100 steuern. Der/die Prozessor(en) und/oder das/die Autonomes-Fahren-Modul(e) 160 können bewirken, dass das Fahrzeug 100 beschleunigt (z.B. durch Erhöhen der Kraftstoffzufuhr, die dem Motor bereitgestellt wird), verlangsamt (z.B. durch Verringern der Kraftstoffzufuhr, die dem Motor bereitgestellt wird, und/oder durch Betätigen der Bremsen) und/oder die Richtung wechselt (z.B. durch Drehen bzw. Lenken der beiden Vorderräder).The processor(s) 110, the autonomous driving module(s) 160, and the navigation system 147 may be operable to provide navigation and/or maneuvering of the vehicle 100 by controlling one or more of the To control vehicle systems 140 and / or its components. For example, when operating in an autonomous mode, the processor(s) 110 and/or autonomous driving module(s) 160 may control the direction and/or speed of the vehicle 100 . The processor(s) and/or autonomous driving module(s) 160 may cause the vehicle 100 to accelerate (e.g., by increasing the fueling provided to the engine), decelerate (e.g., by decreasing the fuel supply provided to the engine and/or by applying the brakes) and/or changes direction (e.g. by turning or steering the two front wheels).

Das Fahrzeug 100 kann ein Sensorsteuermodul 142 enthalten. Das Sensorsteuermodul 142 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) den Betrieb der Fahrzeugsensoren 121 und/oder der Umgebungssensoren 122 steuern. Zum Beispiel kann das Sensorsteuermodul 142 konfiguriert sein, um Vorgänge bzw. Operationen eines oder mehrerer Sensoren zu steuern, um Sensor-Scanraten zu variieren, Scan- oder Betrachtungswinkel zu variieren und andere Sensorbetriebsparameter gemäß bestehenden Bedingungen und Erfassungsanforderungen zu steuern. Alternativ können einer oder mehrere der Fahrzeugsensoren 121 und/oder der Umgebungssensoren 122 für eine automatische oder interne Steuerung konfiguriert sein, indem darin unabhängige Prozessoren und/oder Speicher eingebaut werden, wodurch die Notwendigkeit einer separaten Steuerung für den/die relevanten Sensor(en) vermieden wird.The vehicle 100 may include a sensor control module 142 . The sensor control module 142 may include computer-readable instructions that, when executed by the processor(s) 110, cause the processor(s) to control operation of the vehicle sensors 121 and/or the environmental sensors 122. For example, the sensor control module 142 may be configured to control operations of one or more sensors to vary sensor scan rates, vary scan or viewing angles, and control other sensor operating parameters according to existing conditions and detection requirements. Alternatively, one or more of the vehicle sensors 121 and/or the environmental sensors 122 may be configured for automatic or internal control by incorporating independent processors and/or memory therein, thereby avoiding the need for separate control for the relevant sensor(s). becomes.

In einer oder mehreren bestimmten Anordnungen kann das Sensorsteuermodul 142 konfiguriert sein, um Vorgänge bzw. Operationen von einem oder mehreren der Umgebungssensoren 122 mit Ausnahme der Überprüfungsunterstützungskamera 148 zu steuern, deren Vorgänge bzw. Operationen durch das Kamerasteuermodul 141 gesteuert werden können. In anderen besonderen Anordnungen können die Steuerfunktionen des Kamerasteuermoduls 141, wie hierin beschrieben, in das Sensorsteuermodul 142 eingebaut (und von diesem durchgeführt) sein.In one or more particular arrangements, the sensor control module 142 may be configured to control operations of one or more of the environmental sensors 122 other than the verification support camera 148 , operations of which may be controlled by the camera control module 141 . In other particular arrangements, the control functions of the camera control module 141 as described herein may be incorporated into (and performed by) the sensor control module 142.

Das Fahrzeug 100 kann ein Merkmalserkennungsmodul 143 enthalten. Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Lidar- und Radar-Scandaten und/oder andere Informationen, die von dem Lidar bezogen und/oder erzeugt werden, und/oder Radar-Scans der Umgebung verarbeiten, um zu versuchen, Merkmale der Fahrzeugumgebung zu erkennen oder zu identifizieren, die durch die Daten und/oder andere Informationen dargestellt werden.The vehicle 100 may include a feature recognition module 143 . Feature detection module 143 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to extract lidar and radar scan data and/or other information obtained from the lidar and/or or generated, and/or process radar scans of the environment to attempt to detect or identify features of the vehicle environment represented by the data and/or other information.

Die resultierenden Merkmalsidentifikationen können anschließend einem menschlichen Fahrer mitgeteilt werden, um die Entscheidungsfindung des Fahrers zu unterstützen. Die resultierenden Merkmalsidentifikationen können auch von anderen Modulen und/oder anderen Fahrzeugsystemen zur autonomen Entscheidungsfindung verwendet oder weiterverarbeitet werden.The resulting feature identifications can then be communicated to a human driver to support the driver's decision making. The resulting feature identifications can also be used or further processed by other modules and/or other vehicle systems for autonomous decision-making.

Die Fahrzeugumgebung kann alles außerhalb der Fahrzeuginnenräume enthalten und von dem Fahrzeug 100 getrennt sein. Ein Merkmal der Fahrzeugumgebung kann ein diskretes Objekt oder ein Abschnitt eines diskreten Objekts sein, das sich in der Fahrzeugumgebung befindet. Das Merkmal kann durch Verarbeitung von Lidar- und/oder Radar-Scandaten durch das Merkmalserkennungsmodul 143 identifiziert oder erkannt werden oder nicht. Beim Empfangen von Daten aus dem Lidar-Scan kann das Merkmalserkennungsmodul 143 (oder ein anderes Modul) in Zusammenarbeit mit dem/den Prozessor(en) 110 die Lidar- und/oder Radardaten verarbeiten, um eine oder mehrere Punktwolken zu erzeugen, die Darstellungen von gescannten Merkmalen enthalten. Das Merkmalserkennungsmodul 143 kann dann in Zusammenarbeit mit dem/den Prozessor(en) 110 Merkmalserkennungsroutinen ausführen, die darauf gerichtet sind, das durch die Punktwolken dargestellte Merkmal zu identifizieren oder zu erkennen. Die resultierenden Merkmalsidentifikationen können anschließend einem menschlichen Fahrer mitgeteilt werden, um die Entscheidungsfindung des Fahrers zu unterstützen. Die resultierenden Merkmalsidentifikationen können auch von anderen Modulen und/oder anderen Fahrzeugsystemen zur autonomen Entscheidungsfindung verwendet oder weiterverarbeitet werden. Zum Beispiel kann das Merkmalserkennungsmodul 143 konfiguriert sein, um aus Lidar- und/oder Radar-Scandaten erzeugte Punktwolken mit Punktwolken und/oder anderen Informationen zu vergleichen, die bekannte Merkmale darstellen, die in einer Fahrzeugumgebung vorhanden sein können. Informationen bezüglich der bekannten Merkmale können in einem Speicher (wie beispielsweise Lidar-Scan-Informationen 118, Radar-Scan-Informationen 123 und/oder einem anderen Speicher, der konfiguriert ist, um für das Merkmalserkennungsmodul 143 zugänglich zu sein) gespeichert werden.The vehicle environment may include everything outside of the vehicle interiors and may be separate from the vehicle 100 . A feature of the vehicle's surroundings can be a discrete object or a portion of a discrete object that is located in the vehicle's surroundings. The feature may or may not be identified or detected through processing of lidar and/or radar scan data by the feature detection module 143 . Upon receiving data from the lidar scan, the feature detection module 143 (or other module), in cooperation with the processor(s) 110, may process the lidar and/or radar data to generate one or more point clouds representing representations of scanned features included. The feature recognition module 143, in cooperation with the processor(s) 110, may then execute feature recognition routines aimed at identifying or recognizing the feature represented by the point clouds. The resulting feature identifications can then be communicated to a human driver to support the driver's decision making. The resulting feature identifications can also be used or further processed by other modules and/or other vehicle systems for autonomous decision-making. For example, the feature detection module 143 may be configured to compare point clouds generated from lidar and/or radar scan data to point clouds and/or other information representing known features that may be present in a vehicle environment. Information regarding the known features may be stored in memory (such as lidar scan information 118, radar scan information 123, and/or other memory configured to be accessible to feature detection module 143).

Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en), der/die Prozessor(en) mit den Umgebungssensoren 122 und dem Navigationssystem 147 zusammenarbeiten bzw. kooperieren, um Standortinformationen bezüglich der Merkmale der identifizierten Umgebung durch das Merkmalserkennungsmodul zu bestimmen. Die Merkmalsstandorte können durch Verwendung von Standortsinformationen bestimmt werden, die in Lidar-Scan-Informationen 118 und/oder Radar-Scan-Informationen 123 gespeichert sind und während Lidar- und/oder Radar-Scans bezogen werden. Sensor-Scanraten können ausreichend hoch sein, so dass ein bestimmtes Merkmal, sobald es identifiziert ist, zuverlässig verfolgt und auf Änderungen seines Standorts, seines Erkennungskonfidenzgrads und anderer zugeordnete Eigenschaften überwacht werden kann, und so dass in dem Speicher gespeicherte Merkmalsinformationen aktualisiert werden können.The feature detection module 143 may include computer-readable instructions that, when executed by the processor(s), cause the processor(s) to cooperate with the environmental sensors 122 and the navigation system 147 to obtain location information regarding the features of the identified To determine the environment through the feature recognition module. The feature locations may be determined using location information stored in lidar scan information 118 and/or radar scan information 123 obtained during lidar and/or radar scans. Sensor scan rates can be sufficiently high so that once a particular feature is identified, it can be reliably tracked and monitored for changes in its location, detection confidence level, and other associated properties, and so that feature information stored in memory can be updated.

Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Erkennungskonfidenzgrade für Merkmalsidentifikationen berechnen, die von dem Merkmalserkennungsmodul 143 erzeugt werden. Die Erkennungskonfidenzgrade können in Verbindung mit der Merkmalsidentifikation in dem Speicher gespeichert werden.The feature recognition module 143 may include computer-readable instructions that, when executed by the processor(s) 110, cause the processor(s) to calculate recognition confidence levels for feature identifications generated by the feature recognition module 143. The recognition confidence levels may be stored in memory in association with the feature identification.

Einige der durch die Lidar-Scans erfassten Merkmale sind möglicherweise nicht leicht durch das Merkmalserkennungsmodul 143 identifizierbar, aufgrund des Winkels in Bezug auf das Fahrzeug 100, in dem das Merkmal gescannt wurde, aufgrund der das Merkmal darstellende Punktwolke, die nicht ausreichend ähnlich genug zu der in dem Speicher gespeicherten Punktwolken für den Vergleich ist, aufgrund des Scans, der teilweise behindert bzw. versperrt ist, und/oder aufgrund anderer Gründe. Somit können die von dem Merkmalserkennungsmodul 143 erzeugten Merkmalsidentifikationen unterschiedliche bzw. variierende Gewissheitsgrade haben, die ihnen zugeordnet sind. Folglich kann das Merkmalserkennungsmodul 143 konfiguriert sein, um einen Konfidenzgrad (CL) zu berechnen, welcher der Identifizierung jedes Merkmals zuzuordnen ist. Der Konfidenzgrad kann ein Konfidenz- oder Gewissheitsmaß dafür sein, dass die Identifizierung des Merkmals durch das Merkmalserkennungsmodul 143 korrekt ist. Zum Beispiel kann eine Überprüfung einer Punktwolke, die aus bezogenen Daten erzeugt wird, wenn sich ein Merkmal in einem ungewöhnlichen Betrachtungswinkel befindet (aufgrund starker Winde oder Schäden an dem gescannten Merkmal), zu einem relativ niedrigeren berechneten Konfidenzgrad basierend auf einer computergenerierten Erkennung des Merkmals führen als die Überprüfung desselben Merkmals unter idealen Sensor-Scanbedingungen.Some of the features captured by the lidar scans may not be readily identifiable by the feature detection module 143 due to the angle relative to the vehicle 100 at which the feature was scanned, due to the point cloud representing the feature not being sufficiently similar to the point clouds stored in memory for comparison, due to the scan being partially obstructed and/or due to other reasons. Thus, the feature identifications generated by the feature recognition module 143 may have different or varying degrees of certainty associated with them. Accordingly, the feature recognition module 143 may be configured to calculate a confidence level (CL) to be associated with the identification of each feature. The confidence level may be a measure of confidence or certainty that the feature identification module 143's identification of the feature is correct. For example, a review of a point cloud generated from sourced data when a feature is at an unusual viewing angle (due to strong winds or damage to the scanned feature) may result in a relatively lower calculated confidence level based on a computer-generated recognition of the feature than checking the same feature under ideal sensor scanning conditions.

Ein „Erkennungskonfidenzgrad“ oder „Konfidenzgrad“ ist ein numerischer Wert oder ein anderer Indikator eines Grades von Konfidenz in einer computergenerierten Erkennung eines Merkmals der Fahrzeugumgebung. Ein Indikator des Erkennungskonfidenzgrads kann ein numerischer Indikator sein, der von einem Prozessor bestimmt wird und für den Vergleich mit einem numerischen vorgegebenen Merkmalserkennungskonfidenzgrad-Schwellenwert ausgelegt ist. Das Merkmalserkennungsmodul kann konfiguriert sein, um einer computergenerierten Identifizierung eines Merkmals, das durch einen Lidar- oder Radar-Scan erfasst wird, einen Erkennungskonfidenzgrad (CL) zuzuweisen. Ein „niedriger Erkennungskonfidenzgrad“ betrifft einen Erkennungskonfidenzgrad, der unter dem vorgegebenen Schwellenwert liegt. Ein „Merkmal eines niedrigen Erkennungskonfidenzgrades“ ist ein Merkmal der Umgebung, das einen Erkennungskonfidenzgrad hat, der unter dem vorgegebenen Schwellenwert liegt.A “detection confidence level” or “confidence level” is a numerical value or other indicator of a level of confidence in a computer-generated recognition of a feature of the vehicle's surroundings. A recognition confidence level indicator may be a numeric indicator determined by a processor and adapted for comparison to a numerical predetermined feature recognition confidence level threshold. The feature detection module may be configured to assign a detection confidence level (CL) to a computer-generated identification of a feature detected by a lidar or radar scan. A "low detection confidence level" refers to a detection confidence level that is below the predetermined threshold. A "feature of low detection confidence level" is a feature of the environment that has a detection confidence level that is below the predetermined threshold.

Für die hierin beschriebenen Zwecke können die Erkennungskonfidenzgrade auf einer beliebigen Reihe von Kriterien basieren. Zum Beispiel können in einer oder mehreren Anordnungen die Konfidenzgrade zumindest teilweise basierend auf einem Vergleich zwischen Informationen, die aus einer Reihe aufeinanderfolgender Lidar-/Radar-Scans stammen, die während der Fahrzeugbewegung aufgenommen wurden, und einer oder mehreren Referenzpunktwolken berechnet werden, wenn ein Abstand von dem Fahrzeug zu dem gescannten bzw. abgetasteten Merkmal abnimmt und/oder wenn sich ein Winkel, in dem ein Abschnitt der Sensor-Scanwelle das Merkmal berührt, während der Fahrzeugbewegung ändert. Dieser „Scanwinkel“ kann damit verknüpft sein, wie das Merkmal visuell erscheint, wenn es aus der Perspektive des sich bewegenden Fahrzeugs betrachtet wird. Wenn der Vergleich zeigt, dass das gescannte Merkmal dem durch die Referenzpunktwolke dargestellten Merkmal immer ähnlicher erscheint, während sich das Fahrzeug bewegt, kann ein relativ höherer Konfidenzgrad berechnet und der Merkmalsidentifikation zugeordnet werden. Jedes einer Mehrzahl von zusätzlichen oder alternativen Kriterien kann in einem Algorithmus verwendet werden, der konfiguriert ist, um einen Konfidenzgrad zu berechnen, der einer Merkmalsidentifikation zuzuordnen ist.For the purposes described herein, the detection confidence levels can be based on any number of criteria. For example, in one or more arrangements, the confidence levels may be calculated based at least in part on a comparison between information derived from a series of consecutive lidar/radar scans taken during vehicle movement and one or more reference point clouds when a distance from the vehicle to the scanned feature decreases and/or as an angle at which a portion of the sensor scan wave contacts the feature changes during vehicle movement. This “scan angle” can be linked to how the feature appears visually when viewed from the perspective of the moving vehicle. If the comparison shows that the scanned feature appears increasingly similar to the feature represented by the reference point cloud as the vehicle moves, a relatively higher level of confidence can be calculated and assigned to the feature identification. Any of a plurality of additional or alternative criteria may be used in an algorithm configured to calculate a confidence level to be associated with a feature identification.

Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) einen Konfidenzgrad der Merkmalsidentifikation mit einem vorgegebenen Schwellenwert vergleichen. Wenn der Konfidenzgrad in einer gegebenen Merkmalsidentifikation über dem Schwellenwert liegt, kann die durch das Merkmalserkennungsmodul bestimmte Merkmalsidentifikation von den Fahrzeugsystemen beim Durchführen weiterer Berechnungen und Funktionen verwendet werden. Wenn jedoch der Konfidenzgrad in einer gegebenen Merkmalsidentifikation bei oder unter dem Schwellenwert liegt, können Bilder des Merkmals mit niedrigem Konfidenzgrad wie hierin beschrieben aufgenommen werden, um von einem menschlichen Prüfer überprüft zu werden.The feature recognition module 143 may include computer-readable instructions that, when executed by the processor(s) 110, cause the processor(s) to compare a confidence level of the feature identification to a predetermined threshold. If the level of confidence in a given feature identifier is above the threshold, the feature identifier determined by the feature recognition module may be used by the vehicle systems in performing further calculations and functions. However, if the confidence level in a given feature identification is at or below the threshold, low confidence images of the feature may be captured as described herein for review by a human reviewer.

Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Standortinformationen in Bezug auf identifizierte Merkmale, zugeordnete Konfidenzgrade, Informationen bezüglich der Merkmalsklassifikationen (z.B. „Blattwerk bzw. Laub“) und andere Informationen in Bezug auf die Scans von erfassten Umgebungsmerkmalen speichern. Zum Beispiel können solche Informationen in einem Speicher gespeichert werden, wie beispielsweise Lidar-Scan-Informationen 118 (für Informationen bezüglich Lidar-Scans).Feature recognition module 143 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to obtain location information related to identified features, associated confidence levels, information related to feature classifications (e.g., "foliage" or . foliage”) and other information related to the scans of captured environmental features. For example, such information may be stored in memory, such as lidar scan information 118 (for information related to lidar scans).

Das Merkmalserkennungsmodul 143 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Merkmalsinformationen basierend auf den letzten Lidar-/Radar-Scans (im Speicher) aktualisieren. Solche aktualisierten Merkmalsinformationen können überarbeitete Erkennungskonfidenzgrade, aktualisierte Merkmalsstandortinformationen, aktualisierte Punktwolkeninformationen, die das Merkmal darstellen, und beliebige andere Informationen in Bezug auf das Merkmal enthalten. In einer oder mehreren Anordnungen können solche Informationen in einem Speicher (zum Beispiel in Lidar-Scan-Informationen 118) aktualisiert werden, wo die Informationen gespeichert werden.Feature detection module 143 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to update feature information (in memory) based on recent lidar/radar scans. Such updated Feature information may include revised recognition confidence levels, updated feature location information, updated point cloud information representing the feature, and any other information related to the feature. In one or more arrangements, such information may be updated in memory (e.g., lidar scan information 118) where the information is stored.

Das Fahrzeug 100 kann ein Kamerasteuermodul 141 enthalten. Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) einen Erkennungskonfidenzgrad, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert vergleichen, und als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert liegt und Standortinformationen verwendet werden, die dem Merkmal zugeordnet sind, den Betrieb der Kamera steuern, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs aufzunehmen.The vehicle 100 may include a camera control module 141 . Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to compare a recognition confidence level associated with a feature to a predetermined threshold, and in response thereto that the detection confidence level is below the predetermined threshold and using location information associated with the feature, control operation of the camera to capture at least one image of the feature while the vehicle is moving.

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) den Betrieb der Überprüfungsunterstützungskamera 148 steuern, um Bilder von Merkmalen der Fahrzeugumgebung gleichzeitig mit dem Betrieb des Lidarsensors 125 aufzunehmen. Das Kamerasteuermodul kann auch computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den Prozessor, der Prozessor den Betrieb der Fahrzeugkamera steuert, um Bilder des Merkmals gleichzeitig mit dem Betrieb eines Radarsensors 109 aufzunehmen. Diese gleichzeitigen Vorgänge bzw. Operationen der Überprüfungsunterstützungskamera 148 und der Radar- und Lidarsensoren ermöglichen, dass die von diesen Sensoren bezogenen Informationen zeitlich korreliert und zugeordnet werden.Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to control operation of inspection support camera 148 to capture images of features surrounding the vehicle concurrently with operation of the lidar sensor 125 record. The camera control module may also include computer-readable instructions that, when executed by the processor, cause the processor to control operation of the vehicle camera to capture images of the feature concurrently with operation of a radar sensor 109 . These simultaneous operations of the inspection support camera 148 and the radar and lidar sensors allow the information obtained from these sensors to be correlated and associated in time.

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) alle Überprüfungsunterstützungskameravorgänge steuern, einschließlich Bewegung, Zeigen, Fokussieren und Bildaufnahme als Reaktion auf die Fahrzeugbewegungsrichtung und Geschwindigkeit, Standortinformationen, die sich auf Merkmale mit niedrigem Erkennungskonfidenzgrad der abzubildenden Umgebung beziehen, und andere relevante Informationen.The camera control module 141 may contain computer-readable instructions that, when executed by the processor(s) 110, cause the processor(s) to control all inspection support camera operations, including movement, pointing, focusing, and image capture in response to vehicle movement direction and speed , location information related to low-confidence features of the environment to be imaged, and other relevant information.

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Lidardaten und/oder Radardaten (d.h. Daten, die während der Scans von den Lidar- und Radarsensoren bezogen werden) mit zumindest einem gleichzeitigen Bild des von der Kamera 148 erfassten Merkmals zeitlich korrelieren (d.h. ein Bild, das zur selben bzw. gleichen Zeit erfasst wurde, zu der die Lidar-/Radar-Scandaten durch den Lidar-Scan und/oder Radar-Scan bezogen wurden), und umgekehrt. Diese zeitliche Korrelation kann verwendet werden, um Lidar- und Radar-Scans mit gleichzeitig aufgenommene Bildern für die menschliche Überprüfung zuzuordnen. So kann zum Beispiel ein Kamerabild, das von der Überprüfungsunterstützungskamera 148 um 14:05 Uhr während einer Fahrzeugfahrt aufgenommen wurde, mit einem Lidar-Scan verknüpft werden, der von einem Lidarsensor 125 um 14:05 Uhr während der Fahrt durchgeführt wird, um die menschliche Überprüfung der Lidardaten und der zugeordneten Kamerabilder zu erleichtern.Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to generate lidar data and/or radar data (i.e., data obtained during scans from the lidar and radar sensors temporally correlated with at least one simultaneous image of the feature captured by camera 148 (i.e., an image captured at the same time as the lidar/radar scan data was acquired by the lidar scan and/or radar -Scan) and vice versa. This temporal correlation can be used to associate lidar and radar scans with simultaneously captured images for human review. For example, a camera image captured by the verification support camera 148 at 2:05 p.m. during a vehicle drive may be combined with a lidar scan performed by a lidar sensor 125 at 2:05 p.m Easier to review lidar data and associated camera images.

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Lidardaten mit zumindest einem gleichzeitigen Bild des von der Fahrzeugkamera aufgenommenen Merkmals zeitlich korrelieren.The camera control module 141 may include computer-readable instructions that, when executed by the processor(s) 110, cause the processor(s) to temporally correlate lidar data with at least one simultaneous image of the feature captured by the vehicle camera.

Das Kamerasteuermodul kann auch computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) Radardaten mit zumindest einem gleichzeitigen Bild des von der Kamera aufgenommenen Merkmals zeitlich korrelieren.The camera control module may also include computer-readable instructions that, when executed by the processor(s) 110, cause the processor(s) to temporally correlate radar data with at least one simultaneous image of the feature captured by the camera.

Die Kamerabilder können mit gleichzeitig erfassten Lidar-Scandaten und/oder Radar-Scandaten zeitlich korreliert werden (z.B. können Kamerabilder mit Lidar- und/oder Radardaten zeitlich verknüpft werden, die zur gleichen Zeit wie die Lidar und/oder Radardaten bezogen werden).The camera images may be temporally correlated with simultaneously acquired lidar scan data and/or radar scan data (e.g., camera images may be temporally linked with lidar and/or radar data acquired at the same time as the lidar and/or radar data).

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) mit dem Navigationssystem 147 zusammenarbeiten, um ein Merkmal oder einen geografischen oder räumlichen Standort während der Bewegung des Fahrzeugs 100 zu „verfolgen“ oder darauf fokussiert zu bleiben. Die Fähigkeit, die Kamera 148 zu betreiben, um den Fokus auf ein Merkmal oder einen Bereich aufrechtzuerhalten, kann von dem Grad abhängen, zu dem die Kamera 148 geschwenkt, verschoben, angehoben und niedergedrückt werden kann, und/oder dem Grad, in dem die Linse gerichtet sein kann und dem Grad, zu dem diese refokussiert werden kann usw. Es ist wünschenswert, das Merkmal der Fahrzeugumgebung in dem aktuellen Blickfeld der Kamera 148 aufrechtzuerhalten, während sich das Fahrzeug 100 bewegt, um eine Hochfrequenzerfassung von Bildern von Merkmalen zu ermöglichen, während sich das Fahrzeug bewegt.Camera control module 141 may contain computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to cooperate with navigation system 147 to locate a feature or geographic or spatial location during movement of the To “track” or stay focused on vehicle 100 . The ability to operate the camera 148 to maintain focus on a feature or area may depend on the degree to which the camera 148 can be panned, translated, raised, and depressed and/or the degree to which the lens may be directed and the degree to which it may be refocused, etc. It is desirable to maintain the feature of the vehicle's surroundings in the current field of view of the camera 148 while the vehicle 100 moved to enable high frequency acquisition of images of features while the vehicle is moving.

In einer oder mehreren Anordnungen kann das Kamerasteuermodul 141 zum Zwecke des Zugreifens auf Merkmalsinformationen, die zum Steuern des Betriebs der Überprüfungsunterstützungskamera 148 benötigt werden, computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) auf einen Speicher (zum Beispiel Lidar-Scan-Informationen 118 oder Radar-Scan-Informationen 123) zugreifen, in dem Merkmalsinformationen für die Merkmalsstandortinformationen, Konfidenzgrade und andere Informationen gespeichert sind. Der Zugriff auf Standortinformationen in Bezug auf ein Merkmal mit niedrigem Konfidenzgrad kann es dem Kamerasteuermodul 141 ermöglichen, die Kamera 148 zu steuern, um Bilder des Merkmals aufzunehmen, indem die Kamera auf das Merkmal oder auf einen Standort fokussiert wird, an dem sich das Merkmal befindet.In one or more arrangements, for the purpose of accessing feature information needed to control the operation of the inspection support camera 148, the camera control module 141 may include computer-readable instructions that, when executed by the processor(s) 110, the Processor(s) access memory (e.g., lidar scan information 118 or radar scan information 123) storing feature information for feature location information, confidence levels, and other information. Accessing location information related to a feature with low confidence may allow the camera control module 141 to control the camera 148 to capture images of the feature by focusing the camera on the feature or on a location where the feature is located .

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) entweder periodisch oder als Reaktion auf Aktualisierungen in Lidar-/Radar-Scaninformationen auf aktualisierte Merkmalsinformationen in Bezug auf ein Merkmal zugreifen, das zuvor als Merkmal mit niedrigem Konfidenzgrad bestimmt wurde, und das aktuell für die Bildaufnahme durch die Kamera 148 ausgewählt ist. Dies kann durchgeführt werden, um zu bestimmen, ob sich der Konfidenzgrad in Bezug auf das Merkmal zwischen Sensor-Scans geändert hat.Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to update feature information either periodically or in response to updates in lidar/radar scan information access a feature that was previously determined to be a low-confidence feature and that is currently selected for imaging by the camera 148 . This can be done to determine if the level of confidence in the feature has changed between sensor scans.

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) den aktuellen Erkennungskonfidenzgrad (d.h. den Konfidenzgrad, der durch Verwendung von Daten aus dem letzten Sensor-Scan bestimmt wird) mit einem Merkmal auf einen vorgegebenen Schwellenwert vergleichen. Dieser Vergleich kann es dem Kamerasteuermodul 141 ermöglichen, zu bestimmen, ob der Konfidenzgrad über den vorgegebenen Schwellenwert gestiegen ist, basierend auf einer Interpretation der letzten Radar-/Lidar-Scandaten (zum Beispiel aufgrund einer Änderung des Scanwinkels eines Sensors, die durch eine Bewegung des Fahrzeugs verursacht wird) durch Vergleichen des aktuellen Erkennungskonfidenzgrades mit dem vorgegebenen Schwellenwert. Basierend auf diesem Vergleich kann das Kamerasteuermodul 141 die Kamera 148 so steuern, um entweder zu versuchen aufzuhören, Bilder des Merkmals aufzunehmen (wenn der Erkennungskonfidenzgrad bei oder über dem Schwellenwert liegt), oder weiterhin zu versuchen, Bilder des Merkmals aufzunehmen (wenn die Kamera aktuell versucht, Bilder des Merkmals aufzunehmen, ist der aktuelle Erkennungskonfidenzgrad, der dem Merkmal zugeordnet ist, niedrig, und der zuletzt bestimmte Erkennungskonfidenzgrad war ebenfalls niedrig).Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to determine the current detection confidence level (i.e., the confidence level obtained using data from the last sensor scan is determined) compare with a feature to a predetermined threshold value. This comparison may allow the camera control module 141 to determine whether the confidence level has risen above the predetermined threshold based on an interpretation of the latest radar/lidar scan data (for example, due to a change in a sensor's scan angle caused by movement of the Vehicle is caused) by comparing the current detection confidence level with the predetermined threshold. Based on this comparison, the camera control module 141 can control the camera 148 to either stop attempting to capture images of the feature (when the detection confidence level is at or above the threshold) or to continue attempting to capture images of the feature (when the camera is currently attempts to capture images of the feature, the current detection confidence level associated with the feature is low, and the last determined detection confidence level was also low).

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en), als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert liegt, und durch Verwendung der Standortinformationen, die dem Merkmal zugeordnet sind, den Betrieb der Kamera 148 steuern, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs 100 aufzunehmen. Somit kann das Kamerasteuermodul 141, wenn der Konfidenzgrad, der einem Merkmal zugeordnet ist, zuerst als unter dem Schwellenwert liegend bestimmt wird, die Überprüfungsunterstützungskamera 148 steuern, um mit dem Aufnehmen von Bildern des Merkmals zu beginnen. Zusätzlich kann, solange der dem Merkmal zugeordnete Konfidenzgrad weiterhin unter dem Schwellenwert liegt, das Kamerasteuermodul 141 die Überprüfungsunterstützungskamera 148 steuern, um weiterhin zu versuchen, Bilder des Merkmals aufzunehmen.Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s), in response to the detection confidence level being below the predetermined threshold, and using the location information associated with the feature control operation of the camera 148 to capture at least one image of the feature as the vehicle 100 moves. Thus, when the confidence level associated with a feature is first determined to be below the threshold, the camera control module 141 can control the verification support camera 148 to begin capturing images of the feature. Additionally, as long as the confidence level associated with the feature remains below the threshold, the camera control module 141 may control the verification support camera 148 to continue attempting to capture images of the feature.

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessoren), als Reaktion darauf, dass der Erkennungskonfidenzgrad bei oder über dem vorgegebenen Schwellenwert liegt, den Betrieb der Kamera 148 steuern, um den Versuch zu unterbrechen, Bilder des Merkmals aufzunehmen. Wenn somit das Merkmalserkennungsmodul 143 ein Merkmal mit einem ausreichenden Konfidenzgrad erkannt hat, besteht möglicherweise keine Notwendigkeit mehr für eine menschliche Überprüfung des Merkmals, und die Überprüfungsunterstützungskamera 148 kann gesteuert werden, um das Aufnehmen von Bildern des Merkmals zu stoppen.The camera control module 141 may include computer-readable instructions that, when executed by the processor(s) 110 (the processor(s)), in response to the detection confidence level being at or above the predetermined threshold, cause the operation of the camera 148 control to stop attempting to capture images of the feature. Thus, when the feature detection module 143 has identified a feature with a sufficient level of confidence, there may no longer be a need for human inspection of the feature, and the inspection support camera 148 can be controlled to stop capturing images of the feature.

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en) bestimmen, ob sich ein Merkmal aktuell an einem Kameraausschlussort befindet, nachdem die Kamera 148 zumindest ein Bild des Merkmals aufgenommen hat, und als Reaktion darauf, dass sich das Merkmal an einem Kameraausschlussort befindet, den Betrieb der Kamera 148 steuern, um den Versuch zu unterbrechen, Bilder des Merkmals aufzunehmen.Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s) to determine whether a feature is currently in a camera lockout location after camera 148 takes at least one image of the feature, and in response to the feature being in a camera lockout location, control operation of the camera 148 to discontinue attempting to capture images of the feature.

Es kann bestimmt werden, dass sich ein Merkmal mit niedrigem Erkennungskonfidenzgrad an einem „Kameraausschlussort“ befindet, wenn sich das Merkmal mit niedrigem Erkennungskonfidenzgrad nicht mehr in einer Position in Bezug auf das Fahrzeug 100 befindet, so dass die Kamera 148 so gesteuert werden kann, um das Merkmal in einem Sichtfeld der Kamera zu enthalten (d.h. die Kamera 148 kann nicht länger geschwenkt, angehoben, abgesenkt, verschoben oder anderweitig gesteuert werden, um das Merkmal in deren Sichtfeld zu bringen).A low-confidence feature may be determined to be in a "camera cut-off location" if the feature with a low detection confidence level is no longer in a position relative to the vehicle 100 such that the camera 148 can be controlled to include the feature in a field of view of the camera (ie, the camera 148 can no longer be panned, elevated , lowered, moved, or otherwise controlled to bring the feature into their field of view).

Das Kamerasteuermodul 141 kann computerlesbare Anweisungen enthalten, die bewirken, dass beim Ausführen durch den/die Prozessor(en) 110, der/die Prozessor(en), als Reaktion darauf, dass sich ein Merkmal in einer Kameraausschlusszone befindet, nachdem die Fahrzeugkamera 148 zumindest ein Foto des Merkmals aufgenommen hat, den Betrieb des Fahrzeugs 100 steuern, um Merkmalsinformationen an eine Entität außerhalb des Fahrzeugs zur menschlichen Überprüfung zu übertragen. In einer oder mehreren Anordnungen kann die fahrzeugexterne Einheit eine Menschliche-Überprüfung-Einrichtung 196 (1) sein. Die Menschliche-Überprüfung-Einrichtung 196 kann eine Menschliche-Überprüfung-Verwaltungseinrichtung 195 enthalten, die zum Zuweisen oder Zuordnen von Merkmalsinformationen, die von verschiedenen Fahrzeugen empfangen werden, für die menschlichen Überprüfung durch menschliche Prüfer HR1, HR2, HR3 usw. konfiguriert ist. Bei bestimmten Anordnungen können die Merkmalsinformationen in Echtzeit an die Menschliche-Überprüfung-Einrichtung 196 weitergeleitet werden, sobald die versuchte Bildaufnahme durch die Kamera 148 unterbrochen wird. Dies ermöglicht eine schnelle Überprüfung der Merkmalsinformationen und eine Klassifizierung des Merkmals mit niedrigem Erkennungskonfidenzgrad.Camera control module 141 may include computer-readable instructions that, when executed by processor(s) 110, cause the processor(s), in response to a feature being in a camera exclusion zone, after vehicle camera 148 at least captured a photograph of the feature, control operation of the vehicle 100 to transmit feature information to an entity external to the vehicle for human review. In one or more arrangements, the off-vehicle unit may include a human verification facility 196 ( 1 ) be. The human verification facility 196 may include a human verification manager 195 configured to allocate or allocate feature information received from various vehicles for human verification by human verifiers HR1, HR2, HR3, and so on. In certain arrangements, the feature information may be relayed to the human reviewer 196 in real time once the attempted image capture by the camera 148 is discontinued. This allows for quick review of the feature information and classification of the feature with low recognition confidence.

In bestimmten Anordnungen können die Merkmalsinformationen Punktwolkendaten, die das Merkmal mit niedrigem Konfidenzgrad darstellen, und ein oder mehrere zeitkorrelierte Bilder des Merkmals enthalten, die von der Kamera 148 aufgenommen werden. Die Menschliche-Überprüfung-Einrichtung 196 kann Hardware und Software aufweisen, die zum Verarbeiten von Punktwolkendaten benötigt werden, um zweidimensionale oder dreidimensionale grafische Darstellungen des durch die Punktwolke dargestellten Merkmals zum Vergleichen mit einem oder mehreren zugeordneten Kamerabildern durch einen menschlichen Prüfer zu erzeugen.In certain arrangements, the feature information may include point cloud data representing the feature with a low level of confidence and one or more time-correlated images of the feature captured by camera 148 . Human reviewer 196 may include hardware and software needed to process point cloud data to generate two-dimensional or three-dimensional graphical representations of the feature represented by the point cloud for comparison by a human reviewer to one or more associated camera images.

In einer oder mehreren Anordnungen können, nachdem das Merkmal mit niedrigem Erkennungskonfidenzgrad von einem menschlichen Prüfer klassifiziert wurde, die Identifikation, die dem Merkmal zugeordnete(n) Punktwolke(n) und andere relevante Informationen an eine Servereinrichtung oder eine andere Entität 197 weitergeleitet werden, wo die neuen Merkmalsinformationen in ein Merkmalsidentifikationssystem (nicht gezeigt) aufgenommen werden können, das konfiguriert ist, um die Analyse und Identifikation von Punktwolkeninformationen zu erleichtern. Das Merkmalsidentifikationssystem kann bekannte Referenzpunktwolken zum Vergleichen mit Lidar- und Radar-Scandaten enthalten, die von anderen Fahrzeugen 198, 199 bezogen werden, die das Merkmalsidentifikationssystem als eine Quelle bekannter Referenzpunktwolken verwenden. Die anderen Fahrzeuge 198, 199 können dann Zugriff auf die neuen Merkmalsinformationen zum Vergleichen mit Punktwolken haben, die aus Lidar- und Radar-Scans erzeugt werden, die von diesen Fahrzeugen durchgeführt werden. Die neuen Merkmalsinformationen können in der Servereinrichtung 197 für den Fernzugriff durch die anderen Fahrzeuge 198, 199 nach Bedarf gespeichert werden, oder die neuen Merkmalsinformationen können an die Fahrzeuge 198, 199 zur lokalen Verwendung nach Bedarf verbreitet werden.In one or more arrangements, after the feature has been classified by a human examiner with a low recognition confidence level, the identification, the point cloud(s) associated with the feature and other relevant information can be forwarded to a server facility or other entity 197 where the new feature information may be incorporated into a feature identification system (not shown) configured to facilitate analysis and identification of point cloud information. The feature identification system may include known reference point clouds for comparison to lidar and radar scan data obtained from other vehicles 198, 199 using the feature identification system as a source of known reference point clouds. The other vehicles 198, 199 can then have access to the new feature information for comparison to point clouds generated from lidar and radar scans performed by those vehicles. The new feature information can be stored in the server facility 197 for remote access by the other vehicles 198, 199 as needed, or the new feature information can be propagated to the vehicles 198, 199 for local use as needed.

2 ist ein Ablaufdiagramm, das den Betrieb eines Kamerasteuersystems in Übereinstimmung mit einem hierin beschriebenen Ausführungsbeispiel darstellt. 3 ist eine schematische Draufsicht auf ein Fahrzeug 100, das sich während des Betriebs des Kamerasteuersystems entlang einer Straße 153 in Richtung S1 bewegt. 3 zeigt die Fortbewegung des Fahrzeugs 100, während es sich entlang der Straße 153 (3) von Position „A“ zu Position „D“ bewegt. Obwohl der Betrieb des Überprüfungsunterstützungskamerasteuerungssystems in Bezug auf das Erweitern von Daten beschrieben wird, die von einem Lidarsensor 125 bezogen werden, versteht es sich, dass die folgende Beschreibung auch für die Verwendung mit Daten gelten kann, die von einem Radarsensor oder einem beliebigen anderen Sensor bezogen werden, der Punktwolkendaten oder andere Daten bezieht, die verarbeitet werden können, um Merkmale in der Fahrzeugumgebung zu identifizieren oder zu erkennen. 2 FIG. 12 is a flow chart illustrating operation of a camera control system in accordance with an embodiment described herein. 3 12 is a schematic plan view of a vehicle 100 moving along a road 153 in direction S1 during operation of the camera control system. 3 shows the movement of vehicle 100 as it moves along road 153 ( 3 ) moved from position "A" to position "D". Although the operation of the verification assist camera control system is described in relation to augmenting data obtained from a lidar sensor 125, it should be understood that the following description may also apply to use with data obtained from a radar sensor or any other sensor that obtains point cloud data or other data that can be processed to identify or recognize features in the vehicle environment.

Während der Bewegung entlang der Straße 153 (3) kann das Sensorsteuermodul 142 den Betrieb der Umgebungssensoren 122 steuern, um die Fahrzeugumgebung zum Zwecke einer möglichen Bedrohungserkennung zu begutachten und eine Position des Fahrzeugs relativ zu Merkmalen in der Umgebung und für andere Zwecke zu bestimmen. Die Fahrzeugumgebung kann verschiedene Merkmale enthalten, die durch einen Lidar-Scan erfassbar sind, zum Beispiel Verkehrszeichen oder Ampeln, Blattwerk bzw. Laub, Fußgänger, andere Fahrzeuge usw. Entlang des Weges des Fahrzeugs 100 kann sich ein nicht erkanntes Merkmal 99 oder ein Merkmal mit niedrigem Erkennungskonfidenzgrad befinden, das von einer Kante 153a der Straße 153 zurückgesetzt ist. Das Merkmal kann durch einen Abschnitt 125a des Lidar-Scans erfasst werden, wenn sich das Fahrzeug 100 in Position „A“ befindet.While moving along Road 153 ( 3 ), the sensor control module 142 may control operation of the environmental sensors 122 to survey the vehicle's surroundings for possible threat detection, to determine a position of the vehicle relative to features in the surroundings, and for other purposes. The vehicle environment may contain various features that are detectable by a lidar scan, such as road signs or traffic lights, foliage, pedestrians, other vehicles, etc. Along the path of the vehicle 100, an unrecognized feature 99 or a feature with low recognition confidence level set back from an edge 153a of the road 153. The feature can through a portion 125a of the lidar scan can be captured when the vehicle 100 is in position "A".

In Bezug auf 2 und 3 kann das Sensorsteuermodul 142 in Position „A“ (in Block 302, 2) den Betrieb eines Lidarsensors 125 steuern, um die Fahrzeugumgebung zu scannen. Das Merkmal 99 kann durch einen Abschnitt 125a des Lidar-Scans erfasst werden. Lidar-Scans der Fahrzeugumgebung können mit einer vorgegebenen Scanrate andauern.In relation to 2 and 3 the sensor control module 142 in position "A" (in block 302, 2 ) control the operation of a lidar sensor 125 to scan the vehicle's surroundings. The feature 99 can be detected by a portion 125a of the lidar scan. Lidar scans of the vehicle's surroundings can last at a specified scan rate.

Beim Empfangen von Daten aus dem Lidar-Scan kann das Merkmalserkennungsmodul 143 (oder ein anderes Modul) in Zusammenarbeit mit dem/den Prozessor(en) 110 die Lidardaten verarbeiten, um eine oder mehrere Punktwolken zu erzeugen, die Darstellungen von gescannten Merkmalen enthalten. Das Merkmalserkennungsmodul 143 kann dann (in Block 304) Routinen ausführen, die darauf gerichtet sind, erfasste Merkmale zu identifizieren, einschließlich Merkmal 99. Das Merkmalserkennungsmodul 143 kann dann Erkennungskonfidenzgrade für die Merkmalsidentifikationen berechnen, einschließlich eines Konfidenzgrades für die Identifizierung des Merkmals 99. Das Merkmalserkennungsmodul 143 kann dann (in Block 306) Merkmalsinformationen bezüglich alle erfassten Merkmale (einschließlich Merkmal 99) in dem Speicher speichern (wie beispielsweise Lidar-Scan-Informationen 118).Upon receiving data from the lidar scan, the feature detection module 143 (or other module), in cooperation with the processor(s) 110, may process the lidar data to generate one or more point clouds containing representations of scanned features. The feature recognition module 143 can then (in block 304) execute routines directed to identifying detected features, including feature 99. The feature recognition module 143 can then calculate recognition confidence levels for the feature identifications, including a confidence level for the identification of feature 99. The feature recognition module 143 may then (in block 306) store feature information regarding all detected features (including feature 99) in memory (such as lidar scan information 118).

Während sich das Fahrzeug 100 noch in Position „A“ (oder in einer Position der Zwischenposition „A“ des sich bewegenden Fahrzeugs und Position „B“) befindet, kann das Kamerasteuermodul 141 (in Block 307) auf die gespeicherten Merkmalsinformationen in dem Speicher zugreifen um zu bestimmen, ob ein Erkennungskonfidenzgrad irgendeines erfassten Merkmals unter dem vorgegebenen Schwellenwert liegt. In dem in 2 gezeigten Beispiel kann das Merkmal 99 ein Konfidenzgrad unterhalb des Schwellenwerts haben. Wenn keines der gespeicherten Konfidenzgrade unter dem vorgegebenen Schwellenwert liegt, kann die Steuerung zu Block 302 zurückkehren, wo der Lidarsensor 125 fortfahren kann, die Fahrzeugumgebung zu scannen bzw. abzutasten. Wenn jedoch einer der gespeicherten Konfidenzgrade unter dem vorgegebenen Schwellenwert liegt, kann das Kamerasteuermodul 141 (in Block 308) aus dem Speicher auf Standortinformationen zugreifen, die den Standort des Merkmals mit niedrigem Konfidenzgrad beschreiben. Somit kann das Kamerasteuermodul 141 in dem Beispiel auf Standortinformationen zugreifen, die den Standort des Merkmals 99 beschreiben. Das Kamerasteuermodul 141 kann dann (in Block 310) bestimmen, ob sich das Merkmal 99 mit niedrigem Konfidenzgrad an einem Kameraausschlussort befindet.While the vehicle 100 is still in position "A" (or in a position between the moving vehicle's position "A" and position "B"), the camera control module 141 may access (in block 307) the stored feature information in memory to determine whether a detection confidence level of any detected feature is below the predetermined threshold. in the in 2 In the example shown, feature 99 may have a confidence level below the threshold. If none of the stored confidence levels are below the predetermined threshold, control may return to block 302 where the lidar sensor 125 may continue to scan the vehicle environment. However, if any of the stored confidence levels is below the predetermined threshold, the camera control module 141 may access (in block 308) from memory location information describing the location of the low confidence feature. Thus, in the example, the camera control module 141 can access location information describing the location of the feature 99 . The camera control module 141 may then determine (in block 310) whether the low confidence feature 99 is in a camera lockout location.

Zu diesem Zeitpunkt hat sich das Fahrzeug 100 zu der Position „B“ ( 3) bewegt. Wenn sich das Merkmal 99 mit niedrigem Konfidenzgrad an einem Kameraausschlussort befindet, ist die Kamera 148 nicht in der Lage, Bilder des Merkmals aufzunehmen. In diesem Fall kann das Kamerasteuermodul 141 (in Block 312) die Kamera 148 nicht steuern, um zu versuchen, Bilder des Merkmals 99 aufzunehmen. Wenn sich das Merkmal 99 mit niedrigem Konfidenzgrad jedoch nicht an einem Kameraausschlussort befindet, kann das Kamerasteuermodul 141 (in Block 314) Vorgänge bzw. Operationen der Überprüfungsunterstützungskamera 148 steuern, um mit dem Aufnehmen von Bildern des Merkmals 99 zu beginnen. Eine Sichtlinie von der Kamera 148 zu dem Merkmal 99 ist in 3 als 148a gezeigt. Nachdem die Kamera 148 auf das Merkmal 99 fokussiert wird, kann das Kamerasteuermodul 141 auch (in Block 314) jedes aufgenommene Bild des Merkmals 99 mit einem gleichzeitigen Lidar-Scan zeitlich korrelieren, der auftritt, nachdem die Kamera 148 mit dem Aufnehmen von Bildern beginnt. Zur gleichen Zeit werden die Prozesse des Lidar-Scannens (Block 316) und der Merkmalsidentifikation/Konfidenzgradbestimmung (Block 318) fortgesetzt, während Bilder des Merkmals 99 aufgenommen werden. Merkmalsinformationen bezüglich des Merkmals 99 werden auch in den Lidar-Scan-Informationen 118 aktualisiert (Block 320), sobald ein neuer Scan durchgeführt und neue Scan-Daten verarbeitet werden.At this time, the vehicle 100 has moved to the position "B" ( 3 ) emotional. If the feature 99 is in a camera cut-off location with low confidence, the camera 148 will be unable to capture images of the feature. In this case, the camera control module 141 (in block 312 ) cannot control the camera 148 to attempt to capture images of the feature 99 . However, if the feature 99 is not in a camera lockout location with low confidence, the camera control module 141 may (in block 314 ) control operations of the verification support camera 148 to begin capturing images of the feature 99 . A line of sight from camera 148 to feature 99 is in 3 shown as 148a. After the camera 148 focuses on the feature 99, the camera control module 141 may also (in block 314) temporally correlate each captured image of the feature 99 with a simultaneous lidar scan that occurs after the camera 148 begins capturing images. At the same time, the processes of lidar scanning (block 316) and feature identification/confidence level determination (block 318) continue while images of feature 99 are acquired. Feature information regarding feature 99 is also updated in lidar scan information 118 (block 320) as a new scan is performed and new scan data is processed.

Als Reaktion auf jede Merkmalsinformationsaktualisierung kann das Kamerasteuermodul 141 (in Block 322) auf den Konfidenzgrad zugreifen, der dem Merkmal 99 zugeordnet ist. Das Kamerasteuermodul kann dann (in Block 324) bestimmen, ob sich das Merkmal 99 mit niedrigem Konfidenzgrad aktuell an einem Kameraausschlussort in Bezug auf das Fahrzeug 100 befindet. Wenn sich das Merkmal 99 mit niedrigem Konfidenzgrad nicht an einem Kameraausschlussort befindet, kann das Kamerasteuermodul 141 (in Block 326) den aktualisierten Konfidenzgrad mit dem vorgegebenen Schwellenwert vergleichen, um zu bestimmen, ob der aktualisierte Konfidenzgrad immer noch unter dem Schwellenwert liegt. Das Fahrzeug kann nun in Position „C“ in 2 sein. Wenn der aktualisierte Konfidenzgrad immer noch unter dem Schwellenwert liegt, kann die Steuerung zu Block 314 zurückkehren, wo das Kamerasteuermodul das Steuern der Kamera 148 fortsetzt, um Bilder des Merkmals 99 aufzunehmen.In response to each feature information update, the camera control module 141 may access (in block 322 ) the confidence level associated with the feature 99 . The camera control module may then determine (in block 324 ) whether the low confidence feature 99 is currently in a camera lockout location relative to the vehicle 100 . If the low confidence feature 99 is not in a camera lockout location, the camera control module 141 may (in block 326) compare the updated confidence level to the predetermined threshold to determine whether the updated confidence level is still below the threshold. The vehicle can now be moved to position "C". 2 be. If the updated confidence level is still below the threshold, control may return to block 314 where the camera control module continues to control the camera 148 to capture images of the feature 99 .

Das Kamerasteuermodul 141 kann wie gerade beschrieben das Steuern der Kamera 148 fortsetzen, um Bilder des Merkmals 99 aufzunehmen, solange der dem Merkmal 99 zugeordnete Konfidenzgrad unter dem Schwellenwert bleibt und solange sich das Merkmal 99 innerhalb eines Sichtfelds der Kamera 148 befindet (d.h. solange sich das Merkmal nicht an einem Kameraausschlussort befindet).As just described, the camera control module 141 may continue to control the camera 148 to capture images of the feature 99 as long as the confidence level associated with the feature 99 remains below the threshold and as long as the feature 99 is within a field of view of the camera 148 (ie, as long as the feature is not in a camera lockout location).

Zurückkehrend zu Block 326 (2), wenn der aktualisierte Konfidenzgrad immer noch nicht unter dem Schwellenwert liegt, ist der Konfidenzgrad auf einen Grad gestiegen, bei dem das Merkmal 99 als „erkannt“ oder „identifiziert“ betrachtet werden kann. Die Steuerung kann dann zu Block 328 voranschreiten, wo das Kamerasteuermodul 141 die Kamera 148 steuern kann, um den Versuch, Bilder des Merkmals 99 aufzunehmen, zu unterbrechen.Returning to block 326 ( 2 ), if the updated confidence level is still not below the threshold, the confidence level has increased to a level at which feature 99 can be considered "recognized" or "identified". Control may then proceed to block 328 where the camera control module 141 may control the camera 148 to stop attempting to capture images of the feature 99 .

Zurückkehrend zu Block 324 ist die Kamera 148 nicht länger in der Lage, Bilder des Merkmals aufzunehmen, wenn sich das Merkmal 99 mit niedrigem Konfidenzgrad an einem Kameraausschlussort befindet. In diesem Fall kann das Kamerasteuermodul 141 (in Block 330) die Kamera 148 steuern, um den Versuch, Bilder des Merkmals 99 aufzunehmen, zu unterbrechen. 2 zeigt das Fahrzeug 100 in einer Position „D“, in der sich das Merkmal 99 an einem Ausschlussort befindet, von dem aus die Kamera 148 nicht länger auf das Merkmal 99 fokussiert werden kann. Der Lidarsensor 125 kann jedoch immer noch das Merkmal 99 (sowie andere Fahrzeugumgebungsmerkmale) von Position „D“ erfassen.Returning to block 324, if feature 99 is in a camera cut-off location with low confidence, camera 148 is no longer able to capture images of the feature. In this case, the camera control module 141 can control (in block 330 ) the camera 148 to stop attempting to capture images of the feature 99 . 2 12 shows the vehicle 100 in a position "D" in which the feature 99 is in an exclusion location from which the camera 148 can no longer focus on the feature 99. FIG. However, the lidar sensor 125 can still detect feature 99 (as well as other vehicle surrounding features) from location "D".

Da zusätzlich bei Block 330 der dem Merkmal 99 zugeordnete Konfidenzgrad während der Bildaufnahme und Aktualisierung der Merkmalsinformationen niemals einen Grad bei oder über dem Schwellenwert erreicht hat, bleibt das Merkmal 99 als „nicht identifiziert“ klassifiziert. Somit kann das Kamerasteuermodul 141 nach Block 330 eine abschließende Überprüfung durchführen (in Block 332), um zu bestimmen, ob bis zu diesem Zeitpunkt irgendwelche Bilder des Merkmals 99 aufgenommen wurden. Wenn keine Bilder aufgenommen wurden, gibt es keine Kamerabilder, die an einen menschlichen Prüfer weitergeleitet werden können, und die Bilderfassungsroutine kann bei Block 334 enden. Wenn jedoch Bilder des Merkmals 99 mit niedrigem Konfidenzgrad aufgenommen wurden, kann das Kamerasteuermodul 141 (in Block 336) den Betrieb des Fahrzeugs 100 steuern, um Merkmalsinformationen bezüglich des Merkmals 99 für die menschliche Überprüfung zu übertragen.Additionally, since at block 330 the confidence level associated with feature 99 has never reached a level at or above the threshold during image acquisition and feature information update, feature 99 remains classified as "unidentified." Thus, after block 330, the camera control module 141 may perform a final check (at block 332) to determine if any images of the feature 99 have been captured up to this point. If no images were captured, there are no camera images to pass to a human reviewer and the image capture routine may end at block 334 . However, if images of the feature 99 were captured with a low level of confidence, the camera control module 141 may control (in block 336) operation of the vehicle 100 to transmit feature information related to the feature 99 for human review.

In den hierin beschriebenen Ausführungsbeispielen kann der menschliche Prüfer die Lidar-/Radarinformationen mit zugeordneten Kamerabildern des tatsächlichen Merkmals, das in den Lidar-/Radarinformationen dargestellt ist, vergleichen und in Beziehung setzen (in Echtzeit). Die Bereitstellung von Kamerabildern eines Merkmals, dessen Identifizierung von einem Menschen überprüft wird, kann eine schnellere und genauere Identifizierung des Merkmals und folglich genauere Korrelationen zwischen Punktwolken und den physischen Objekten, die sie darstellen, ermöglichen. Zusätzlich können, wenn die Lidar-/Radarinformationen kategorisiert oder einem tatsächlich bekannten Merkmal zugeordnet werden, die neu bezogenen Lidar-/Radarinformationen in Bezug auf das Merkmal zu einem Katalog bekannter Lidar-/Radarinformationen hinzugefügt werden, die dem Merkmal zugeordnet sind, wodurch die Ressourcendatenbank erweitert wird, die von einem Computersystem zum Vergleichen mit neu erfassten Lidar-/Radarinformationen verwendet wird. Dies kann die zukünftige Erkennung dieses Merkmals oder eines ähnlichen Merkmals in anderen Fahrzeugen erleichtern, die dieselbe Datenbank als eine Quelle bekannter Lidar-/Radarinformationen zum Vergleichen verwenden.In the embodiments described herein, the human examiner may compare and correlate (in real time) the lidar/radar information with associated camera images of the actual feature represented in the lidar/radar information. The provision of camera images of a feature whose identification is being verified by a human can allow faster and more accurate identification of the feature and consequently more accurate correlations between point clouds and the physical objects they represent. Additionally, if the lidar/radar information is categorized or associated with an actual known feature, the newly obtained lidar/radar information related to the feature may be added to a catalog of known lidar/radar information associated with the feature, thereby increasing the resource database used by a computer system to compare with newly acquired lidar/radar information. This may facilitate future detection of that feature or a similar feature in other vehicles using the same database as a source of known lidar/radar information for comparison.

Detaillierte Ausführungsbeispiele werden hierin offenbart. Es versteht sich jedoch, dass die offenbarten Ausführungsbeispiele nur als Beispiele gedacht sind. Daher sind hierin offenbarte spezifische strukturelle und funktionelle Details nicht als einschränkend zu interpretieren, sondern lediglich als eine Basis für die Ansprüche und als eine repräsentative Basis, um einem Fachmann zu lehren, die Aspekte hierin in praktisch jeder angemessen detaillierten Struktur vielfältig einzusetzen. Des Weiteren sollen die hierin verwendeten Begriffe und Ausdrücke nicht einschränkend sein, sondern eher eine verständliche Beschreibung möglicher Implementierungen bereitstellen. In den 1-4B sind verschiedene Ausführungsbeispiele gezeigt, aber die Ausführungsbeispiele sind nicht auf die dargestellte Struktur oder Anwendung beschränkt.Detailed example embodiments are disclosed herein. However, it should be understood that the disclosed embodiments are intended as examples only. Therefore, specific structural and functional details disclosed herein are not to be interpreted as limiting, but merely as a basis for the claims and as a representative basis for teaching one skilled in the art to variously employ the aspects herein in virtually any reasonably detailed structure. Furthermore, the terms and expressions used herein are not intended to be limiting, but rather to provide an understandable description of possible implementations. In the 1-4B Various example embodiments are shown, but the example embodiments are not limited to the illustrated structure or application.

Die Ablaufdiagramme und Blockdiagramme in den Figuren stellen die Architektur, Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsbeispielen dar. In dieser Hinsicht kann jeder Block in den Ablaufdiagrammen oder Blockdiagrammen ein Modul, ein Segment oder einen Codeabschnitt darstellen, der eine oder mehrere ausführbare Anweisungen zum Implementieren der angegebenen logischen Funktion(en) umfasst. Es sei ebenfalls angemerkt, dass in einigen alternativen Implementierungen die in dem Block angegebenen Funktionen außerhalb der in den Figuren angegebenen Reihenfolge auftreten können. Zum Beispiel können zwei nacheinander gezeigte Blöcke tatsächlich im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal in der umgekehrten Reihenfolge ausgeführt werden, abhängig von der beteiligten Funktionalität.The flowcharts and block diagrams in the figures represent the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to various exemplary embodiments. In this regard, each block in the flowcharts or block diagrams may represent a module, segment, or portion of code that comprises one or more executable instructions for implementing the specified logical function(s). It should also be noted that, in some alternative implementations, the functions noted in the block may occur out of the order noted in the figures. For example, two blocks shown sequentially may actually be executed substantially simultaneously, or the blocks may sometimes be executed in the reverse order depending on the functionality involved.

Die zuvor beschriebenen Systeme, Komponenten und/oder Prozesse können in Hardware oder einer Kombination aus Hardware und Software realisiert werden und können in einer zentralisierten Weise in einem Verarbeitungssystem oder in einer verteilten Weise realisiert werden, in der verschiedene Elemente über mehrere miteinander verbundene Verarbeitungssysteme verteilt sind. Jede Art von Verarbeitungssystem oder eine andere Vorrichtung, die zum Ausführen der hierin beschriebenen Verfahren geeignet ist, ist geeignet. Eine typische Kombination aus Hardware und Software kann ein Verarbeitungssystem mit computernutzbarem Programmcode sein, der, wenn er geladen und ausgeführt wird, das Verarbeitungssystem so steuert, dass es die hierin beschriebenen Verfahren ausführt. Die Systeme, Komponenten und/oder Prozesse können auch in einen computerlesbaren Speicher eingebettet sein, wie beispielsweise einem Computerprogrammprodukt oder eine andere Datenprogrammspeichervorrichtung, die von einer Maschine lesbar ist und konkret ein Programm von Anweisungen verkörpert, die von der Maschine ausführbar sind, um Verfahren und hier beschriebenen Prozesse auszuführen. Diese Elemente können auch in ein Anwendungsprodukt eingebettet werden, das alle Merkmale umfasst, welche die Implementierung der hierin beschriebenen Verfahren ermöglichen, und das, wenn es in ein Verarbeitungssystem geladen wird, in der Lage ist, diese Verfahren auszuführen.The systems, components and/or processes described above may be implemented in hardware or a combination of hardware and software and may be implemented in a centralized manner in a processing system or in a distributed manner in which various elements are distributed across multiple interconnected processing systems. Any type of processing system or other device suitable for performing the methods described herein is suitable. A typical combination of hardware and software may be a processing system having computer-usable program code that, when loaded and executed, controls the processing system to perform the methods described herein. The systems, components and/or processes may also be embedded in computer readable storage, such as a computer program product or other data program storage device readable by a machine and tangibly embodying a program of instructions executable by the machine to implement methods and carry out the processes described here. These elements can also be embedded in an application product that includes all the features that enable the implementation of the methods described herein and that, when loaded into a processing system, is capable of executing those methods.

Darüber hinaus können hierin beschriebene Anordnungen die Form eines Computerprogrammprodukts annehmen, das in einem oder mehreren computerlesbaren Medien verkörpert ist, auf denen computerlesbarer Programmcode verkörpert ist., z.B. darauf gespeichert. Jede Kombination aus einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Der Ausdruck „computerlesbares Speichermedium“ bedeutet ein nichtflüchtiges Speichermedium. Ein computerlesbares Speichermedium kann zum Beispiel ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, Vorrichtung oder ein Gerät oder eine beliebige geeignete Kombination der Vorstehenden sein, ist aber nicht darauf beschränkt. Spezifischere Beispiele (eine nicht erschöpfende Liste) des computerlesbaren Speichermediums wären die folgenden: eine tragbare Computerdiskette, ein Festplattenlaufwerk (HDD), ein Solid-State-Laufwerk (SSD), ein Nur-Lese-Speicher (ROM), einen löschbaren programmierbaren Nur-Lese-Speicher (EPROM oder Flash-Speicher), einen tragbaren Compact-Disc-Nur-Lese-Speicher (CD-ROM), eine Digital-Versatile-Disc (DVD), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder jede geeignete Kombination der zuvor Beschriebenen. Im Kontext dieses Dokuments kann ein computerlesbares Speichermedium ein beliebiges materielles Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem System zur Befehlsausführung, Vorrichtung oder Gerät enthalten oder speichern kann.Additionally, arrangements described herein may take the form of a computer program product embodied in one or more computer readable media having computer readable program code embodied thereon, e.g. Any combination of one or more computer-readable media can be used. The computer-readable medium can be a computer-readable signal medium or a computer-readable storage medium. The term "computer-readable storage medium" means a non-transitory storage medium. A computer-readable storage medium can be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus, or device, or any suitable combination of the foregoing. More specific examples (a non-exhaustive list) of computer-readable storage media would be the following: a portable computer floppy disk, a hard disk drive (HDD), a solid-state drive (SSD), a read-only memory (ROM), an erasable programmable read only memory (EPROM or flash memory), a compact disc portable read only memory (CD-ROM), a digital versatile disc (DVD), an optical storage device, a magnetic storage device, or any suitable combination of the previously described. In the context of this document, a computer-readable storage medium can be any tangible medium that can contain or store a program for use by or in connection with an instruction execution system, apparatus, or device.

Programmcode, der auf einem computerlesbaren Medium verkörpert ist, kann durch Verwendung jedes geeigneten Mediums übertragen werden, einschließlich, aber nicht beschränkt auf, drahtlos, drahtgebunden, Lichtwellenleiter, Kabel, HF usw. oder jede geeignete Kombination der zuvor Beschriebenen. Computerprogrammcode zum Ausführen von Operationen für Aspekte der vorliegenden Anordnungen kann in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, einschließlich einer objektorientierten Programmiersprache wie beispielsweise Java™, Smalltalk, C++ oder dergleichen und einer herkömmlichen prozeduralen Programmiersprache wie beispielsweise die „C“ Programmiersprache oder ähnliche Programmiersprachen. Der Programmcode kann vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als ein eigenständiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem entfernten Computer bzw. Remotecomputer oder vollständig auf dem entfernten Computer bzw. Remotecomputer oder Server ausgeführt werden. In dem letzteren Szenario kann der entfernte Computer bzw. Remotecomputer über jede Art von Netzwerk mit dem Computer des Benutzers verbunden sein, einschließlich eines lokalen Netzwerks (LAN) oder eines Weitverkehrsnetzwerks (WAN), oder die Verbindung kann mit einem externen Computer (zum Beispiel über das Internet über einen Internetdienstanbieter) hergestellt werden.Program code embodied on a computer-readable medium may be transmitted using any suitable medium, including but not limited to wireless, wireline, fiber optic, cable, RF, etc., or any suitable combination of the foregoing. Computer program code for performing operations for aspects of the present arrangements may be written in any combination of one or more programming languages, including an object-oriented programming language such as Java™, Smalltalk, C++ or the like and a conventional procedural programming language such as the "C" programming language or similar programming languages. The program code may run entirely on the user's computer, partially on the user's computer, as a standalone software package, partially on the user's computer and partially on a remote computer, or entirely on the remote computer or server . In the latter scenario, the remote computer can be connected to the user's computer over any type of network, including a local area network (LAN) or a wide area network (WAN), or the connection can be to an external computer (for example, via the internet via an internet service provider).

Die Begriffe „ein“ und „eine“, wie hierin verwendet, sind als eins oder mehr als eins definiert. Der Begriff „Mehrzahl“, wie hierin verwendet, ist als zwei oder mehr als zwei definiert. Der Begriff „andere“, wie hierin verwendet, ist als zumindest eine Sekunde oder mehr definiert. Die Begriffe „enthalten/einschließlich“ und/oder „haben/aufweisen“, wie hierin verwendet, sind als umfassen/enthalten (d.h. offene Sprachbedeutung) definiert. Der Ausdruck „zumindest einer von ... und ....“, wie hierin verwendet, bezieht sich auf alle möglichen Kombinationen von einem oder mehreren der zugordneten aufgelisteten Elemente und umfasst diese. Als ein Beispiel enthält der Ausdruck „zumindest einer von A, B und C“ nur A, nur B, nur C oder eine beliebige Kombination davon (z.B. AB, AC, BC oder ABC).The terms "a" and "an" as used herein are defined as one or more than one. The term "plurality" as used herein is defined as two or more than two. The term "other" as used herein is defined as at least one second or more. The terms "include/including" and/or "have/comprise" as used herein are defined as including (i.e. open-ended language meaning). The phrase "at least one of ... and ....", as used herein, refers to and includes all possible combinations of one or more of the associated listed items. As an example, the phrase "at least one of A, B, and C" includes only A, only B, only C, or any combination thereof (e.g., AB, AC, BC, or ABC).

Aspekte hierin können in anderen Formen verkörpert werden, ohne von der Idee oder wesentlichen Attributen davon abzuweichen. Dementsprechend sollte auf die folgenden Ansprüche und weniger die vorstehende Beschreibung Bezug genommen werden, um deren Anwendungsbereich anzugeben.Aspects herein may be embodied in other forms without departing from the spirit or essential attributes thereof. Accordingly, reference should be made to the following claims, rather than the foregoing description, for an indication of their scope.

Claims (20)

Kamerasteuersystem zum Steuern des Betriebs einer Kamera (126, 148), die an einem Fahrzeug (100) montiert ist, mit: einem Prozessor (110); und einem Speicher (115), der kommunizierbar mit dem Prozessor (110) verbunden ist und ein Kamerasteuermodul (141) speichert, das computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110): einen Erkennungskonfidenzgrad, der einem Merkmal in einer Umgebung des Fahrzeugs (100) zugeordnet ist, mit einem vorgegebenen Schwellenwert vergleicht; und als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, den Betrieb der Kamera (126, 148) steuert, um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs (100) aufzunehmen.A camera control system for controlling the operation of a camera (126, 148) mounted on a vehicle (100), comprising: a processor (110); and a memory (115) communicably coupled to the processor (110) and storing a camera control module (141) containing computer-readable instructions that, when executed by the processor (110), cause the processor (110) to: compares a detection confidence level associated with a feature in an area surrounding the vehicle (100) to a predetermined threshold; and in response to the detection confidence level being below the predetermined threshold and by using location information associated with the feature, controls operation of the camera (126, 148) to capture at least one image of the feature during movement of the vehicle (100) record. Kamerasteuersystem nach Anspruch 1, wobei das Kamerasteuermodul (141) computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110), als Reaktion darauf, dass der Erkennungskonfidenzgrad bei oder über dem vorgegebenen Schwellenwert liegt, den Betrieb der Kamera (126, 148) steuert, um den Versuch, Bilder des Merkmals aufzunehmen, zu unterbrechen.camera control system claim 1 wherein the camera control module (141) includes computer-readable instructions that, when executed by the processor (110), cause the processor (110), in response to the detection confidence level being at or above the predetermined threshold, to cease operation of the camera (126 , 148) to stop attempting to capture images of the feature. Kamerasteuersystem nach Anspruch 1 oder 2, wobei das Kamerasteuermodul (141) computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110): bestimmt, ob das Merkmal aktuell an einem Kameraausschlussort ist, nachdem die Kamera (126, 148) zumindest ein Bild des Merkmals aufgenommen hat; und als Reaktion darauf, dass das Merkmal an einem Kameraausschlussort ist, den Betrieb der Kamera (126, 148) steuert, um den Versuch, Bilder des Merkmals aufzunehmen, zu unterbrechen.camera control system claim 1 or 2 , wherein the camera control module (141) includes computer-readable instructions that, when executed by the processor (110), cause the processor (110) to: determine whether the feature is currently in a camera lockout location after the camera (126, 148) has at least one took a picture of the feature; and in response to the feature being at a camera lockout location, controlling operation of the camera (126, 148) to discontinue attempting to capture images of the feature. Kamerasteuersystem nach Anspruch 3, wobei das Kamerasteuermodul (141) computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110), als Reaktion darauf, dass das Merkmal an einem Kameraausschlussort ist, nachdem die Kamera (126, 148) zumindest ein Bild des Merkmals aufgenommen hat, den Betrieb des Fahrzeugs (100) steuert, um Merkmalsinformationen bezüglich des Merkmals an eine Entität außerhalb des Fahrzeugs zur menschlichen Überprüfung zu übertragen.camera control system claim 3 wherein the camera control module (141) includes computer-readable instructions that, when executed by the processor (110), cause the processor (110), in response to the feature being at a camera lockout location, after the camera (126, 148) at least captured an image of the feature, controls operation of the vehicle (100) to transmit feature information regarding the feature to an entity external to the vehicle for human review. Kamerasteuersystem nach Anspruch 4, wobei die Merkmalsinformationen Punktwolkendaten, die das Merkmal darstellen, und ein oder mehrere Bilder des Merkmals enthalten, die von der Kamera (126, 148) aufgenommen werden und mit den Punktwolkendaten zeitlich korreliert werden.camera control system claim 4 , wherein the feature information includes point cloud data representing the feature and one or more images of the feature captured by the camera (126, 148) and temporally correlated with the point cloud data. Kamerasteuersystem nach einem der Ansprüche 1 bis 5, wobei das Fahrzeug (100) einen Lidar-Sensor (125) enthält, der betreibbar ist, um zu versuchen, das Merkmal in der Fahrzeugumgebung zu erfassen, und das Kamerasteuermodul (141) computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110) den Betrieb der Kamera (126, 148) steuert, um ein oder mehrere Bilder des Merkmals gleichzeitig mit dem Betrieb des Lidarsensors (125) aufzunehmen.Camera control system according to one of Claims 1 until 5 wherein the vehicle (100) includes a lidar sensor (125) operable to attempt to capture the feature in the vehicle environment, and the camera control module (141) includes computer-readable instructions that, when executed by the processor (110 ) cause the processor (110) to control operation of the camera (126, 148) to capture one or more images of the feature concurrently with operation of the lidar sensor (125). Kamerasteuersystem nach Anspruch 6, wobei das Kamerasteuermodul (141) computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110) Lidardaten mit zumindest einem gleichzeitigen Bild des Merkmals zeitlich korreliert, das von der Kamera (126, 148) aufgenommen wird.camera control system claim 6 wherein the camera control module (141) includes computer-readable instructions that, when executed by the processor (110), cause the processor (110) to temporally correlate lidar data with at least one simultaneous image of the feature captured by the camera (126, 148). . Kamerasteuersystem nach einem der Ansprüche 1 bis 7, wobei das Fahrzeug (100) einen Radarsensor (109) enthält, der betreibbar ist, um zu versuchen, das Merkmal in der Fahrzeugumgebung zu erfassen, und das Kamerasteuermodul (141) computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110) den Betrieb der Kamera (126, 148) steuert, um Bilder des Merkmals gleichzeitig mit dem Betrieb des Radarsensors (109) aufzunehmen.Camera control system according to one of Claims 1 until 7 wherein the vehicle (100) includes a radar sensor (109) operable to attempt to detect the feature in the vehicle environment, and the camera control module (141) includes computer-readable instructions that when executed by the processor (110) cause and the processor (110) controlling operation of the camera (126, 148) to capture images of the feature concurrently with operation of the radar sensor (109). Kamerasteuersystem nach Anspruch 8, wobei das Kamerasteuermodul (141) computerlesbare Anweisungen enthält, die beim Ausführen durch den Prozessor (110) bewirken, dass der Prozessor (110) Radardaten mit zumindest einem gleichzeitigen Bild des Merkmals zeitlich korreliert, das von der Kamera (126, 148) aufgenommen wird.camera control system claim 8 wherein the camera control module (141) includes computer-readable instructions that, when executed by the processor (110), cause the processor (110) to temporally correlate radar data with at least one simultaneous image of the feature captured by the camera (126, 148). . Computerimplementiertes Verfahren zum Steuern des Betriebs einer Kamera (126, 148), die an einem Fahrzeug (100) montiert ist, wobei das Verfahren folgende Schritte enthält: Vergleichen eines Erkennungskonfidenzgrades, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert; und als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, Steuern des Betriebs der Kamera (126, 148), um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs (100) aufzunehmen.A computer-implemented method of controlling the operation of a camera (126,148) mounted on a vehicle (100), the method comprising the steps of: comparing a recognition confidence level associated with a feature to a predetermined threshold; and in response to the recognition confidence level being below the predetermined threshold and by using location information associated with the feature, controlling operation of the camera (126, 148) to at least one capture an image of the feature during movement of the vehicle (100). Verfahren nach Anspruch 10, des Weiteren mit dem Schritt, als Reaktion darauf, dass der Erkennungskonfidenzgrad bei oder über dem vorgegebenen Schwellenwert liegt, Steuern des Betriebs der Kamera (126, 148), um den Versuch, Bilder des Merkmals aufzunehmen, zu unterbrechen.procedure after claim 10 , further comprising the step of, in response to the detection confidence level being at or above the predetermined threshold, controlling operation of the camera (126, 148) to discontinue attempting to capture images of the feature. Verfahren nach Anspruch 10 oder 11, des Weiteren mit den Schritten: Bestimmen, ob das Merkmal aktuell an einem Kameraausschlussort ist, nachdem die Kamera (126, 148) zumindest ein Bild des Merkmals aufgenommen hat; und als Reaktion darauf, dass das Merkmal an einem Kameraausschlussort ist, Steuern des Betriebs der Kamera (126, 148), um den Versuch, Bilder des Merkmals aufzunehmen, zu unterbrechen.procedure after claim 10 or 11 , further comprising the steps of: after the camera (126, 148) captures at least one image of the feature, determining whether the feature is currently at a camera lockout location; and in response to the feature being at a camera lockout location, controlling operation of the camera (126, 148) to discontinue attempting to capture images of the feature. Verfahren nach Anspruch 12, des Weiteren mit dem Schritt, als Reaktion darauf, dass das Merkmal an einem Kameraausschlussort ist, nachdem die Kamera (126, 148) zumindest ein Bild des Merkmals aufgenommen hat, Steuern des Betriebs des Fahrzeugs (100), um Merkmalsinformationen bezüglich des Merkmals an eine Entität außerhalb des Fahrzeugs zur menschlichen Überprüfung zu übertragen.procedure after claim 12 , further comprising the step of, in response to the feature being at a camera lockout location after the camera (126, 148) captures at least one image of the feature, controlling operation of the vehicle (100) to display feature information regarding the feature transmit an entity outside the vehicle for human verification. Verfahren nach Anspruch 13, wobei die Merkmalsinformationen Punktwolkendaten, die das Merkmal darstellen, und ein oder mehrere Bilder des Merkmals enthalten, die von der Kamera (126, 148) aufgenommen werden und mit den Punktwolkendaten zeitlich korreliert sind.procedure after Claim 13 wherein the feature information includes point cloud data representing the feature and one or more images of the feature captured by the camera (126, 148) and correlated in time with the point cloud data. Verfahren nach einem der Ansprüche 10 bis 14, wobei das Fahrzeug (100) einen Lidarsensor (125) enthält, der betreibbar ist, um zu versuchen, das Merkmal in der Fahrzeugumgebung zu erfassen, und das Verfahren des Weiteren den Schritt des Steuerns des Betriebs der Kamera (126, 148) enthält, um ein oder mehrere Bilder des Merkmals gleichzeitig mit dem Betrieb des Lidarsensors (125) aufzunehmen.Procedure according to one of Claims 10 until 14 wherein the vehicle (100) includes a lidar sensor (125) operable to attempt to detect the feature in the vehicle environment, and the method further includes the step of controlling operation of the camera (126, 148), to capture one or more images of the feature concurrently with operation of the lidar sensor (125). Verfahren nach Anspruch 15, des Weiteren mit dem Schritt Zeitkorrelieren von Lidardaten mit zumindest einem gleichzeitigen Bild des Merkmals, das von der Kamera (126, 148) aufgenommen wird.procedure after claim 15 , further comprising time correlating lidar data with at least one simultaneous image of the feature captured by the camera (126, 148). Verfahren nach einem der Ansprüche 10 bis 16, wobei das Fahrzeug (100) einen Radarsensor (109) enthält, der betreibbar ist, um zu versuchen, das Merkmal in der Fahrzeugumgebung zu erfassen, und das Verfahren des Weiteren den Schritt des Aufnehmens von Bildern des Merkmals gleichzeitig mit dem Betrieb des Radarsensors (109) enthält.Procedure according to one of Claims 10 until 16 wherein the vehicle (100) includes a radar sensor (109) operable to attempt to detect the feature in the vehicle environment, and the method further comprises the step of capturing images of the feature concurrently with operation of the radar sensor ( 109) contains. Verfahren nach Anspruch 17, des Weiteren mit dem Schritt Zeitkorrelieren von Radardaten mit zumindest einem gleichzeitigen Bild des Merkmals, das von der Kamera (126, 148) aufgenommen wird.procedure after Claim 17 , further comprising the step of time-correlating radar data with at least one simultaneous image of the feature captured by the camera (126, 148). Nichtflüchtiges computerlesbares Medium zum Steuern des Betriebs einer Kamera (126, 148), die an einem Fahrzeug (100) montiert ist, wobei das Medium darin gespeicherte Anweisungen aufweist, die, wenn diese von einem Computersystem ausgeführt werden, bewirken, dass das Computersystem Funktionen ausführt, die enthalten: Vergleichen eines Erkennungskonfidenzgrades, der einem Merkmal zugeordnet ist, mit einem vorgegebenen Schwellenwert; und als Reaktion darauf, dass der Erkennungskonfidenzgrad unter dem vorgegebenen Schwellenwert ist, und durch Verwendung von Standortinformationen, die dem Merkmal zugeordnet sind, Steuern des Betriebs der Kamera (126, 148), um zumindest ein Bild des Merkmals während der Bewegung des Fahrzeugs (100) aufzunehmen.A non-transitory computer-readable medium for controlling the operation of a camera (126, 148) mounted on a vehicle (100), the medium having instructions stored thereon which, when executed by a computer system, cause the computer system to perform functions , which contain: comparing a recognition confidence level associated with a feature to a predetermined threshold; and in response to the detection confidence level being below the predetermined threshold and by using location information associated with the feature, controlling operation of the camera (126, 148) to capture at least one image of the feature during movement of the vehicle (100) record. Nichtflüchtiges computerlesbares Medium nach Anspruch 19, des Weiteren mit den Schritten: Bestimmen, ob das Merkmal aktuell an einem Kameraausschlussort ist, nachdem die Kamera (126, 148) zumindest ein Bild des Merkmals aufgenommen hat; und als Reaktion darauf, dass das Merkmal an einem Kameraausschlussort ist, Steuern des Betriebs der Kamera (126, 148), um den Versuch, Bilder des Merkmals aufzunehmen, zu unterbrechen.non-transitory computer-readable medium claim 19 , further comprising the steps of: after the camera (126, 148) captures at least one image of the feature, determining whether the feature is currently at a camera lockout location; and in response to the feature being at a camera lockout location, controlling operation of the camera (126, 148) to discontinue attempting to capture images of the feature.
DE102022106248.1A 2021-03-24 2022-03-17 System for controlling a camera to support human verification of sensor information Pending DE102022106248A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163165240P 2021-03-24 2021-03-24
USUS63/165240 2021-03-24
US17/500,059 US11763569B2 (en) 2021-03-24 2021-10-13 System for controlling a camera supporting human review of sensor information
USUS17/500059 2021-10-13

Publications (1)

Publication Number Publication Date
DE102022106248A1 true DE102022106248A1 (en) 2022-09-29

Family

ID=83192917

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022106248.1A Pending DE102022106248A1 (en) 2021-03-24 2022-03-17 System for controlling a camera to support human verification of sensor information

Country Status (4)

Country Link
US (1) US11763569B2 (en)
JP (1) JP7294476B2 (en)
CN (1) CN115209041B (en)
DE (1) DE102022106248A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7776480B2 (en) * 2023-11-15 2025-11-26 本田技研工業株式会社 Position estimation device and vehicle control system

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101617197B (en) * 2007-02-16 2011-06-22 三菱电机株式会社 Feature identification apparatus, measurement apparatus and measuring method
RU2011128379A (en) * 2008-12-09 2013-01-20 Томтом Норт Америка, Инк. METHOD FOR PRODUCING A PRODUCT OF A GEODESIC REFERENCE DATABASE
US9165468B2 (en) * 2010-04-12 2015-10-20 Robert Bosch Gmbh Video based intelligent vehicle control system
EP2719187A4 (en) 2011-06-07 2015-03-11 In Situ Media Corp System and method for identifying and altering images in a digital video
US20140263143A1 (en) 2013-03-15 2014-09-18 The Carpenter Group Articulated Arm Lifting System
US9665595B2 (en) 2013-05-01 2017-05-30 Cloudsight, Inc. Image processing client
US10789840B2 (en) * 2016-05-09 2020-09-29 Coban Technologies, Inc. Systems, apparatuses and methods for detecting driving behavior and triggering actions based on detected driving behavior
US10942031B2 (en) * 2016-06-10 2021-03-09 Pioneer Corporation Information processing device, measurement device and control method
CN108225348B (en) * 2017-12-29 2021-08-24 百度在线网络技术(北京)有限公司 Map creation and moving entity positioning method and device
CN112106003A (en) * 2018-03-29 2020-12-18 索尼公司 Controller, control method, and program
US11067693B2 (en) * 2018-07-12 2021-07-20 Toyota Research Institute, Inc. System and method for calibrating a LIDAR and a camera together using semantic segmentation
US10816979B2 (en) * 2018-08-24 2020-10-27 Baidu Usa Llc Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras
CN109800805A (en) 2019-01-14 2019-05-24 上海联影智能医疗科技有限公司 Image processing system and computer equipment based on artificial intelligence
US10841483B1 (en) * 2019-07-11 2020-11-17 Denso International America, Inc. System and method for calibrating at least one camera and a light detection and ranging sensor
CN110789533B (en) * 2019-09-25 2021-08-13 华为技术有限公司 Method and terminal device for presenting data

Also Published As

Publication number Publication date
CN115209041B (en) 2024-08-13
CN115209041A (en) 2022-10-18
JP7294476B2 (en) 2023-06-20
US20220311932A1 (en) 2022-09-29
US11763569B2 (en) 2023-09-19
JP2022151680A (en) 2022-10-07

Similar Documents

Publication Publication Date Title
DE102016114535B4 (en) Route determination for automated vehicles
DE102010006828B4 (en) Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
DE102020102725B4 (en) METHOD AND APPARATUS FOR A CONTEXT-DEPENDENT, CROWD-SOURCE, SPARSE, HIGH-RESOLUTION MAP
DE102014223363B4 (en) Method and device for localizing a motor vehicle in a fixed reference map
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
EP3824247A1 (en) Method and system for determining a position of a vehicle
DE102019133536A1 (en) Method and apparatus for enabling sequential bottom view image projection synthesis and complicated scene reconstruction at map anomaly hotspots
DE102016112492A9 (en) Minimization of incorrect sensor data associations for autonomous vehicles
DE102016112913A1 (en) Method and apparatus for determining a vehicle ego position
DE102017126925A1 (en) Automated co-pilot control for autonomous vehicles
DE102013208521A1 (en) Collective learning of a highly accurate road model
DE102018005869A1 (en) System for creating an environmental model of a vehicle
EP2769373A1 (en) Acquisition of data from image data-based map services by an assistance system
DE112018005907T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND MOVABLE BODY
DE102019112649A1 (en) DEVICE AND METHOD FOR IMPROVING RADAR BEAM FORMING
DE102020100022A1 (en) POSITION DETERMINATION TECHNOLOGY
DE102020126973A1 (en) PROCEDURE AND SYSTEM FOR LOCALIZED LANE DETECTION
DE112021006402T5 (en) Estimating automatic exposure values of a camera by prioritizing an object of interest based on contextual input from 3D maps
DE112020000590T5 (en) MAP AND PROCEDURE FOR CREATING A MAP
DE102016224212A1 (en) Automated free space detection using differential analysis for vehicles
DE102021206075A1 (en) Vehicle localization as a ride-sharing option and occupant identification for autonomous vehicles
DE102018215753A1 (en) Device and method for determining a trajectory of a vehicle
DE102018214971A1 (en) Method for creating a map of the surroundings of a vehicle
DE112022003094T5 (en) METHOD, SYSTEM AND COMPUTER PROGRAM PRODUCT FOR RESOLVING LEVEL AMBIGUITY FOR AUTONOMOUS VEHICLE RADAR SYSTEMS
DE112021006099T5 (en) Onboard feedback system for autonomous vehicles

Legal Events

Date Code Title Description
R012 Request for examination validly filed