DE102023205343A1 - Device for spatial image capture of an environment moving relative to the device and operating method therefor - Google Patents
Device for spatial image capture of an environment moving relative to the device and operating method therefor Download PDFInfo
- Publication number
- DE102023205343A1 DE102023205343A1 DE102023205343.8A DE102023205343A DE102023205343A1 DE 102023205343 A1 DE102023205343 A1 DE 102023205343A1 DE 102023205343 A DE102023205343 A DE 102023205343A DE 102023205343 A1 DE102023205343 A1 DE 102023205343A1
- Authority
- DE
- Germany
- Prior art keywords
- distance
- flash
- detection
- cameras
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011017 operating method Methods 0.000 title description 21
- 238000001514 detection method Methods 0.000 claims abstract description 117
- 238000005286 illumination Methods 0.000 claims abstract description 61
- 238000000034 method Methods 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 12
- 230000035945 sensitivity Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 21
- 238000003491 array Methods 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000002366 time-of-flight method Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003897 fog Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Eine Vorrichtung (1) dient zur räumlichen Bilderfassung einer Umgebung. Die Bilderfassungs-Vorrichtung (1) hat mindestens eine Stereokamera (5, 14, 15, 20) zur triangulatorischen Objekt-Abstandsbestimmung der Vorrichtung (1) zur Umgebung. Mindestens eine Blitzlichtquelle (7, 13) dient zur Umgebungsbeleuchtung. Kameras der Stereokamera haben jeweils ein Sensor-Array. Eine Steuereinrichtung (10) steht mit den Kameras in Signalverbindung und dient zur zeitlich synchronisierten Vorgabe von Bilderfassungsparametern, nämlich eines Blitzbeleuchtungsbeginns, einer Blitzbeleuchtungsdauer der Blitzlichtquelle sowie eines Detektionsbeginns und einer Detektionsdauer der Kameras. Es resultiert eine Bilderfassungs-Vorrichtung, die an die Praxis insbesondere der Bilderfassung zur Sicherstellung eines unterstützenden oder autonomen Fahrens gut angepasst ist.A device (1) is used for spatial image capture of an environment. The image capture device (1) has at least one stereo camera (5, 14, 15, 20) for triangulatory object distance determination of the device (1) from the environment. At least one flash light source (7, 13) is used for ambient lighting. Cameras of the stereo camera each have a sensor array. A control device (10) is in signal connection with the cameras and is used for the temporally synchronized specification of image capture parameters, namely a flash illumination start, a flash illumination duration of the flash light source and a detection start and a detection duration of the cameras. The result is an image capture device that is well adapted to the practice, in particular of image capture to ensure assisted or autonomous driving.
Description
Die Erfindung betrifft eine Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung. Ferner betrifft die Erfindung ein Verfahren zum Betrieb einer derartigen Vorrichtung.The invention relates to a device for spatial image capture of an environment moving relative to the device. The invention further relates to a method for operating such a device.
Derartige Vorrichtungen sind bekannt aus der
Es ist eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung zur räumlichen Bilderfassung zu schaffen, die an die Praxis insbesondere der Bilderfassung zur Sicherstellung eines unterstützenden oder autonomen Fahrens gut angepasst ist.It is an object of the present invention to provide a device for spatial image acquisition which is well adapted to the practice, in particular of image acquisition for ensuring assisted or autonomous driving.
Diese Aufgabe ist erfindungsgemäß gelöst durch ein Verfahren mit den im Anspruch 1 angegeben Merkmalen.This object is achieved according to the invention by a method having the features specified in
Erfindungsgemäß wurde erkannt, dass sich die Funktionen einerseits mindestens einer Stereokamera und andererseits einer Bilderfassung mittels eines Beleuchtungs-Laufzeitverfahrens vorteilhaft ergänzen. Sowohl die Stereokamera als auch die ein Laufzeitverfahren ermöglichenden Komponenten Blitzlichtquelle und Sensor-Array, über die Laufzeitverfahrens-Bilderfassungsparameter vorgegeben werden können, erlauben die Ermittlung eines Abstandes von Objekten innerhalb der Umgebung.According to the invention, it was recognized that the functions of at least one stereo camera on the one hand and of image capture using an illumination time-of-flight method on the other hand advantageously complement each other. Both the stereo camera and the flash light source and sensor array components that enable a time-of-flight method and can be used to specify the time-of-flight method image capture parameters, allow the distance of objects within the environment to be determined.
Die Vorrichtung kann zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung dienen. Die mindestens eine Stereokamera kann zur triangulatorischen Objekt-Abstandsbestimmung innerhalb der erfassten Umgebung in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung dienen. Dies kann zur Verbesserung einer Sicherheit der Umgebungserfassung insbesondere im Zusammenhang mit einem fahrerunterstützenden oder auch einem autonomen Fahren genutzt werden. Die Vorrichtung kann Bestandteil eines Fahrzeugs, beispielsweise eines PKW oder LKW, sein.The device can be used for spatial image capture of an environment moving relative to the device. The at least one stereo camera can be used for triangulatory object distance determination within the captured environment in the forward direction of a relative movement of the device to the environment. This can be used to improve the reliability of the environment capture, particularly in connection with driver-assisted or autonomous driving. The device can be part of a vehicle, for example a car or truck.
Die Steuereinrichtung kann insbesondere einen Delay-Zeitraum zwischen dem Blitzbeleuchtungsbeginn der mindestens einen Blitzlichtquelle und dem Detektionsbeginn des jeweiligen Sensor-Arrays der Kameras der mindestens einen Stereokamera vorgeben. Der Abstand der Kameras der Stereokamera zueinander ergibt eine Länge einer Baseline, also eines Abstandes von Zentren von Eintrittspupillen der Kameras der mindestens einen Stereokamera. Mit der Vorrichtung können Prinzipien einer TOF (Time of Flight)-Kamera mit einer triangulatorisch abstandsvermessenden Stereokamera verknüpft werden. Eine entsprechende TOF-Bilderfassung ist beschrieben beispielsweise in der
Zur triangulatorischen Objekt-Abstandsbestimmung sind die beiden Kameras der Stereokamera über eine Synchronisierungseinheit miteinander synchronisiert. Durch diese Synchronisation kann insbesondere eine exakt zeitgleiche Erfassung des jeweiligen Objekts über die Kameras der Stereokamera erreicht werden. Dies unterscheidet eine Stereokamera zur triangulatorischen Objekt-Abstandsbestimmung von einer stereoskopischen Kamera, über die ausschließlich ein Raumeindruck einer Bilderfassung erzeugt wird und die beispielsweise beschrieben ist in der
Die Synchronisation und insbesondere die zeitgleiche Objekterfassung bei der triangulatorischen Objekt-Abstandsbestimmung ermöglicht es, auch fremdbewegte Objekte in ihrer Entfernung präzise zu erfassen, da dann der Einfluss einer zusätzlichen Relativgeschwindigkeit aufgrund der Fremdbewegung des Objekts die Entfernungsbestimmung nicht beeinflusst.Synchronization and, in particular, simultaneous object detection in triangulatory object distance determination makes it possible to precisely detect the distance of even externally moving objects, since the influence of an additional relative speed due to the external movement of the object does not then affect the distance determination.
Eine Brennweite f der jeweiligen Kamera einer Stereokamera, die Baseline b der Stereokamera sowie eine Disparität D, also ein Unterschied zwischen Bildkoordinaten von Abbildungspositionen des gleichen Punktes auf den Sensor-Arrays der Kameras der Stereokamera, werden so aufeinander abgestimmt, dass unter Einbeziehung der Beziehung
Zusätzlich kann die Vorrichtung so ausgelegt sein, dass ein entsprechender Objekt-Entfernungsbereich über die TOF-Bilderfassungsfunktionalität der Vorrichtung erfasst wird.In addition, the device can be designed so that a corresponding object distance area is captured via the device's TOF imaging functionality.
Bei der Blitzlichtquelle kann es sich um eine gesteuerte Blitzlampe handeln oder auch um eine entsprechend zeitgesteuerte LED- oder Laser-Lichtquelle. Es können Blitzlichtquellen zum Einsatz kommen, die zum Einsatz beispielsweise bei LIDAR-Vorrichtungen bekannt sind.The flash light source can be a controlled flash lamp or a time-controlled LED or laser light source. Flash light sources can be used that are known for use in LIDAR devices, for example.
Eine Blitzbeleuchtungsdauer der Blitzlichtquelle kann im Bereich zwischen 10 ns und 200 ns, beispielsweise im Bereich von 100 ns, liegen. Eine Detektionsdauer der Sensor-Arrays der mindestens einen Stereokamera ist regelmäßig so vorgegeben, dass sie doppelt so groß ist wie die Blitzbeleuchtungsdauer der Blitzlichtquelle. Die Detektionsdauer kann im Bereich zwischen 20 ns und 400 ns, beispielsweise im Bereich von 200 ns, liegen.A flash illumination duration of the flash light source can be in the range between 10 ns and 200 ns, for example in the range of 100 ns. A detection duration of the sensor arrays of the at least one stereo camera is usually specified so that it is twice as long as the flash illumination duration of the flash light source. The detection duration can be in the range between 20 ns and 400 ns, for example in the range of 200 ns.
Sowohl die Blitzbeleuchtungsdauer als auch die Detektionsdauer können über die Steuereinrichtung einstellbar vorgebbar sein.Both the flash illumination duration and the detection duration can be set via the control device.
Die Synchronisierungseinheit kann Teil der Steuereinrichtung sein. Teil der Steuereinrichtung kann eine Speichereinheit insbesondere in Form eines Flash-Speichers sein. Die Synchronisationseinheit kann Bestandteil einer Synchronisationseinrichtung zur Synchronisation der Blitzlichtquelle und der Sensor-Arrays der Kameras der mindestens einen Stereokamera sein. Die Synchronisationseinrichtung kann wiederum Bestandteil der Steuereinrichtung der Bilderfassungs-Vorrichtung sein.The synchronization unit can be part of the control device. Part of the control device can be a storage unit, in particular in the form of a flash memory. The synchronization unit can be part of a synchronization device for synchronizing the flash light source and the sensor arrays of the cameras of the at least one stereo camera. The synchronization device can in turn be part of the control device of the image capture device.
Eine Synchronisation, die über die Synchronisationseinrichtung bereitgestellt werden kann, kann besser sein als 5 ns, kann besser sein als 2 ns, kann besser sein als 1 ns und kann auch noch besser sein.Synchronization that can be provided by the synchronization device may be better than 5 ns, may be better than 2 ns, may be better than 1 ns, and may be even better.
Die Kameras der Stereokamera können lateral zur Vorwärtsrichtung voneinander beabstandet sein. Je nach Erfassungswinkel der Kameras und je nach Anwendungszweck und Haupt-Erfassungsrichtung der Stereokamera sind auch andere Kamera-Anordnungen der Stereokamera möglich.The cameras of the stereo camera can be spaced apart laterally to the forward direction. Depending on the detection angle of the cameras and depending on the application and main detection direction of the stereo camera, other camera arrangements of the stereo camera are also possible.
Die Kameras der mindestens einen Stereokamera können eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 50 m und 300 m aufweisen. Je nach Anwendungszweck können die Kameras der Stereokamera auch mit Optiken anderer Brennweiten ausgerüstet sein. Diese Kameraoptiken sind so ausgeführt, dass ein gesamter vorgegebener Entfernungsbereich insbesondere zwischen 3 m und 300 m abgedeckt wird. Grundsätzlich können auch noch kleinere Entfernungen abgedeckt werden.The cameras of the at least one stereo camera can have a telephoto lens for detecting objects in the distance range between 50 m and 300 m. Depending on the application, the cameras of the stereo camera can also be equipped with lenses of other focal lengths. These camera lenses are designed in such a way that an entire specified distance range is covered, in particular between 3 m and 300 m. In principle, even smaller distances can be covered.
Die Entfernungsbereiche der triangulatorischen Objekterfassung einerseits und der TOF-Entfernungserfassung andererseits sind aufeinander abgestimmt und können beispielsweise gleich sein. Auch eine Teilüberdeckung dieser Entfernungsbereiche ist möglich, sodass in einem Entfernungsbereich beide Entfernungsbestimmungsprinzipien „triangulatorisch“ und „TOF“ zur Verfügung stehen und in anderen Entfernungsbereichen eines dieser Prinzipien.The distance ranges of the triangulatory object detection on the one hand and the TOF distance detection on the other hand are coordinated with each other and can, for example, be the same. Partial overlap of these distance ranges is also possible, so that both distance determination principles "triangulatory" and "TOF" are available in one distance range and one of these principles is available in other distance ranges.
Mittels der Kameras der mindestens einen Stereokamera kann eine Korrespondenzanalyse zur Identifizierung von sich von einem Hintergrund unterscheidenden, in einem interessierenden Sichtbereich vorliegenden Objekten stattfinden. Methoden einer entsprechenden Korrespondenzanalyse sind bekannt aus der
Die mindestens eine Stereokamera kann mehr als zwei zueinander beabstandete Kameras aufweisen, was insbesondere einen Wechsel zwischen verschiedenen Baselines ermöglicht, was ebenfalls beispielsweise in der
Weitere Objektinformationen, insbesondere Objekt-Abstandsinformationen, können durch Auswertung eines Objekt-Schattenwurfs erfolgen, der von einem Objekt innerhalb der erfassten Umgebung als Schatten der Blitzbeleuchtung geworfen wird und von den beiden zueinander beabstandeten Kameras der mindestens einen Stereokamera unterschiedlich abgebildet wird. Insbesondere eine Höhe des Objektes kann ermittelt werden, weil ein Bild eines Objektschattens von der Höhenlage und der seitlichen Ablage des Objekts abhängig ist.Further object information, in particular object distance information, can be obtained by evaluating an object shadow that is cast by an object within the captured environment as a shadow of the flash lighting and is imaged differently by the two cameras of the at least one stereo camera that are spaced apart from each other. In particular, a height of the object can be determined because an image of an object shadow depends on the height and lateral position of the object.
Mit der Vorrichtung kann eine räumliche Bilderfassung der relativ zur Vorrichtung bewegten oder auch unbewegten Umgebung erreicht werden, die, beispielsweise beim Einsatz der Vorrichtung als Bestandteil eines Fahrzeugs, eine fahrerunterstützende Funktion oder auch die Funktion eines autonomen Fahrens ermöglicht.The device can be used to capture spatial images of the environment, whether moving or stationary relative to the device, which enables a driver-assisting function or even the function of autonomous driving, for example when the device is used as part of a vehicle.
Die Blitzlichtquelle der Vorrichtung oder eine weitere Lichtquelle der Vorrichtung zur Umgebungsbeleuchtung kann einen Messlichtstrahl aufweisen, der über seinen Strahlquerschnitt texturiert beziehungsweise strukturiert ist. Eine derartige Texturierung/Strukturierung des Messlichtstrahls kann dadurch erfolgen, dass dieser als Vielzahl von einzelnen, die Umgebung in Form eines Rasters erfassenden Einzelstrahlen aufgebaut ist. Eine derartige Lichtquelle zur Erzeugung eines texturierten/strukturierten Messlichtstrahls kann als Laser ausgeführt sein. Beispiele für eine Detektionseinrichtung, die mittels eines solchen texturierten/strukturierten Messlichtstrahls arbeitet, finden sich in der
Mittels der Vorrichtung zur räumlichen Bilderfassung kann eine Formredundanz und/oder eine Funktionsredundanz erreicht werden. Eine Formredundanz ist dann erreicht, wenn unterschiedliche Technologien zur Ermittlung ein und derselben Messgröße genutzt werden. Eine Funktionsredundanz liegt dann vor, wenn mehrere Vorrichtungen derselben Technologie zur Messung ein und derselben Messgröße verwendet werden. Diese Begriffe „Formredundanz“ und „Funktionsredundanz“ sind hauptsächlich im Bereich der Luftfahrt gebräuchlich. Dort wird eine Kombination aus Form- und Funktionsredundanz gefordert, damit Mehrfachauswirkungen eines Fehlers vermieden werden. Derartige Redundanzen können, je nach Applikation der Vorrichtung, gesetzlich vorgeschrieben sein.Form redundancy and/or function redundancy can be achieved using the spatial image acquisition device. Form redundancy is achieved when different technologies are used to determine one and the same measurement variable. Function redundancy exists when several devices of the same technology are used to measure one and the same measurement variable. The terms "form redundancy" and "function redundancy" are mainly used in the aviation sector. There, a combination of form and function redundancy is required to avoid multiple effects of an error. Such redundancies can be required by law, depending on the application of the device.
Mindestens eine weitere Blitzlichtquelle und/oder mindestens eine weitere Stereokamera nach Anspruch 2 ermöglichen eine zusätzliche Funktionsredundanz der Vorrichtung. Bei Vorsehen mindestens einer weiteren Blitzlichtquelle kann beispielsweise nach Ausfall der zunächst eingesetzten Blitzlichtquelle auf die weitere Blitzlichtquelle umgeschaltet werden, sodass eine längere Betriebspause der Vorrichtung vermieden ist. Bei Einsatz mindestens einer weiteren Stereokamera kann, beispielsweise bei parallelem triangulatorischen Vermessen über zwei Stereokameras, eine weitere Redundanz bei der Objekt-Abstandsbestimmung erreicht werden.At least one further flash light source and/or at least one further stereo camera according to
Die Kameras der weiteren Stereokamera können wiederum jeweils ein Sensor-Array mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass die weitere Stereokamera in ihrer Funktion grundsätzlich die ursprünglich eingesetzte Stereokamera ersetzen kann. Auch eine redundante TOF-Bestimmung von Objekt-Abständen ist über zwei entsprechende Stereokameras mit gesteuerter Vorgabe des Detektionsbeginns und der Detektionsdauer möglich, was eine zusätzliche Sicherheit bei der Objekt-Abstandsbestimmung liefert und beispielsweise Synchronisationsprobleme erkennen hilft.The cameras of the additional stereo camera can each have a sensor array with a controlled specification of a detection start and a detection duration, so that the additional stereo camera can basically replace the function of the stereo camera originally used. A redundant TOF determination of object distances is also possible using two corresponding stereo cameras with a controlled specification of the detection start and the detection duration, which provides additional security when determining the object distance and helps to identify synchronization problems, for example.
Bei Verwendung mehrerer Stereokameras ist zudem eine Zuordnung von Kameras verschiedener Stereokameras zu einer neuen „virtuellen“ Stereokamera mit entsprechend veränderter Baseline möglich, was eine weitere Redundanz beziehungsweise Sicherheit bei der Objekt-Abstandsbestimmung ermöglicht. Es kann beispielsweise dasjenige Kamerapaar zur Baseline-Vorgabe ausgewählt werden, welches sich in Bezug auf ein bestimmtes Umgebungs-Objekt für eine Triangulationsbestimmung als besonders günstig herausstellt.When using multiple stereo cameras, it is also possible to assign cameras from different stereo cameras to a new "virtual" stereo camera with a correspondingly modified baseline, which allows for further redundancy or security when determining the distance to objects. For example, the camera pair that proves to be particularly suitable for triangulation determination in relation to a specific surrounding object can be selected as the baseline.
Mindestens eine Fischaugen-Stereokamera nach Anspruch 3 ermöglicht den Einsatz zusätzlicher Triangulations-Baselines, was zur Erfassung weiterer Umgebungs-Objekte und/oder zur Kontrolle von Objekt-Abstandsergebnissen der anderen Stereokameras und/oder zur Kalibrierung der anderen Stereokameras, insbesondere von mit Tele-Optik-Kameras ausgeführten Stereokameras, genutzt werden kann. Bei der Haupterfassungsrichtung kann es sich um die Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung handeln. Die Nutzung von Fischaugen-Kameras ist aus den oben genannten Referenzen sowie aus der
Die Vorrichtung kann mehrere Fischaugen-Stereokameras beinhalten, was eine zusätzliche Redundanz ermöglicht. Auch die Kameras der mindestens einen Fischaugen-Stereokamera können jeweils Sensor-Arrays mit gesteuerter Vorgabe eines Detektionsbeginns und einer Detektionsdauer aufweisen, sodass hierüber auch eine TOF-Bestimmung von Objekt-Abständen möglich ist. Grundsätzlich kann die mindestens eine Fischaugen-Stereokamera auch ohne TOF-Funktion ausgeführt sein. Soweit die Vorrichtung mehrere Fischaugen-Stereokameras aufweist, ist auch möglich, dass mindestens eine der Fischaugen-Stereokameras mit TOF-Funktion und mindestens eine weitere der Fischaugen-Stereokameras ohne TOF-Funktion ausgeführt ist.The device can contain several fisheye stereo cameras, which enables additional redundancy. The cameras of the at least one fisheye stereo camera can also each have sensor arrays with controlled specification of a detection start and a detection duration, so that a TOF determination of object distances is also possible. In principle, the at least one fisheye stereo camera can also be designed without a TOF function. If the device has several fisheye stereo cameras, it is also possible for at least one of the fisheye stereo cameras to be designed with a TOF function and at least one other of the fisheye stereo cameras to be designed without a TOF function.
Grundsätzlich kann die Vorrichtung gemäß den obigen Ansprüchen so genutzt werden, dass hierüber mittels der TOF-Komponenten genau ein Entfernungsbereich erfasst wird, beispielsweise im Abstandsbereich zwischen 30 m und 300 m, insbesondere zwischen 100 m und 200 m, zur Vorrichtung.In principle, the device according to the above claims can be used in such a way that exactly one distance range is detected by means of the TOF components, for example in Distance range between 30 m and 300 m, in particular between 100 m and 200 m, from the device.
Die eingangs genannte Aufgabe ist zudem gelöst durch ein Betriebsverfahren mit den im Anspruch 5 angegebenen Merkmalen.The object mentioned at the outset is also achieved by an operating method having the features specified in
Das Betriebsverfahren nach Anspruch 5 ermöglicht einen Echtzeitbetrieb der Vorrichtung, sodass beispielsweise autonomes Fahren beim Einsatz der Vorrichtung als Bestandteil eines Fahrzeugs möglich ist.The operating method according to
Beim Betriebsverfahren nach Anspruch 5 wird ein abgedeckter Gesamt-Entfernungsbereich unterteilt in eine Mehrzahl von aneinander angrenzenden oder miteinander teilweise überlappenden Entfernungsbereichen. Es können dabei beispielsweise drei bis 100 derartige Entfernungsbereiche über entsprechende Bilderfassungsparameter vorgegeben werden, beispielsweise 50 Entfernungsbereiche, die innerhalb des Gesamt-Entfernungsbereichs liegen. Beim Betrieb der Vorrichtung kann der Gesamt-Entfernungsbereich über die vorgegebenen einzelnen Entfernungsbereiche mehrmals in der Sekunde, beispielsweise mit einer Rate von 10 Hertz, erfasst werden. Beim Betrieb kann mit dem innerhalb des Gesamt-Entfernungsbereichs entferntesten Entfernungsbereich begonnen werden. Dies stellt sicher, dass beim Überschreiben von in einem vorhergehenden Erfassungsschritt erfassten Bildern mit einem jeweils zuletzt erfassten Bild in nicht herausgefilterten Bildbereichen des zuletzt erfassten Bildes nahe Objekte entferntere Objekte überschreiben, sodass das Ergebnis des Betriebsverfahrens, nämlich das zuletzt aktualisierte, ausgegebene Bild, in jedem Fall die der Vorrichtung nächst benachbarten Objekte darstellt, worauf dann beispielsweise durch Eingriff in eine Bewegung der Vorrichtung reagiert werden kann. Ein Zwischenspeichern von in jeweils vorhergehenden Erfassungsschritten erfassten Bildern kann dann entfallen, was die Geschwindigkeit des Verfahrensablaufs erhöht.In the operating method according to
Das zuletzt aktualisierte, ausgegebene Bild ist ein 2D-Bild mit nicht herausgefilterten Objekten in allen innerhalb des Gesamt-Entfernungsbereichs erfassten Entfernungsbereichen. Auch im Laufe des Betriebsverfahrens überschriebene Informationen der innerhalb des Gesamt-Entfernungsbereichs früher erfassten Entfernungsbereiche können für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben.The last updated output image is a 2D image with unfiltered objects in all distance ranges recorded within the total distance range. Information from the distance ranges recorded earlier within the total distance range that was overwritten during the operating procedure can also be retained for independent spatial (3D) evaluation.
Zu den jeweils nicht herausgefilterten Objekten, die dem jeweiligen Erfassungsschritt zugeordnet sind, ergibt das Verfahren als Ergebnis einen Entfernungsbereich, in dem das Objekt relativ zur Vorrichtung vorliegt. Diese resultierenden Objekt-Entfernungsinformationen, die mittels der TOF-Bilderfassung ermittelt werden, ermöglichen im Zusammenspiel mit einer über die mindestens eine Stereokamera ermöglichten triangulatorischen Entfernungserfassung eine Formredundanz des Betriebsverfahrens.For the objects not filtered out that are assigned to the respective detection step, the method results in a distance range in which the object is present relative to the device. This resulting object distance information, which is determined using the TOF image capture, enables a form redundancy of the operating method in conjunction with a triangulatory distance capture enabled by the at least one stereo camera.
Als Entfernungsinformation kann eine jeweils geringste Entfernung des erfassten Objekts ausgegeben werden oder auch eine Entfernung pro Objekt-Bildpunkt des jeweiligen Sensor-Arrays.The distance information can be output as the smallest distance of the detected object or as a distance per object pixel of the respective sensor array.
Insgesamt resultiert eine einerseits sichere und andererseits vorausschauende Bilderfassung, die an die Erfordernisse insbesondere einer Fahrerunterstützung oder auch eines autonomen Fahrens gut angepasst ist.The overall result is an image capture that is both safe and predictive, and is well adapted to the requirements of driver assistance or autonomous driving in particular.
Beim digitalen Filtern zum Herausfiltern strukturloser Bildbereiche kann eine Stereo-Korrespondenzbestimmung zum Einsatz kommen, die beispielsweise beschrieben ist in der
Ein zeitlicher Überlapp nach Anspruch 6 ermöglicht einen schnellen Ablauf des Betriebsverfahrens. Der zeitliche Überlapp kann derart sein, dass mindestens zwei Entfernungsbereiche mit gleichzeitigem Detektionsbeginn und gleicher Detektionsdauer mit den Sensor-Arrays gleichzeitig erfasst werden, wobei diese Erfassungsbereiche durch unterschiedliche Vorgabe des jeweiligen Blitzlichtbeleuchtungsbeginns und/oder der jeweiligen Blitzbeleuchtungsdauer hinsichtlich ihrer Bilderfassungsparameter vorgegeben werden. Es ist auch möglich, die Wiederholungssequenz des Betriebsverfahrens so zu gestalten, dass tatsächlich eine Detektion genau zu einem Zeitraum, also bei einem vorgegebenen Detektionsbeginn und mit einer vorgegebenen Detektionsdauer, für alle vorgegebenen Entfernungsbereiche erfolgt. Durch diese gleichzeitige Detektionserfassung von mindestens zwei Erfassungsbereichen kann ein Bildverarbeitungsaufwand reduziert und eine Beschleunigung des gesamten Verfahrens erreicht werden.A temporal overlap according to claim 6 enables the operating method to run quickly. The temporal overlap can be such that at least two distance ranges with simultaneous detection start and the same detection duration are simultaneously recorded with the sensor arrays, whereby these detection ranges are specified by different specifications of the respective flash illumination start and/or the respective flash illumination duration with regard to their image recording parameters. It is also possible to design the repetition sequence of the operating method in such a way that a detection actually takes place at exactly one time, i.e. at a specified detection start and with a specified detection duration, for all specified distance ranges. This simultaneous detection of at least two detection ranges can reduce the image processing effort and speed up the entire process.
Sich voneinander unterscheidende Entfernungs-Ausdehnungen der Entfernungsbereiche nach Anspruch 7 ermöglichen insbesondere, eine Entfernungs-Empfindlichkeit abhängig von der Entfernung vorzugeben, was ebenfalls hilft, eine Ablaufdauer des Betriebsverfahrens zu verkürzen. Mit zunehmender Entfernung kann beispielsweise die Entfernungs-Ausdehnung des jeweiligen Entfernungsbereiches vergrößert werden, insbesondere progressiv vergrößert werden.Different distance extensions of the distance ranges according to
Eine zusätzliche Triangulationsbestimmung nach Anspruch 8 ermöglicht einen Abgleich von Objekt-Abstandswerten, die einerseits über das Entfernungsbereich-aufgelöste Erfassen mithilfe der TOF-Bilderfassungsparameter und andererseits mittels der Triangulation bestimmt wurden.An additional triangulation determination according to
Eine ROI-Vorgabe nach Anspruch 9 ermöglicht eine Reduktion der zu verarbeitenden Bilddaten, was das Verfahren zudem verkürzen kann. Bei der vorgegebenen ROI kann es sich um einen Straßenbereich in der Vorwärtsrichtung handeln.A ROI specification according to
Ein Betriebsverfahren nach Anspruch 10 kann alternativ oder zusätzlich zum vorstehend erläuterten Betriebsverfahren zum Einsatz kommen. Ein derartiges Betriebsverfahren ermöglicht eine redundante Entfernungsbestimmung eines jeweiligen Objektabstandes. Hierüber kann insbesondere eine Formredundanz bereitgestellt werden, also eine Redundanz, gegeben durch Verwendung unterschiedlicher Technologien zur Entfernungserfassung.An operating method according to claim 10 can be used as an alternative or in addition to the operating method explained above. Such an operating method enables redundant distance determination of a respective object distance. In particular, this can provide form redundancy, i.e. redundancy provided by using different technologies for distance detection.
Die Nutzung der erfassten TOF-Entfernung als Eingangsgröße für die triangulatorische Erfassung nach Anspruch 11 kann eine Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann bei der Korrespondenzanalyse ein abzudeckender Disparitätsbereich eingegrenzt werden. Umgekehrt kann auch die triangulatorisch erfasste Entfernung als Eingangsgröße für eine TOF-Erfassung genutzt werden. Die Verwendung einer erfassten Objektentfernung kann im Betrieb der Vorrichtung zum Nachverfolgen beziehungsweise Tracken von erfassten Objekten genutzt werden. Es kann genau ein derartiges Objekt nachverfolgt werden oder auch eine Mehrzahl derartiger Objekte kann gleichzeitig nachverfolgt werden. Objekt-Nachverfolgungsschritte können sich mit Erfassungsschritten eines gesamten vorgegebenen Entfernungsbereichs abwechseln. Zum Objekt-Tracken können Bilderfassungsparameter der TOF-Entfernungserfassung und/oder der triangulatorischen Entfernungserfassung an eine bei der Nachverfolgung zu erwartende Objektentfernung angepasst werden.The use of the recorded TOF distance as an input variable for the triangulatory detection according to claim 11 can facilitate a correspondence analysis in the triangulatory detection. In particular, the correspondence analysis can be used to limit a disparity range to be covered. Conversely, the triangulatory detected distance can also be used as an input variable for a TOF detection. The use of a recorded object distance can be used in the operation of the device for tracking or tracking detected objects. Exactly one such object can be tracked or a plurality of such objects can be tracked simultaneously. Object tracking steps can alternate with detection steps of an entire predetermined distance range. For object tracking, image acquisition parameters of the TOF distance detection and/or the triangulatory distance detection can be adapted to an object distance to be expected during tracking.
Eine Blitzintensitäts-/Entfernungsbereichs-Abstimmung nach Anspruch 12 ermöglicht es insbesondere, einen Rückschluss auf im Blitzlicht- und/oder im Kamera-Erfassungsweg vorliegende diffuse Streumedien zu ziehen. Ein sicherer Vorrichtungsbetrieb auch in nebliger, staubiger oder verrauchter Umgebung ist dann möglich.A flash intensity/distance range adjustment according to
Eine quadratische Abhängigkeit der Blitzintensität von der zu erfassenden Entfernung nach Anspruch 13 ermöglicht insbesondere dann, wenn sich die Beleuchtungsintensität quadratisch mit wachsendem Entfernungsbereich erhöht, eine Abstimmung derart, dass bei identischer Umgebungs-Rückstreuung und zu vernachlässigender Streuung längs eines Blitz- und längs eines Erfassungsweges zwischen Quelle und Objekt eine Aussteuerung einer konstanten Intensitätsausleuchtung des mindestens einen Sensor-Arrays. Dies kann zur Bestimmung diffuser Streumedien im erfassten Entfernungsbereich genutzt werden.A quadratic dependence of the flash intensity on the distance to be detected according to
Eine Regelung einer Pixelempfindlichkeit nach Anspruch 14 kann insbesondere nicht linear zur einfallenden Lichtintensität erfolgen. Es kann insbesondere eine Gamma-Korrektur (γ) erfolgen. Die Empfindlichkeit des mindestens einen Sensor-Arrays kann dann spezifisch an bei der Anwendung vorliegende Beleuchtungs- und/oder Detektionsverhältnisse angepasst werden.A regulation of a pixel sensitivity according to claim 14 can in particular not be carried out linearly to the incident light intensity. In particular, a gamma correction (γ) can be carried out. The sensitivity of the at least one sensor array can then be specifically adapted to the lighting and/or detection conditions present in the application.
Eine angepasste Entfernungsbereichs-/Bewegungsmodus-Auswahl nach Anspruch 15 ermöglicht eine effiziente Ausnutzung insbesondere einer Rechnerleistung der Vorrichtung und kann auch eine Betriebssicherheit erhöhen.An adapted distance range/movement mode selection according to
Bei der Auswertung mit triangulatorischer Stereoskopie bei binokularem Sehen werden zwei Bilder verglichen, so dass eventuelle Helligkeitsänderungen durch veränderte Dichteverläufe in erster Näherung vernachlässigt werden können. Bei Vergleich der Bilder mit trainierten Daten (Neuronale Netze, KI) bei monokularem Sehen erhöht eine homogene Helligkeitsverteilung über die Entfernung die Entdeckungsleistung, sich verändernde Dichteverteilungen erschweren dagegen eine sichere Objekterkennung.When evaluating with triangulatory stereoscopy in binocular vision, two images are compared so that possible changes in brightness due to changes in density can be neglected in a first approximation. When comparing the images with trained data (neural networks, AI) in monocular vision, a homogeneous brightness distribution over the distance increases the detection performance, whereas changing density distributions make reliable object recognition more difficult.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen:
-
1 schematisch eine Aufsicht auf eine Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei ein Umgebungs-Objekt in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht ist; -
2 ein Zeitdiagramm zur Verdeutlichung von Bilderfassungsparametern beim Betrieb der Vorrichtung nach1 ; -
3 in einer zur1 ähnlichen Darstellung eine weitere Ausführung einer Vorrichtung zur räumlichen Bilderfassung einer relativ zur Vorrichtung bewegten Umgebung, wobei Umgebungs-Objekte in Vorwärtsrichtung einer Relativbewegung der Vorrichtung zur Umgebung beispielhaft und perspektivisch veranschaulicht sind; -
4 in einer zur2 ähnlichen Darstellung einen zeitlichen Ablauf eines Betriebsverfahrens der Vorrichtung nach3 ; und -
5 in einer Seitenansicht Hauptkomponenten einer Ausführung der Vorrichtung bei der räumlichen Bilderfassung einer Umgebung innerhalb von drei beispielhaften Entfernungsparametern, wobei innerhalb der erfassten Umgebung ein wolkenförmiges diffuses Streumedium vorliegt.
-
1 schematically shows a plan view of a device for spatial image capture of an environment moving relative to the device, wherein an environmental object is illustrated by way of example and in perspective in the forward direction of a relative movement of the device to the environment; -
2 a timing diagram to illustrate image acquisition parameters during operation of the device according to1 ; -
3 in a1 similar representation, a further embodiment of a device for spatial image capture of an environment moving relative to the device, wherein environmental objects in the forward direction of a relative movement of the device to the environment are illustrated by way of example and in perspective; -
4 in a2 similar representation a chronological sequence of an operating procedure of the device according to3 ; and -
5 in a side view, main components of an embodiment of the device in the spatial image capture of an environment within three exemplary distance parameters, wherein a cloud-shaped diffuse scattering medium is present within the captured environment.
Die Vorrichtung 1 kann Bestandteil eines Fahrzeugs 3, beispielsweise eines PKW oder eines LKW, sein. Eine Vorwärtsrichtung der Relativbewegung der Vorrichtung 1 zur Umgebung ist in der
Die Vorrichtung 1 hat mehrere Stereokameras zur triangulatorischen Objekt-Abstandsmessung von Objekten innerhalb der erfassten Umgebung in der Vorwärtsrichtung 4, also insbesondere zur Abstandsbestimmung des Objekts 2.The
Eine erste Stereokamera 5 dieser Stereokameras hat zwei zueinander beabstandete Kameras 51, 52. Ein Abstand A dieser Kameras 51, 52 der Stereokamera 5 ergibt eine Länge einer Baseline der Stereokamera 5, also eine Länge eines Abstandes von Zentren von Eintrittspupillen der Kameras 51, 52 der Stereokamera. Die Kameras 51, 52 der Stereokamera 5 haben jeweils ein Sensor-Array 61, 62 mit gesteuerter Vorgabe eines Detektionsbeginns der jeweiligen Kamera 51 und 52 und einer Detektionsdauer der jeweiligen Kamera 51, 52. Die Sensor-Arrays 61, 62 sind nach Art entsprechender Sensoren von Time of Flight (TOF)-Kameras ausgeführt und können eine Detektionsdauer im Bereich zwischen 1 ns und 500 ns realisieren. Eine typische Detektionsdauer liegt im Bereich zwischen 50 ns und 400 ns, beispielsweise zwischen 150 ns und 250 ns.A
Die Sensor-Arrays 61, 62 können jeweils 100 × 100 Pixel oder auch 200 × 200 Pixel aufweisen. Grundsätzlich ist auch eine höhere Pixelanzahl möglich, insbesondere eine Anzahl von 640 x 480 oder auch von 1440 x 1080 Pixeln.The sensor arrays 6 1 , 6 2 can each have 100 × 100 pixels or 200 × 200 pixels. In principle, a higher number of pixels is also possible, in particular a number of 640 x 480 or 1440 x 1080 pixels.
Die Sensor-Arrays 61, 62 können als CMOS-Array ausgeführt sein.The sensor arrays 6 1 , 6 2 can be designed as CMOS arrays.
Die Kameras 51, 52 haben eine Tele-Optik zur Erfassung von Objekten im Entfernungsbereich zwischen 50 m und 300 m.The
Zur Vorrichtung 1 gehört weiterhin eine Blitzlichtquelle 7, die ebenfalls nach Art der Lichtquelle einer TOF-Kamera ausgeführt sein kann und eine gesteuerte Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze ermöglicht. Eine Blitzbeleuchtungsdauer kann im Bereich zwischen 5 ns und 150 ns, beispielsweise im Bereich von 100 ns liegen.The
Ebenfalls zum Zeitpunkt t = 0 startet eine Verzögerungszeit Δtlag, die auch als Delay-Zeit bezeichnet ist. Diese Verzögerungszeit Δtlag liegt im Bereich zwischen 300 ns und 2 ms und kann beispielsweise im Bereich zwischen 500 ns und 1 ms, zum Beispiel im Bereich zwischen 700 ns und 900 ns, zum Beispiel bei 800 ns, liegen.Also at time t = 0, a delay time Δt lag starts, which is also called delay time. This delay time Δt lag is in the range between 300 ns and 2 ms and can, for example, be in the range between 500 ns and 1 ms, for example in the range between 700 ns and 900 ns, for example 800 ns.
Nach Ablauf des Delay-Zeitraums Δtlag beginnt zum Zeitpunkt t = tE eine Detektion 9 durch das jeweilige Sensor-Array 61 beziehungsweise 62 der Stereokamera 5. tE stellt somit den Detektionsbeginn dar. Das jeweilige Sensor-Array 61, 62 detektiert einfallendes Licht der Blitzlichtquelle 7 dann während einer Detektionsdauer Δtexp.After the delay period Δt lag has elapsed, a
Die Detektion 9 durch das jeweilige Sensor-Array 61, 62 der Stereokamera 5 ist in der
Die vorstehend erläuterten Bilderfassungsparameter, nämlich der Blitzbeleuchtungsbeginn (t = 0), die Blitzbeleuchtungsdauer Δtflash, der Detektionsbeginn (t = tE) und die Detektionsdauer Δtexp werden zeitlich synchronisiert von einer Steuereinrichtung 10 der Vorrichtung 1 vorgegeben. Hierzu kann eine Synchronisationseinheit einer Synchronisationseinrichtung der Steuereinrichtung 10 genutzt werden.The image acquisition parameters explained above, namely the start of the flash illumination (t = 0), the duration of the flash illumination Δt flash , the start of detection (t = t E ) and the duration of detection Δt exp are specified in a time-synchronized manner by a
Die Steuereinrichtung 10 hat einen Bildprozessor zur Echtzeit-Datenverarbeitung. Hierbei kann es sich um einen Prozessor mit einem Field Programmable Gate Array (FPGA, im Feld programmierbare Logik-Gatter-Anordnung) handeln. Der Bildprozessor kann auf ein ultraschnelles, mittels der Steuereinrichtung 10 getriggertes Image Grabbing der von den Sensor-Arrays 6i erfassten Einzelbilder getrimmt sein.The
Aufgrund der synchronisierten Vorgabe des Blitzlichtbeleuchtungsbeginns und des Detektionsbeginns gibt die Steuereinrichtung 10 zwangsläufig auch den Delay-Zeitraum Δtlag zwischen dem Beleuchtungsblitzbeginn (t = 0) und dem Detektionsbeginn (t = tE) der Vorrichtung 1 vor.Due to the synchronized setting of the flash illumination start and the detection At the beginning, the
Korreliert mit der Lichtgeschwindigkeit ergibt sich ein mittels der Stereokamera 5 erfasster Entfernungsbereich 11 in der Vorwärtsrichtung 4 der Vorrichtung 1. Das Objekt 2 hat zur Vorrichtung 1 einen Abstand längs der Vorwärtsrichtung 4, der innerhalb dieses Entfernungsbereichs 11 liegt, sodass das Objekt 2 von der Stereokamera 5 erfasst wird. Der erfasste Entfernungsbereich 11 ist von der Vorrichtung 1 etwa um 100 m bis 150 m beabstandet und hat längs der Vorwärtsrichtung 4 eine Ausdehnung von beispielsweise 30 m.Correlating with the speed of light, this results in a
Dieser Abstand ist in der
Aufgrund der Erfassung über die beiden Kameras 51, 52 der Stereokamera 5 ergibt sich eine räumliche Bilderfassung des Objekts 2. Triangulatorisch kann dann redundant zur TOF-Abstandsmessung über den Delay-Zeitraum Δtlag auch eine Referenz-Abstandsbestimmung des Objekts 2 zur Vorrichtung 1 vorgenommen werden. Bei der Vorrichtung 1 handelt es sich also prinzipiell um eine TOF-Kamera mit zusätzlicher Triangulation.Due to the detection via the two
Die Stereokamera 5 kann zudem eine Korrespondenzanalyse von mit den beiden Kameras 51, 52 aufgenommenen Kamera-Einzelbildern durchführen, um stereoskopisch erfasste Objekte von Hintergrundrauschen, das nur bei einer der beiden Kameras 51, 52 vorliegt, zu trennen. Eine derartige Korrespondenzanalyse ist beispielsweise beschrieben in der
Initial kann bei der Stereokamera 5 eine Stereo-Kalibrierung insbesondere von Ausrichtungen und Lagen der Kameras 51, 52 der Stereokamera 5 mithilfe eines Verfahrens durchgeführt werden, das ebenfalls beschrieben ist in der
Bei der räumlichen Bilderfassung mittels der Vorrichtung 1 kann eine mittels des TOF-Prinzips erfasste TOF-Entfernung mindestens eines erfassten Objekts mit einer triangulatorischen Entfernung des Objekts, die mittels der mindestens einen Stereokamera mittels der triangulatorischen Prinzips erfasst wurde, abgeglichen werden. Die TOF-Entfernung kann dabei beispielsweise als Eingangsgröße für die triangulatorische Erfassung genutzt werden. Hierüber kann die Korrespondenzanalyse bei der triangulatorischen Erfassung, beispielsweise durch Eingrenzung eines bei der Korrespondenzanalyse abzudeckenden Disparitätsbereichs, erleichtert werden.During spatial image capture using the
Mithilfe der über die Kameras 51, 52 der Stereokamera 5 erfassten Bilder des mittels der Blitzlichtquelle 7 beleuchteten Objekts 2 kann auch eine Schattenerfassung eines vom Objekt 2 geworfenen Schattens für das Beleuchtungslicht der Blitzlichtquelle 7 erfolgen. Mittels einer derartigen Schattenwurf-Auswertung des unterschiedlichen Schattenwurfes des Objekts 2, aufgenommen durch die beiden Kameras 51, 52 der Stereokamera 5, ist eine zusätzlich redundante Ermittlung des Abstandes des Objekts 2 zur Vorrichtung 1 möglich.Using the images of the
Die Vorrichtung 1 hat eine weitere Blitzlichtquelle 13, deren Funktion derjenigen der Blitzlichtquelle 7 entspricht, die also ebenfalls zur gesteuerten Vorgabe eines Blitzbeleuchtungsbeginns und einer Blitzbeleuchtungsdauer aufeinander folgender Beleuchtungsblitze dient. Die weitere Blitzlichtquelle 13 kann redundant zur zunächst beschriebenen Blitzlichtquelle 7 zum Einsatz kommen, beispielsweise bei einem Ausfall der zunächst beschriebenen Blitzlichtquelle 7. Während des Betriebs der weiteren Blitzlichtquelle 13 kann die zunächst beschriebene Blitzlichtquelle 7 dann beispielsweise ausgetauscht werden, sodass ein lückenloser Betrieb der Vorrichtung 1 beispielsweise während einer zu überwachenden Fahrt des PKW oder LKW, auf dem die Vorrichtung 1 montiert ist, möglich ist.The
Die Vorrichtung 1 hat eine weitere Stereokamera 14 mit Kameras 141, 142, deren Aufbau und Funktion dem entspricht, was vorstehend unter Bezugnahme auf die Stereokamera 5 bereits erläutert wurde. Die Stereokamera 141 ist der Stereokamera 51 direkt benachbart angeordnet und deckt praktisch das gleiche Sichtfeld in der Vorwärtsrichtung 4 ab, wie die Kamera 51. Die Kamera 142 ist wiederum der Kamera 52 direkt benachbart angeordnet und deckt in der Vorwärtsrichtung 4 das gleiche Sichtfeld ab, wie die Kamera 52.The
Die Stereokamera 14 ist wiederum redundant zur Stereokamera 5. Hier gilt, was zu den Blitzlichtquellen 7 und 13 ausgeführt wurde.The
Die Vorrichtung 1 hat weiterhin eine Fischaugen-Stereokamera 15 mit zwei Paaren 151, 152 einerseits und 153, 154 andererseits. Jede dieser Fischaugen-Kameras 15i (i = 1 bis 4) dient zur Erfassung der Umgebung um die Vorrichtung 1 sowohl in der Vorwärtsrichtung 4 als auch in hierzu lateraler Richtung (vgl. Pfeil 16 in
Die Fischaugen-Kameras 15i haben einen Erfassungswinkel um die HauptErfassungsrichtungen 17, 18 von 180 °. Grenzwinkel der Erfassungsbereiche dieser Fischaugen-Kameras 15i sind in der
Die Beleuchtungslichtquelle 7 strahlt Blitzlicht der Beleuchtungsblitze längs der Vorwärtsrichtung in einem Beleuchtungskegel ab, dessen Randstrahlen in der
Die Fischaugen-Stereokamera 15 kann wahlweise eine triangulatorische Objekt-Abstandsbestimmung mittels mindestens zweier der insgesamt vier Fischaugen-Kameras 15i durchführen, wobei mit kurzen Baselines, Abstände der Fischaugen-Kameras 151, 152 einerseits beziehungsweise 153, 154 andererseits oder auch mit langen Baselines (Abstände der Fischaugen-Kameras 151 und 153 oder 151 und 154 oder 152 und 153 oder 152 und 154) gearbeitet werden kann. Hierüber lässt sich wiederum eine redundante triangulatorische Objekt-Abstandsbestimmung vornehmen.The
Die Nutzung derartiger zusätzlicher Triangulations-Baselines sind beispielsweise beschrieben in der
Die Vorrichtung 1 hat zudem eine weitere Fischaugen-Stereokamera 20 mit Fischaugen-Kameras 201 bis 204, die in ihrem Aufbau, ihrer Ausrichtung und paarweisen Anordnung den Fischaugen-Kameras 151 bis 154 entsprechen. Die Fischaugen-Stereokamera 20 kann redundant zur Fischaugen-Stereokamera 15 zum Einsatz kommen. Hier gilt entsprechend, was vorstehend zu den Blitzlichtquellen 7 und 13 beziehungsweise zu den Stereokameras 5 und 14 ausgeführt wurde.The
Die Kameras 15i der Fischaugen-Stereokamera 15 haben wiederum Sensor-Arrays nach Art der vorstehend beschriebenen Sensor-Arrays 6i, können also wiederum als Bestandteil einer TOF-Erfassung genutzt werden, wie vorstehend bereits erläutert.The
Die Steuereinrichtung 10 steht mit den Stereokameras 5, 14, 15 und 20 und mit den Blitzlichtquellen 7 und 13 in Signalverbindung. Weiterhin kann die Steuereinrichtung 10 mit Komponenten des Fahrzeugs 3 in Signalverbindung stehen, beispielsweise mit einem Antrieb und/oder mit einer Bremsanlage und/oder mit Fahrzeug-Anzeigevorrichtungen, beispielsweise in einem Armaturenbrett des Fahrzeugs 3.The
Beim Echtzeitbetrieb kann die Vorrichtung 1 eine Bildaufnahme von beispielsweise zehn Bildern pro Sekunde vornehmen.In real-time operation, the
Die Vorrichtung 21 ist mit zwei Stereokameras 5, 14 ausgerüstet, die die Umgebung der wiederum auf ein Fahrzeug 3 montierten Vorrichtung 21 in der Vorwärtsrichtung 4 erfassen. Veranschaulicht sind innerhalb dieser erfassten Umgebung drei Umgebungs-Objekte 22, 23 und 24.The
Mit der Vorrichtung 21 ist insbesondere ein in der Vorwärtsrichtung 4, die auch als z-Richtung bezeichnet ist, z-gepufferter (z-buffered) Betrieb möglich, bei dem ein Gesamt-Entfernungsbereich 25 längs der Vorwärtsrichtung 4, innerhalb dem die Objekte 22 bis 24 liegen, in eine Mehrzahl von Entfernungsbereiche 221 bis 22max, also in Entfernungsbereiche 22i (i = 1 bis max) unterteilt wird. Die maximale Anzahl max dieser Entfernungsbereiche 22i kann im Bereich zwischen 3 und 50 liegen, beispielsweise im Bereich von 10. Diese Entfernungsbereiche 22i werden auch als Entfernungszonen (gate zones) gz bezeichnet.The
Beim entsprechenden Z-Buffering-Betrieb der Vorrichtung 21 werden zunächst die Bilderfassungsparameter Beleuchtungsblitzbeginn (t = 0), Beleuchtungsblitzdauer (Δtflash, gz-1), ein Detektionsbeginn (t = tE) und eine Detektionsdauer (Δtexp, gz-1) vorgegeben.During the corresponding Z-buffering operation of the
Diese Bilderfassungsparameter-Vorgabe erfolgt wiederum mittels der Steuereinrichtung 10.This image acquisition parameter specification is again carried out by means of the
Der Entfernungsbereich gz-1, also beispielsweise der Entfernungsbereich 22max, wird dann mit den so vorgegebenen Bilderfassungsparametern erfasst.The distance range gz-1, for example the
Über die Steuereinrichtung 10 werden weitere Bilderfassungsparameter vorgegeben, nämlich ein weiterer Blitzlichtbeginn (t = tflash), eine weitere Blitzlichtdauer (Δflash, gz), ein weiterer Detektionsbeginn (t = tE1) und eine Detektionsdauer (Δtexp, gz). Diese Vorgabe ist so gewählt, dass ein Delay-Zeitraum (Δtlag, gz) bei diesen weiteren vorgegebenen Bilderfassungsparametern etwas kürzer ist als der zunächst vorgegebene Delay-Zeitraum Δtlag, gz-1. Dies bedingt, dass bei der Erfassung mit den zuletzt vorgegebenen Bilderfassungsparametern ein weiterer Erfassungsbereich gz erfasst wird, der den zunächst erfassten Entfernungsbereich gz-1, also den Entfernungsbereich 22max, zu kürzeren Abständen zur Vorrichtung 21 hin benachbart ist.Further image acquisition parameters are specified via the
Der weitere Entfernungsbereich gz grenzt an den vorhergehenden Entfernungsbereich gz-1 längs der Vorwärtsrichtung 4 in einer Erfassungsfortschrittsrichtung +z an oder überlappt mit diesem teilweise.The further distance range gz adjoins or partially overlaps the preceding distance range gz-1 along the
In diesem nun erfassten Erfassungsbereich gz liegt das Objekt 24.
Es erfolgt nun ein digitales Filtern des zuletzt erfassten Bildes im Entfernungsbereich gz zum Herausfiltern strukturloser Bildbereiche, sodass das Objekt 24 übrigbleibt. Anschließend wird das im der Erfassung des Entfernungsbereichs gz vorhergehenden Erfassungsbereich (Erfassung des Entfernungsbereichs gz-1) erfasste Bild mit dem zuletzt erfassten Bild (Entfernungsbereich gz) in nicht herausgefilterten Bildbereichen, also im Bereich des Objekts 24, dieses zuletzt erfassten Bildes überschrieben, sodass in der Steuereinrichtung 10 ein aktualisiertes Bild abgelegt wird, welches die Informationen aus den beiden Entfernungsbereichen gz-1 und gz beinhaltet.The last captured image in the distance range gz is now digitally filtered to filter out unstructured image areas so that the
Die Steuereinrichtung 10 gibt im Betrieb weitere Bilderfassungsparameter vor, sodass ein weiterer Entfernungsbereich gz+1 erfasst wird, der sich wiederum entgegen der Vorwärtsrichtung 4 an dem Entfernungsbereich gz anschließt beziehungsweise mit diesem teilweise überlappt.During operation, the
Nun werden die zuletzt beschriebenen Schritte Erfassen, Filtern, Überschreiben und Bilderfassungsparameter-Vorgeben für diesen Entfernungsbereich gz+1 sowie weitere Entfernungsbereiche 224, 223, 222 und 221 wiederholt, bis der vorgegebene Gesamt-Entfernungsbereich 25 abgedeckt ist, der sich aus der Überlagerung der erfassten Entfernungsbereiche 221 bis 22max ergibt. Im Zuge dieser Sequenzen werden im jeweils für den Entfernungsbereich 22i aktualisierten Bild die Bildbereiche am Ort der weiteren Objekte 23 (Entfernungsbereich 222) und 22 (Entfernungsbereich 221) überschrieben, sodass im zuletzt aktualisierten Bild alle drei Objekte 22 bis 24 mit ihren über die Zuordnung zum jeweiligen Entfernungsbereich 22i bestimmten Objekt-Abständen zur Vorrichtung 1 ausgegeben werden.Now the last described steps of capturing, filtering, overwriting and specifying image capture parameters are repeated for this distance range gz+1 as well as further distance ranges 22 4 , 22 3 , 22 2 and 22 1 until the specified
Die Anzahl i (i = 1 bis max) der Entfernungsbereiche 22i, die während des Betriebsverfahrens erfasst werden, kann beispielsweise bei 50 liegen. Das Betriebsverfahren mit Abrastern aller Entfernungsbereiche 22max bis 221 kann im 10 Hertz-Betrieb in Echtzeit stattfinden. Das Ergebnis eines solchen kompletten Abrasterung-Vorgangs der Entfernungsbereiche 22max bis 221 ist ein 2D-Bild mit den nicht herausgefilterten Objekten 22, 23 und 24 in allen innerhalb des Gesamt-Entfernungsbereichs 25 erfassten Entfernungsbereichen 22i. Auch überschriebene Informationen der innerhalb des Gesamt-Entfernungsbereichs 25 zunächst erfassten Entfernungsbereiche 22max bis 222 können beim zuletzt aktualisierten, ausgegebenen Bild nach Erfassung des Entfernungsbereichs 221 für eine unabhängige räumliche (3D-) Auswertung erhalten bleiben.The number i (i = 1 to max) of distance ranges 22 i that are recorded during the operating procedure can be 50, for example. The operating procedure with scanning of all distance ranges 22 max to 22 1 can take place in 10 Hertz operation in real time. The result of such a complete scanning process of the distance ranges 22 max to 22 1 is a 2D image with the
Wie die
Entfernungs-Ausdehnungen Δz der verschiedenen Entfernungsbereiche 22i, 22j können sich voneinander unterscheiden. Es können sich also die Detektionsdauern bei den verschiedenen Erfassungsschritten des Betriebsverfahrens unterscheiden.Distance extensions Δz of the various distance ranges 22 i , 22 j can differ from one another. The detection times can therefore differ in the various detection steps of the operating procedure.
Nach dem Erfassen eines jeweiligen Entfernungsbereichs 22i kann zusätzlich eine Triangulations-Bestimmung einer Entfernung der Objekte 22 bis 24 in den nicht herausgefilterten Bildbereichen mithilfe der mindestens einen Stereokamera 5, 14 erfolgen. Hierbei kann wiederum eine Stereo-Korrespondenzbestimmung stattfinden, wie vorstehend bereits erläutert.After detecting a respective distance range 22 i, a triangulation determination of a distance of the
Vor einem jeweiligen Erfassungsschritt des Betriebsverfahrens kann eine Region of Interest (ROI) als Teil eines über die jeweilige Kamera 5i, 14i erfassbaren Bildfeldes vorgegeben werden, beispielsweise ein durch entsprechende Objektfilterung identifizierter Straßenbereich in der Vorwärtsrichtung 4.Before a respective detection step of the operating method, a region of interest (ROI) can be specified as part of an image field that can be captured by the
Anhand der
Beim Erfassungsbeispiel nach
Zur Vorgabe der Bilderfassungsparameter für die drei Entfernungsbereiche 221 bis 223 gehört neben der Vorgabe der TOF-Bilderfassungsparameter „Beleuchtungsbeginn“, „Beleuchtungsdauer“, „Detektionsbeginn“ und „Detektionsdauer“ auch eine Vorgabe einer Blitzintensität I1 zur Ausleuchtung des jeweiligen Entfernungsbereichs 22i. Die Blitzintensität I2 zur Ausleuchtung des Entfernungsbereich 222 ist viermal so groß wie die Blitzintensität I1 zur Ausleuchtung des ersten, nächstgelegenen Entfernungsbereichs 221. Die Blitzintensität I3 zur Ausleuchtung des im Beispiel nach
Unter Voraussetzung einer konstanten Reflektivität beziehungsweise eines konstanten Streuvermögens einer Umgebungs-Oberfläche 29 ergibt sich aufgrund dieser quadratischen Abhängigkeit der Beleuchtungsintensität Ii von der Entfernung di, dass das Sensor-Array 61 der Kamera 51 eine konstante Intensitätsausleuchtung bei der Bilderfassung der drei Entfernungsbereiche 221, 222 und 223 erfährt. Diese konstante Intensitätsausleuchtung des Sensor-Arrays 61 liegt nur dann vor, wenn längs Blitzlichtwegen 311, 312, 313 zwischen der Blitzlichtquelle 7 und der Umgebung in den Entfernungsbereichen 221 bis 223 keine wesentliche Streuung des Beleuchtungsblitzes 8 durch das diffuse Streumedium 27 vorliegt. Anders ausgedrückt: Ungleichheiten einer Intensitätsausleuchtung des Sensor-Arrays 61 längs der Erfassungswege 30i bei der vorgegebenen quadratischen Abhängigkeit der Beleuchtungsintensität Ii von der Entfernung di innerhalb des zu erfassenden Entfernungsbereiches 22i sind ein Hinweis auf das Vorliegen des diffusen Streumediums 27.Assuming a constant reflectivity or a constant scattering power of an
Hierbei können folgende Fälle unterschieden werden:
- a) Das diffuse
Streumedium 27 liegt innerhalb des aktuell erfassten Entfernungsbereichs, im inder 5 dargestellten Fall also innerhalb des Entfernungsbereichs 222, vor. In diesem Fall wird das diffuseStreumedium 27 längs des Beleuchtungsweges 312 direkt beleuchtet und eine entsprechende Streuung des Beleuchtungslichts 8 durch das diffuseStreumedium 27 in das Sensor-Array 61 bei der TOF-Erfassung gemessen, was zu einer Erhöhung der Intensitätsausleuchtung längs des Erfassungsweges 302 führt. - b) Das diffuse
Streumedium 27 liegt zwischen der Blitzlichtquelle 7 und dem Sensor-Array 61 einerseits und dem aktuell erfassten Entfernungsbereich,beispielsweise dem Entfernungsbereich 223, andererseits. In diesem Fall erfolgt eine Schwächung des Beleuchtungslichts längs des Blitzlichtweges 313 beim Durchtreten des diffusen Streumediums 27. Eine weitere Schwächung erfährtdas vom Erfassungsbereich 223 in Richtung des Sensor-Arrays 61 längs des Erfassungsweges 303 rückgestreute Beleuchtungslicht aufgrund einer nochmaligen Streuung durch das diffuseStreumedium 27. Im Ergebnis ist die Intensitätsausleuchtung des Sensor-Arrays 61 bei der Erfassung des Entfernungsbereichs 223 aufgrund derim zwischenliegenden Entfernungsbereich 222 vorliegenden Wolke des diffusen Streumediums 27 geschwächt.
- a) The diffuse
scattering medium 27 is within the currently recorded distance range, in the5 In the case shown, the light source is within thedistance range 22 2 . In this case, the diffusescattering medium 27 is directly illuminated along the illumination path 31 2 and a corresponding scattering of theillumination light 8 through the diffusescattering medium 27 into the sensor array 6 1 is measured during the TOF detection, which leads to an increase in the intensity illumination along the detection path 30 2 . - b) The diffuse
scattering medium 27 lies between theflash light source 7 and the sensor array 6 1 on the one hand and the currently detected distance range, for example thedistance range 22 3 , on the other hand. In this case, the illumination light along the flash light path 31 3 is weakened when it passes through the diffusescattering medium 27. The illumination light scattered back from thedetection area 22 3 in the direction of the sensor array 6 1 along the detection path 30 3 is further weakened due to further scattering by the diffusescattering medium 27. As a result, the intensity illumination of the sensor array 6 1 when detecting thedistance range 22 3 is weakened due to the cloud of the diffusescattering medium 27 present in theintermediate distance range 22 2 .
Eine Kombination einer im Vergleich zur erwarteten konstanten Intensitätsausleuchtung erhöhten Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfernungsbereichs 222 und einer Verringerung der Intensitätsausleuchtung des Sensor-Arrays 61 bei Erfassung des Entfernungsbereichs 223 ermöglicht also die Identifikation des diffusen Streumediums 27 innerhalb des Entfernungsbereichs 222.A combination of an increased intensity illumination of the sensor array 6 1 when detecting the
Bei den vorstehend erläuterten Ausführungen der Bilderfassungs-Vorrichtung 1 beziehungsweise 21 kann eine Pixelempfindlichkeit von Sensorpixeln der verschiedenen Sensor-Arrays 61, ... als Funktion einer einfallenden Lichtintensität, also als Funktion einer Intensitätsausleuchtung, des Sensor-Arrays 61, ... geregelt werden. Es kann insbesondere eine γ-Korrektur bei der Bildverarbeitung mittels des jeweiligen Sensor-Arrays 61, ... erfolgen. Hierbei kann der bei der γ-Korrektur eingesetzte Exponent γ im Bereich zwischen beispielsweise 0,2 und 5 variieren. Je nach Größe von γ kann dann eine Pixelempfindlichkeit zur Anpassung einer hohen Dynamik entweder bei hoher oder bei niedriger Intensitätsausleuchtung des Sensor-Arrays erreicht werden.In the above-explained embodiments of the
Eine Auswahl von zu erfassenden Objekt-Entfernungsbereichen 22i kann bei bestimmten Betriebsmodi der Erfassungs-Vorrichtung 1 beziehungsweise 21 an einen Bewegungsmodus der Vorrichtung 1 beziehungsweise 21 relativ zur Umgebung angepasst sein. Insbesondere kann der Gesamt-Entfernungsbereich 25 an eine Relativgeschwindigkeit der Vorrichtung 1, 21 zur Umgebung angepasst werden. Auch eine Anpassung an einen Rückwärts- oder Kurvenfahrt-Modus ist möglich.A selection of object distance ranges 22 i to be detected can be adapted to a movement mode of the
Alternativ oder zusätzlich zum vorstehend mithilfe der
- Über eine entsprechende Zuordnung insbesondere der Blitzbeleuchtungsdauer und der Detektionsdauer wird mithilfe der jeweiligen Vorrichtung 1, 21 mittels des TOF-Prinzips eine TOF-Entfernung des
mindestens einen Objekts 2 beziehungsweise 22bis 24 erfasst. Parallel oder sequenziell hierzu wird mittels der einenStereokamera 5, ... der 1, 21 mittels des triangulatorischen Prinzips eine triangulatorische Entfernung des jeweiligen Objekts 2 beziehungsweise 22Vorrichtung bis 24 erfasst. Die Erfassungswerte „TOF-Entfernung“ und „triangulatorische Entfernung“ werden dann bei Betrieb der Vorrichtung 1, 21 abgeglichen.
- By means of a corresponding assignment, in particular of the flash illumination duration and the detection duration, a TOF distance of the at least one
2 or 22 to 24 is recorded using the TOF principle with the aid of theobject 1, 21. In parallel or sequentially, a triangulatory distance of therespective device 2 or 22 to 24 is recorded using the triangulatory principle using the onerespective object stereo camera 5, ... of the 1, 21. The detection values "TOF distance" and "triangulatory distance" are then compared when thedevice 1, 21 is in operation.device
Es ist dabei insbesondere möglich, die ermittelte TOF-Entfernung als Eingangsgröße für die triangulatorische Erfassung zu nutzen. Dies kann insbesondere die Korrespondenzanalyse bei der triangulatorischen Erfassung erleichtern. Insbesondere kann ein bei der Korrespondenzanalyse abzudeckender Disparitätsbereich eingegrenzt werden. Auch der umgekehrte Fall ist möglich, also, dass die triangulatorisch erfasste Entfernung als Eingangsgröße für die Entfernungserfassung mittels des TOF-Prinzips genutzt wird. Dies kann zur Bestimmung beziehungsweise zur Einteilung eines vorgegebenen Gesamt-Entfernungsbereichs in abschnittsweise Entfernungsbereiche 22i genutzt werden sowie zur entfernungsangepassten Vorgabe der TOF-Bilderfassungsparameter.In particular, it is possible to use the determined TOF distance as an input variable for the triangulatory detection. This can particularly facilitate the correspondence analysis in the triangulatory detection. In particular, a disparity range to be covered in the correspondence analysis can be limited. The reverse case is also possible, i.e. that the triangulatory detected distance is used as an input variable for the distance detection using the TOF principle. This can be used to determine or divide a given total distance range into section-by-section distance ranges 22 i and to specify the TOF image detection parameters adapted to the distance.
Eine Beleuchtungsintensität durch die Blitzlichtquelle 7 kann insbesondere so vorgegeben werden, dass eine gemeinsame und insbesondere skalare Helligkeits-Regelung aller Bilder des Z-Bufferings der ersten
Eine Kalibrierung einer Abhängigkeit einer Beleuchtungsintensität der Blitzlichtquelle von der Entfernung, also einer Beleuchtungsintensitätsfunktion, kann mithilfe eines Kalibrieraufbaus unter Verwendung eines Streumediums mit homogener Streupartikelverteilung erfolgen.A calibration of a dependence of an illumination intensity of the flash light source on the distance, i.e. an illumination intensity function, can be carried out using a calibration setup using a scattering medium with a homogeneous scattering particle distribution.
Die Pixelempfindlichkeit als Funktion der einfallenden Lichtintensität kann in Form einer proportionalen Funktion eingestellt werden oder auch in Form einer nichtlinearen Funktion.The pixel sensitivity as a function of the incident light intensity can be set in the form of a proportional function or in the form of a nonlinear function.
Im Rahmen des Betriebs der Vorrichtung 1 beziehungsweise 21 können ausgewählte Objekte 2 beziehungsweise 22 bis 24 nachverfolgt beziehungsweise getrackt werden. Sobald eines der Objekte 2 beziehungsweise 22 bis 24 im Rahmen der triangulatorischen Entfernungserfassung und/oder im Rahmen der TOF-Entfernungserfassung erfasst wurde, können insbesondere die TOF-Bilderfassungsparameter, aber auch die triangulatorischen Bilderfassungsparameter (zum Beispiel die Länge der Baseline einer jeweils ausgewählten Stereokamera, eine Objektivbrennweite der Kameras der jeweiligen Stereokamera oder ein zu überwachender Disparitätsbereich) so vorgegeben werden, dass das einmal erfasste Objekt auch bei nachfolgenden Bilderfassungen wiederum erfasst wird. Hierbei kann eine Relativbewegung des jeweils erfassten Objekts zur Vorrichtung 1 beziehungsweise 21 berücksichtigt werden, sodass beispielsweise dann, wenn zu erwarten ist, dass sich Objekt und Vorrichtung einander annähern, beim Nachverfolgen die Entfernung des jeweils ausgewählten Entfernungsbereichs 22i bei der TOF-Erfassung jeweils reduziert wird. Eine Lichtintensität der Blitzlichtquelle kann auf einen Entfernungsbereich des jeweils nachzuverfolgenden Objekts abgestimmt und insbesondere geregelt werden.During operation of the
Je nach dem Betriebsverfahren der Vorrichtung 1, 21 kann genau ein Objekt nachverfolgt werden oder es können auch mehrere Objekte gleichzeitig nachverfolgt werden.Depending on the operating method of the
Soweit mindestens ein Objekt getrackt wird, kann intermittierend eine Tracking-Erfassung des mindestens einen getrackten Objekts und ein Scan über den Gesamt-Entfernungsbereich 25 erfolgen, was die Erfassungssicherheit insgesamt bei vertretbarem Erfassungsaufwand erhöht.If at least one object is tracked, a tracking detection of the at least one tracked object and a scan over the
Die Bilderfassungsparameter können bei der TOF-Erfassung mehrerer Entfernungsbereiche 22i, 22i+1 so abgestimmt werden, dass eine Detektion über die jeweilige Kamera während genau eines Detektionszeitraums (gleicher Detektionsbeginn, gleiche Detektionsdauer) für diese Entfernungsbereiche 22i, 22i+1 erfolgt. Im Extremfall kann dies für alle Entfernungsbereiche 22i innerhalb des Gesamt-Entfernungsbereichs 25 gelten.The image acquisition parameters can be adjusted for the TOF acquisition of several distance ranges 22 i , 22 i+1 so that detection via the respective camera takes place during exactly one detection period (same detection start, same detection duration) for these distance ranges 22 i , 22 i+1 . In extreme cases, this can apply to all distance ranges 22 i within the
Beim Nachverfolgen von Objekten kann insbesondere die Erstreckung des jeweiligen Entfernungsbereichs 22i, in dem das Objekt erwartet wird, über eine entsprechende Anpassung einer Blitzbeleuchtungsdauer erfolgen. Zur genaueren Nachverfolgung von Objekten können kürzere Blitzbeleuchtungsdauern sowie kürzere Detektionsdauern mit entsprechender Erhöhung der Entfernungsgenauigkeit bei der TOF-Entfernungsbestimmung vorgegeben werden.When tracking objects, the extent of the
Die Vorrichtung 1 kann ein neuronales Netz beziehungsweise ein KI-Modul beinhalten, welches zum Training des jeweiligen Betriebsverfahrens und zur entsprechenden Verbesserung einer Bilderkennung genutzt werden kann.The
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- WO 2022/069 424 A1 [0002, 0020, 0021, 0039, 0070, 0071, 0081]WO 2022/069 424 A1 [0002, 0020, 0021, 0039, 0070, 0071, 0081]
- WO 2022/069 425 A2 [0002, 0020, 0070]WO 2022/069 425 A2 [0002, 0020, 0070]
- WO 2022/179 998 A1 [0002, 0029, 0081]WO 2022/179 998 A1 [0002, 0029, 0081]
-
DE 10 2011 080 102 B3 [0002, 0020, 0071]
DE 10 2011 080 102 B3 [0002, 0020, 0071] - US 2019/056 498 A1 [0007]US 2019/056 498 A1 [0007]
- US 2022/0174255 A1 [0007]US 2022/0174255 A1 [0007]
- US 2015/296 200 A1 [0008]US 2015/296 200 A1 [0008]
-
DE 10 2018 213 976 A1 [0024]
DE 10 2018 213 976 A1 [0024] - WO 2012/095 258 A1 [0024]WO 2012/095 258 A1 [0024]
- US 9,451,237 [0024]US 9,451,237 [0024]
- WO 2013/020 872 A1 [0024]WO 2013/020 872 A1 [0024]
Zitierte Nicht-PatentliteraturCited non-patent literature
- T. Swedish et al.: „Beyond the Line of Sight? What's New in Optical Perception“, AUVSI XPONENTIAL 2022-SWEDISH (Konferenz-Handout), S. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker5158 4_Session4220_1.pdf [0007]T. Swedish et al.: “Beyond the Line of Sight? What's New in Optical Perception", AUVSI XPONENTIAL 2022-SWEDISH (conference handout), pp. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker5158 4_Session4220_1.pdf [0007]
Claims (15)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023205343.8A DE102023205343A1 (en) | 2023-06-07 | 2023-06-07 | Device for spatial image capture of an environment moving relative to the device and operating method therefor |
| PCT/EP2024/064363 WO2024251542A1 (en) | 2023-06-07 | 2024-05-24 | Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023205343.8A DE102023205343A1 (en) | 2023-06-07 | 2023-06-07 | Device for spatial image capture of an environment moving relative to the device and operating method therefor |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102023205343A1 true DE102023205343A1 (en) | 2024-12-12 |
Family
ID=91274591
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102023205343.8A Pending DE102023205343A1 (en) | 2023-06-07 | 2023-06-07 | Device for spatial image capture of an environment moving relative to the device and operating method therefor |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102023205343A1 (en) |
| WO (1) | WO2024251542A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024251542A1 (en) | 2023-06-07 | 2024-12-12 | Tripleye Gmbh | Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same |
Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012095258A1 (en) | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
| DE102011080102A1 (en) | 2011-07-29 | 2013-01-31 | Wilhelm Bahmüller Maschinenbau Präzisionswerkzeuge GmbH | Device for turning flat objects |
| WO2013020872A1 (en) | 2011-08-09 | 2013-02-14 | 3Vi Gmbh | Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another |
| WO2014009945A1 (en) * | 2012-07-09 | 2014-01-16 | Brightway Vision Ltd. | Stereo gated imaging system and method |
| US20140282224A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a scrolling gesture |
| WO2017189185A1 (en) * | 2016-04-26 | 2017-11-02 | Cepton Technologies, Inc. | Three-dimensional imaging systems |
| US20190056498A1 (en) | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
| DE102018213976A1 (en) | 2017-08-22 | 2019-02-28 | Myestro Interactive Gmbh | Apparatus for measuring a distance of an object to a sensor |
| WO2022069424A1 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods |
| WO2022069425A2 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor |
| US20220174255A1 (en) | 2020-11-30 | 2022-06-02 | Microsoft Technology Licensing, Llc | Spad array for intensity image capture and time of flight capture |
| WO2022179998A1 (en) | 2021-02-23 | 2022-09-01 | Tripleye Gmbh | Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5776173B2 (en) * | 2010-03-01 | 2015-09-09 | 株式会社リコー | Imaging device and distance measuring device |
| DE102023205343A1 (en) | 2023-06-07 | 2024-12-12 | Tripleye Gmbh | Device for spatial image capture of an environment moving relative to the device and operating method therefor |
-
2023
- 2023-06-07 DE DE102023205343.8A patent/DE102023205343A1/en active Pending
-
2024
- 2024-05-24 WO PCT/EP2024/064363 patent/WO2024251542A1/en active Pending
Patent Citations (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9451237B2 (en) | 2011-01-12 | 2016-09-20 | Myestro Interactive Gmbh | Remote control device for controlling a mechanism with the aid of a movable object and an interface module based on movement and distance of the movable object with respect to a camera |
| WO2012095258A1 (en) | 2011-01-12 | 2012-07-19 | 3Vi Gmbh | Remote-control device and interface module for controlling an apparatus on the basis of a moving object |
| DE102011080102A1 (en) | 2011-07-29 | 2013-01-31 | Wilhelm Bahmüller Maschinenbau Präzisionswerkzeuge GmbH | Device for turning flat objects |
| WO2013020872A1 (en) | 2011-08-09 | 2013-02-14 | 3Vi Gmbh | Object detection device for a vehicle, vehicle with such an object detection device and method for determining a relative positional relationship of stereo cameras with respect to one another |
| WO2014009945A1 (en) * | 2012-07-09 | 2014-01-16 | Brightway Vision Ltd. | Stereo gated imaging system and method |
| US20150296200A1 (en) | 2012-07-09 | 2015-10-15 | Brightway Vision Ltd. | Stereo gated imaging system and method |
| US20140282224A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a scrolling gesture |
| US20190056498A1 (en) | 2016-03-01 | 2019-02-21 | Brightway Vision Ltd. | Gated imaging apparatus, system and method |
| WO2017189185A1 (en) * | 2016-04-26 | 2017-11-02 | Cepton Technologies, Inc. | Three-dimensional imaging systems |
| DE102018213976A1 (en) | 2017-08-22 | 2019-02-28 | Myestro Interactive Gmbh | Apparatus for measuring a distance of an object to a sensor |
| WO2022069424A1 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Method for capturing three-dimensional images with the aid of a stereo camera having two cameras, method for producing a redundant image of a measurement object, and device for carrying out the methods |
| WO2022069425A2 (en) | 2020-09-29 | 2022-04-07 | Tripleye Gmbh | Device for calibrating a spatial position of a center of an entrance pupil of a camera, calibrating method therefor and system for determining the relative position of centers of entrance pupils of at least two cameras, which are mounted on a common support frame, relative to each other and determination method therefor |
| US20220174255A1 (en) | 2020-11-30 | 2022-06-02 | Microsoft Technology Licensing, Llc | Spad array for intensity image capture and time of flight capture |
| WO2022179998A1 (en) | 2021-02-23 | 2022-09-01 | Tripleye Gmbh | Optical assembly for generating a real-time image and a real-time assignment of environmental objects, and vehicle comprising such an assembly |
Non-Patent Citations (2)
| Title |
|---|
| SWEDISH, Tristan ; BAUER, Sebastian: Beyond the line of sight? What's new in optical perception. In: AUVSI XPONENTIAL 2022, 2022, S. 1-8. - ISBN 978-1-7138-5223-0 (e). URL: https://www.xponential.org/xponential2022/Custom/Handout/Speaker51584_Session4220_1.pdf [abgerufen am 2023-08-25]. * |
| T. Swedish et al.: „Beyond the Line of Sight? What's New in Optical Perception", AUVSI XPONENTIAL 2022-SWEDISH (Konferenz-Handout), S. 1-8, https://www.xponential.org/xponential2022/Custom/Handout/Speaker5158 4_Session4220_1.pdf |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024251542A1 (en) | 2023-06-07 | 2024-12-12 | Tripleye Gmbh | Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2024251542A1 (en) | 2024-12-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE60208894T2 (en) | RAIN SENSOR WITH STEREOSCOPIC PICTURE SYSTEM | |
| WO2021233603A1 (en) | Method for measuring the distance between an object and an optical sensor, controller for carrying out such a method, distance measuring device comprising such a controller, and motor vehicle comprising such a distance measuring device | |
| EP3014569B1 (en) | Inspection of the contoured surface of the underbody of a motor vehicle | |
| EP2416139A1 (en) | Method for calibrating a vehicle system managing at least one headlamp on a motor vehicle | |
| DE102016217628B4 (en) | A method of operating a surgical microscopy system, a motion sensing system for a surgical microscopy system, and an operating microscopy system | |
| DE102017222708A1 (en) | 3D environment detection via projector and camera modules | |
| EP1460454A2 (en) | Method for combined processing of high resolution images and video images | |
| WO2021239323A1 (en) | Method for identifying image artifacts, controller for carrying out such a method, identifying device comprising such a controller, and motor vehicle comprising such an identifying device | |
| WO2022002719A1 (en) | Device and method for detecting the surroundings of a vehicle | |
| EP3311190A1 (en) | Sensor system of a sensor device of a motor vehicle | |
| WO2023041706A1 (en) | Method and device for measuring depth information relating to a scene on the basis of structured light generated by means of at least one parallel radiation source | |
| DE102023205343A1 (en) | Device for spatial image capture of an environment moving relative to the device and operating method therefor | |
| DE102017204836B4 (en) | Method and device for detecting objects in the environment of a vehicle | |
| DE102017113194A1 (en) | Method for tracking a plurality of point-shaped objects in space | |
| AT522805A1 (en) | Camera system | |
| DE102024206379B3 (en) | Procedure for calibrating a camera system | |
| DE102017129627A1 (en) | Distance determination based on different depth of field at different focus settings of a lens | |
| DE10301094B4 (en) | Device for measuring the distance of distance points to a camera | |
| DE102007008543A1 (en) | Method and device for determining the state of motion of objects | |
| WO2008141924A1 (en) | Method and device for detecting the surface of a spatial object | |
| WO2021239322A1 (en) | Method for detecting lost image information, control unit for carrying out such a method, detection device having such a control unit, and motor vehicle having such a detection device | |
| DE102020007061A1 (en) | Method for operating a first lighting device, a second lighting device and an optical sensor, control device for carrying out such a method, gated camera device with such a control device and motor vehicle with such a gated camera device | |
| DE102019214404A1 (en) | DIAGNOSTIC LIGHTING | |
| DE102018219420A1 (en) | Method and device for determining a distance from at least one object in the surroundings of a vehicle using a laser unit and a camera unit | |
| DE102006048726A1 (en) | Method for measuring the wheel or axle geometry of a vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed |