[go: up one dir, main page]

EP3841402A1 - Lidar-sensor zur optischen erfassung eines sichtfeldes, arbeitsvorrichtung oder fahrzeug mit einem lidar-sensor und verfahren zur optischen erfassung eines sichtfeldes - Google Patents

Lidar-sensor zur optischen erfassung eines sichtfeldes, arbeitsvorrichtung oder fahrzeug mit einem lidar-sensor und verfahren zur optischen erfassung eines sichtfeldes

Info

Publication number
EP3841402A1
EP3841402A1 EP19742182.9A EP19742182A EP3841402A1 EP 3841402 A1 EP3841402 A1 EP 3841402A1 EP 19742182 A EP19742182 A EP 19742182A EP 3841402 A1 EP3841402 A1 EP 3841402A1
Authority
EP
European Patent Office
Prior art keywords
unit
lidar sensor
view
field
illumination pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP19742182.9A
Other languages
English (en)
French (fr)
Inventor
Thomas Maurer
Annemarie Holleczek
Reiner Schnitzer
Tobias Hipp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3841402A1 publication Critical patent/EP3841402A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates

Definitions

  • LIDAR sensor for optical detection of a field of view
  • work device or vehicle with a LIDAR sensor and method for optical detection of a field of view
  • the present invention relates to a LIDAR sensor for the optical detection of a field of view, a working device or a vehicle with a LIDAR sensor and a method for the optical detection of a field of view according to the preamble of the independently formulated claims.
  • DE 10 2016 219 955 A1 discloses a transmitter unit for illuminating an environment, in particular a vehicle, with a
  • the laser pattern generation unit is set up to generate an illumination pattern in a field of view, the illumination pattern having a first direction and a second direction, the first direction and the second direction being arranged orthogonally to one another, an extension of the
  • Illumination pattern along the first direction is greater than one
  • the illumination pattern being in particular a check pattern
  • the control unit being set up to move the deflection unit at least along the second direction, so that the illumination pattern is moved at least along the second direction.
  • US 2017/0176579 A1 discloses an electro-optical device which comprises a laser light source which emits at least one beam of light pulses, a beam steering device which transmits the at least one beam over a target Scene sends and scans, and includes an array of sensor elements. Each sensor element outputs a signal which indicates an incidence time of a single photon on the sensor element.
  • a light collecting optics images the target scene scanned by the transmitted beam onto the array.
  • the circuit is coupled to actuate the detection elements only in a selected area of the array and to guide the selected area over the array in synchronism with the scanning of the at least one beam.
  • a scanning system is thus disclosed which successively activates detector pixels in order to increase the signal-to-noise ratio of the sensor. It is apparent to the person skilled in the art from this teaching that it is a micromirror-based one
  • the detector pixels are activated in a so-called “region of interest” (ROI).
  • ROI region of interest
  • US 2018/0003821 A1 discloses an object detector which comprises a light-emitting system and a light-receiving system.
  • the light-emitting system includes a light source with a plurality of light-emitting elements arranged in a uniaxial direction.
  • the light-emitting system emits light.
  • the light-emitting elements are individually and sequentially controllable laser diodes.
  • the light receiving system receives the light emitted by the light emitting system and reflected by an object.
  • the plurality of light-emitting elements emits a plurality of light beams to a plurality of areas that differ in the uniaxial direction.
  • the amount of light for illuminating some of the plurality of areas differs from the amount of light for illuminating an area other than some of the plurality of areas. It is disclosed that each light-emitting element is exactly one
  • Receiving element is assigned.
  • the present invention is based on a LIDAR sensor for optically detecting a field of view, comprising a transmission unit with a
  • Laser pattern generation unit for emitting primary light into the field of vision.
  • the laser pattern generation unit has in particular at least one laser.
  • the laser pattern generation unit is designed, an illumination pattern to generate in the field of view, wherein the illumination pattern has a first direction and a second direction, the first direction and the second direction being arranged orthogonally to one another.
  • the first direction and the second direction are arranged essentially orthogonally to one another. This means that slight deviations from the right angle are also included. For example, deviations that occur due to a laser alignment error are also included.
  • An expansion of the illumination pattern along the first direction is greater than one
  • the illumination pattern is in particular designed as a line, a rectangle or a check pattern.
  • the LIDAR sensor still has one
  • the at least one detector unit has a large number of pixels, at least some pixels each having a plurality of activatable single-photon avalanche diodes.
  • the LIDAR sensor also has a rotor unit that can be rotated about an axis of rotation.
  • the transmission unit of the LIDAR sensor is at least partially arranged on the rotor unit.
  • the receiving unit of the LIDAR sensor is at least partially on the
  • Rotor unit arranged.
  • the LIDAR sensor has at least one link which is designed to detect at least two detection signals
  • the LIDAR sensor also has in particular at least one
  • the at least one evaluation unit is designed to determine a light transit time of the emitted primary light and of the secondary light received again.
  • the distance between the LIDAR sensor and an object in the field of view can be based on a time of flight (TOF) or on the basis of a frequency-modulated continuous wave signal
  • the time-of-flight methods include pulse methods that determine the time of reception of a reflected laser pulse or phase methods that determine a Send out the amplitude-modulated light signal and determine the phase offset to the received light signal.
  • the detector unit has a plurality of activatable ones
  • a single-photon avalanche diode can be referred to as a sub-pixel.
  • Macro pixels The pixels of the detector unit can be referred to as macropixels.
  • a single photon avalanche diode triggers an electrical pulse when a minimal amount of light hits a light-intensive area of the
  • Single photon avalanche diodes fall.
  • the amount of light can be achieved with a single photon.
  • a single photon avalanche diode can accordingly be very sensitive.
  • the single photon avalanche diode takes a fixed time to be ready to provide another electrical pulse in response to the minimum amount of light. No light can be registered during this time. This time can be called dead time.
  • Detector unit can be increased.
  • the pixels i.e. macropixels, enable the use, which is otherwise usually too sensitive
  • Single photon avalanche diodes The performance of a pixel can be optimized regardless of the optically necessary size. In the case of a defective single-photon avalanche diode of a pixel, the complete pixel does not fail. The light yield of a pixel is thus increased in the event of a defective single-photon avalanche diode. With a flexible assignment of the
  • Pixels for evaluation units of the LIDAR sensor can be made possible to adapt the area of the detector unit to be evaluated in the sub-pixel area. This allows the detector unit to be easily adapted to the transmitter unit of the LIDAR sensor. The adjustment of the sending unit and the receiving unit are facilitated.
  • the link is an OR link or an exclusive OR link.
  • OR link the time of reception of a photon is encoded in the rising edge of the output signal of a subpixel.
  • the logically active phase of the output signal reflects the dead time of the subpixel.
  • exclusive OR gate the subpixel is switched to a toggle flip-flop. Each photon detection of a subpixel therefore leads to a change in the state of the output signal. In other words, it is
  • Receiving time of a photon is now encoded in the rising and falling edge of the output signal.
  • the advantage of this embodiment is that an evaluation unit does not have to be assigned to each subpixel.
  • Linker is an OR-linker
  • the LIDAR sensor also has at least one pulse shortener in order to shorten a digital signal generated by a single photon avalanche diode.
  • the dead time between individual signals can be reduced.
  • the advantage of this configuration is that the signal throughput can be increased. It can be elevated
  • the pixels are arranged in a grid with a predetermined number of lines and a predetermined number of columns.
  • the pixels of at least one row and / or the pixels of at least one column can be activated in parallel.
  • each pixel in a column can be active.
  • Each individual photon avalanche diode of these pixels can also be active in the corresponding column.
  • each pixel in one line can be active.
  • the advantage of this embodiment is that improved detection of the secondary light caused by the emitted illumination pattern can be achieved. For example, when using multiple lasers in the laser pattern generation unit, it is not necessary to have a specific laser in the laser pattern generation unit exactly one
  • the LIDAR sensor also has at least one control unit which is designed to move the rotatable rotor unit at least along the second direction, so that the illumination pattern is moved at least along the second direction.
  • the laser pattern generation unit thus generates an illumination pattern that is scanned orthogonally to the first direction.
  • the illumination pattern is therefore not scanned pixel by pixel, but as a whole. It is therefore a combination of the flash and the scan principle, which are known from known LIDAR sensors.
  • Laser pattern generation unit can be kept low.
  • the required pulse power of the at least one laser of the laser pattern generation unit can be kept low.
  • the pulse power can be kept lower compared to a LIDAR sensor that works according to the flash principle.
  • the combination of the flash and the scanning principle also enables
  • Laser pattern generation unit per measurement This is particularly advantageous when using a detector unit that has single-photon avalanche diodes.
  • the eye safety of the LIDAR sensor can also be increased.
  • the measuring time can be increased compared to a LIDAR sensor that works according to the scanning principle.
  • the resolution in one direction is no longer limited by a number of laser units and detector diodes.
  • the resolution along the first direction depends on the receiving unit of the LIDAR sensor.
  • the resolution along the first direction can be dependent on the receiving optics of the receiving unit.
  • the resolution along the first direction depends on the number of pixels of the detector unit.
  • the resolution along the second direction depends on the scanning unit of the LIDAR sensor.
  • the rotor unit rotatable about an axis of rotation can be referred to as a scanning unit.
  • the transmitting unit and the receiving unit are arranged one above the other or next to one another along the axis of rotation of the rotatable rotor unit.
  • the invention is also based on a working device or a vehicle with a LIDAR sensor described above.
  • the invention is also based on a method for optically detecting a field of view by means of a described LIDAR sensor.
  • the method includes generating an illumination pattern in a field of view, the illumination pattern having a first direction and a second direction.
  • the first direction and the second direction are arranged essentially orthogonally to one another.
  • An extension of the illumination pattern along the first direction is greater than an extension of the
  • the method comprises the control of a rotor unit for rotation about one
  • the method comprises receiving secondary light that was reflected and / or scattered by an object in the field of view by means of at least one
  • the at least one detector unit has a large number of pixels. At least some pixels each have a plurality of activatable single-photon avalanche diodes. Furthermore, the method comprises linking the detection signals of at least two
  • FIG. 1 top view of a first embodiment of a LIDAR
  • FIG. 3 side view of a second embodiment of a LIDAR sensor
  • Figure 4 shows a schematic representation of an embodiment of a
  • Figure 5 shows a schematic representation of an embodiment of a
  • Pixel of the detector unit of the LIDAR sensor and a link
  • Figure 6 embodiment of a method for optical detection of a field of view by means of a LIDAR sensor.
  • FIG. 1 shows an example of a top view of a LIDAR sensor 100.
  • the LIDAR sensor 100 according to FIG. 1 has a transmission unit 101 with a laser pattern generation unit 102 for emitting primary light 104 into the field of view 106.
  • the laser pattern generation unit 102 has the laser 103 in the example.
  • the laser 103 can have a line orientation, for example.
  • the emitted primary light 104 can pass through an optical transmission system 105 when it is emitted into the field of view 106.
  • the transmission optics 105 can have, for example, at least one lens or at least one optical filter.
  • the primary light 104 is emitted to detect and / or examine a scene 108 and an object 107 located there.
  • the 106 is the area of the environment that the transmission unit 101 can illuminate.
  • the field of view 106 preferably extends at a distance of 1 m - 180 m to the transmission unit 101.
  • the LIDAR sensor 100 has a receiving unit 110.
  • the receiving unit 110 receives light and in particular from the object
  • the receiving optics 111 can have, for example, at least one lens or at least one optical filter.
  • the received secondary light 109 is transmitted to a detector unit 112.
  • the LIDAR sensor also has at least one link, not shown in FIG. 1 for the sake of clarity. This linker is described in more detail in the explanation of FIG. 5 in conjunction with FIG. 4.
  • the laser pattern generation unit 102 and the detector unit 112 are controlled via control lines 114 and 115 by means of a control and
  • Evaluation unit 113 An embodiment of the detector unit 112 is described in more detail in FIG. 4.
  • the receiving unit 110 and the transmitting unit 101 are formed on the field of view with essentially biaxial optical axes.
  • the LIDAR sensor 100 also has a rotor unit 116 which can be rotated about an axis of rotation.
  • the transmission unit 101 is arranged on the rotor unit 116.
  • the receiving unit 110 is also arranged on the rotor unit 116.
  • the rotatable rotor unit 116 is controlled by means of a control unit 117.
  • FIG. 2 shows an example of the side view of the LIDAR sensor 100 described in FIG. 1. It can be seen in FIG. 2 that the laser pattern generation unit 102 is designed to generate an illumination pattern 218 in the field of view 106.
  • the illumination pattern 218 has a first direction 219 and a second direction 220.
  • the first direction 219 and the second direction 220 are arranged orthogonally to one another.
  • Illumination pattern 218 along the first direction 219 is greater than an extension of the illumination pattern 218 along the second direction 220.
  • the illumination pattern 218 of the LIDAR sensor 100 shown here is designed as a check pattern.
  • Illumination pattern 218 may alternatively be formed as a line or as a rectangle.
  • control unit 117 is designed to rotate the rotatable rotor unit 116 at least along the second direction 220
  • the illumination pattern 218 is moved at least along the second direction 220.
  • the movement of the illumination pattern 218 can, for example, take place step by step or can be carried out as a continuous scanning movement.
  • the transmitting unit 101 and the receiving unit 110 of the LIDAR sensor 100 are arranged alongside one another along the axis of rotation 221 of the rotatable rotor unit 116.
  • FIG. 3 shows an example of the side view of a LIDAR sensor 300.
  • the LIDAR sensor 300 has the transmitter unit 301 for emitting primary light 304 in a field of view. The primary light is emitted along the transmission direction 322.
  • the LIDAR sensor 300 also has the receiving unit 310 for receiving secondary light 309, which was reflected and / or scattered in the field of view by an object. The secondary light hits under the
  • Receiving direction 323 to receiving unit 310 Receiving direction 323 to receiving unit 310.
  • the LIDAR sensor 300 essentially corresponds to the LIDAR sensor 100 described in FIGS. 1 and 2.
  • the transmission unit 301 corresponds to the transmission unit 101 described in FIGS. 1 and 2.
  • the reception unit 310 corresponds to the reception unit 310 described in FIGS. 1 and 2.
  • the difference to the LIDAR sensor 100 essentially only consists in the fact that in the LIDAR sensor 300 the transmitting unit 301 and the receiving unit 310 along the
  • Rotation axis 321 of the rotatable rotor unit are arranged one above the other.
  • first direction 219 and the second direction 220 can be interchanged, so that this
  • Illumination pattern 218 extends along the second direction and is scanned along the first direction, i. H. the greater extent of the
  • Illumination pattern extends in the horizontal direction and is scanned in the vertical direction.
  • the illumination pattern is designed, for example, as a laser line or in the form of a check pattern.
  • FIG. 4 schematically and exemplifies the detector unit 112 as it has a LIDAR sensor 100, 300.
  • the detector unit 112 has a large number of pixels 401-m, n.
  • the pixels are arranged in a grid with a predetermined number of m rows and a predetermined number of n columns.
  • the number m is an integer.
  • the number m can be an integer 1 to i.
  • the number n is an integer.
  • the number n can be an integer 1 to j.
  • the value of the number i and / or the value of the number j can be limited in a specific embodiment by the requirements regarding eye safety for a given range of the LIDAR sensor.
  • the value of the number i and / or the value of the number j can be in a concrete
  • Producibility may be limited.
  • at least the number m or at least the number n is not equal to 1. It has at least one row or a column at least two pixels. As shown in the example in FIG. 4, both the number m of rows and the number n of columns should be greater than 1.
  • the detector unit is designed as an array of a plurality of pixels 401-m, n.
  • the pixels 401-m, n each have a plurality of activatable single-photon avalanche diodes 402 (for the sake of clarity, only one is per pixel 401-m, n
  • a single photon avalanche diode 402 provided with a reference number).
  • a single-photon avalanche diode 402 can be referred to as a sub-pixel.
  • the pixels 401-m, n of at least one row and / or the pixels 401-m, n of at least one column can be activated in parallel.
  • the single-photon avalanche diodes 402 of a pixel 401-m, n are linked via a link not shown in FIG. 4.
  • Each of the pixels 401-m, n of the detector unit 112 shown in FIG. 4 can have one
  • Linkers as shown by way of example in FIG. 5, can be assigned. Linking at least two individual photon avalanche diodes 402 of a pixel 401-m, n creates so-called macropixels.
  • the pixels 401-m, n of the detector unit 112 can be referred to as macropixels.
  • FIG. 5 schematically shows an exemplary embodiment of a pixel 500 of a detector unit 112, as it has a LIDAR sensor 100, 300 shown in FIGS. 1 to 3, and a linker 502, like that of a LIDAR sensor 100 shown in FIGS. 1 to 3 , 300 has.
  • the pixel 500 can be part of a detector unit 112 described in the previous figures.
  • the pixel 500 shown shows the four by way of example
  • the linker 502 links the four single-photon avalanche diodes 501-1 to 501-4 to one another.
  • Linker 502 is designed to link detection signals of at least two of the four individual photon avalanche diodes 501-1 to 501-4 of pixel 500 using combinatorial logic.
  • the link 502 can in particular be an OR link or an exclusive OR link.
  • the LIDAR sensor can optionally also have at least one pulse shortener 503.
  • FIG. 6 shows an example of a method for optically detecting a field of view using a LIDAR sensor. The method begins with step 601. In step 602, an illumination pattern is generated in a field of view. The
  • Illumination pattern has a first direction and a second direction.
  • the first direction and the second direction are arranged orthogonally to one another, an extension of the illumination pattern along the first direction being greater than an extension of the illumination pattern along the second direction.
  • a rotor unit is controlled for rotation about an axis of rotation by means of a control unit.
  • Illumination pattern is thus moved at least along the second direction.
  • secondary light that was reflected and / or scattered in the field of view by an object is received by means of at least one detector unit.
  • the at least one detector unit has a large number of pixels. At least some pixels each have a plurality of activatable single-photon avalanche diodes.
  • the at least one detector unit has a large number of pixels. At least some pixels each have a plurality of activatable single-photon avalanche diodes.
  • Detection signals of at least two single photon avalanche diodes of a pixel are linked via combinatorial logic by means of a linker.
  • the method ends in step 606.
  • the LIDAR sensors 100 and 300 and the method 600 can both be used for
  • Detection of a field of view of a vehicle as well as detection of a field of view of a working device can be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

LIDAR-Sensor (100, 300) zur optischen Erfassung eines Sichtfeldes (106), aufweisend eine Sendeeinheit (101, 301) mit einer Lasermustererzeugungseinheit (102),wobei die Lasermustererzeugungseinheit (102) ausgebildet ist, ein Ausleuchtungsmuster (218) im Sichtfeld (106) zu erzeugen; eine Empfangseinheit (110, 310) mit wenigstens einer Detektoreinheit (112) zum Empfangen von Sekundärlicht (109, 309), das im Sichtfeld (106) von einem Objekt (107) reflektiert wurde; wobei die wenigstens eine Detektoreinheit (112) eine Vielzahl von Bildpunkten (401-m,n; 500) aufweist, und wobei wenigstens einige Bildpunkte (401-m,n; 500) jeweils eine Mehrzahl von aktivierbaren Einzelphotonenlawinendioden (402, 501-1 bis 501-4) aufweisen; wenigstens eine um eine Rotationsachse (221, 321) rotierbare Rotoreinheit (116), wobei die Sendeeinheit (101, 301) und die Empfangseinheit (110, 310) wenigstens teilweise auf der Rotoreinheit (116) angeordnet sind. Der LIDAR-Sensor (100, 300) weist weiterhin auf wenigstens einen Verknüpfer (502), der dazu ausgelegt ist, Detektionssignale wenigstens zweier Einzelphotonenlawinendioden (402, 501-1 bis 501-4) eines Bildpunktes (401-m,n; 500) über eine kombinatorische Logik zu verknüpfen.

Description

Beschreibung
Titel
LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
Die vorliegende Erfindung betrifft einen LIDAR-Sensor zur optischen Erfassung eines Sichtfelds, eine Arbeitsvorrichtung oder ein Fahrzeug mit einem LIDAR- Sensor und ein Verfahren zur optischen Erfassung eines Sichtfelds gemäß dem Oberbegriff der unabhängig formulierten Ansprüche.
Stand der Technik
Die DE 10 2016 219 955 Al offenbart eine Sendeeinheit zum Ausleuchten einer Umgebung, insbesondere eines Fahrzeugs, mit einer
Lasermustererzeugungseinheit, einer Ablenkeinheit und einer Steuereinheit. Die Lasermustererzeugungseinheit ist eingerichtet ein Ausleuchtungsmuster in einem Sichtfeld zu erzeugen, wobei das Ausleuchtungsmuster eine erste Richtung und eine zweite Richtung aufweist, wobei die erste Richtung und die zweite Richtung orthogonal zueinander angeordnet sind, wobei eine Ausdehnung des
Ausleuchtungsmuster entlang der ersten Richtung größer ist als eine
Ausdehnung des Ausleuchtungsmuster entlang der zweiten Richtung, wobei das Ausleuchtungsmuster insbesondere ein Karomuster ist, und die Steuereinheit eingerichtet ist, die Ablenkeinheit mindestens entlang der zweiten Richtung zu bewegen, sodass das Ausleuchtungsmuster mindestens entlang der zweiten Richtung bewegt wird.
Die US 2017/0176579 Al offenbart eine elektrooptische Vorrichtung, welche eine eine Laserlichtquelle, die mindestens einen Strahl von Lichtimpulsen emittiert, eine Strahllenkungsvorrichtung, die den mindestens einen Strahl über eine Ziel- Szene sendet und abtastet, und eine Anordnung von Sensorelementen umfasst. Jedes Sensorelement gibt ein Signal aus, das eine Einfallszeit eines einzelnen Photons auf dem Sensorelement anzeigt. Eine Lichtsammeloptik bildet die von dem transmittierten Strahl abgetastete Zielszene auf das Array ab. Die Schaltung ist gekoppelt, um die Erfassungselemente nur in einem ausgewählten Bereich des Arrays zu betätigen und den ausgewählten Bereich synchron mit dem Abtasten des mindestens einen Strahls über das Array zu führen. Es wird somit ein scannendes System offenbart, das Detektorpixel sukzessive aktiviert um das Signal- Rausch- Verhältnis des Sensors zu erhöhen. Dem Fachmann ist aus dieser Lehre ersichtlich, dass es sich um eine Mikrospiegelbasierte
Implementierung eines LiDAR Systems handelt. Die Detektorpixel werden in einer sogenannten„Region of interest“ (ROI) aktiv geschaltet.
Die US 2018/0003821 Al offenbart einen Objektdetektor, welcher ein Licht emittierendes System und ein Licht-empfangendes System umfasst. Das Licht emittierende System umfasst eine Lichtquelle mit einer Vielzahl von Licht emittierenden Elementen, die in einer Einachsenrichtung angeordnet sind. Das Licht-emittierende System emittiert Licht. Die Licht-emittierenden Elemente sind einzeln und nacheinander ansteuerbare Laserdioden. Das Lichtempfangssystem empfängt das von dem Licht emittierenden System emittierte und von einem Objekt reflektierte Licht. Die Vielzahl von Licht-emittierenden Elementen emittiert eine Vielzahl von Lichtstrahlen zu einer Vielzahl von Bereichen, die sich in der Einachsenrichtung unterscheiden. Die Menge an Licht zum Beleuchten einiger der Vielzahl von Bereichen unterscheidet sich von der Menge an Licht zum Beleuchten eines anderen Bereichs als dem einiger der Vielzahl von Bereichen. Es ist offenbart, dass jedem Licht-emittierenden Element genau ein
Empfangselement zugeordnet ist.
Offenbarung der Erfindung
Die vorliegende Erfindung geht aus von einem LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes aufweisend eine Sendeeinheit mit einer
Lasermustererzeugungseinheit zur Aussendung von Primärlicht in das Sichtfeld. Die Lasermustererzeugungseinheit weist insbesondere wenigstens einen Laser auf. Die Lasermustererzeugungseinheit ist ausgebildet, ein Ausleuchtungsmuster in dem Sichtfeld zu erzeugen, wobei das Ausleuchtungsmuster eine erste Richtung und eine zweite Richtung aufweist, wobei die erste Richtung und die zweite Richtung orthogonal zueinander angeordnet sind. Die erste Richtung und die zweite Richtung sind dabei im Wesentlichen orthogonal zueinander angeordnet. Das bedeutet, dass geringe Abweichungen vom rechten Winkel ebenfalls umfasst sind. Zum Beispiel sind Abweichungen, die durch einen Justagefehler eines Lasers auftreten, ebenfalls umfasst. Eine Ausdehnung des Ausleuchtungsmusters entlang der ersten Richtung ist größer als eine
Ausdehnung des Ausleuchtungsmusters entlang der zweiten Richtung. Das Ausleuchtungsmuster ist insbesondere als eine Linie, ein Rechteck oder ein Karomuster ausgebildet. Der LIDAR-Sensor weist weiterhin auf eine
Empfangseinheit mit wenigstens einer Detektoreinheit zum Empfangen von Sekundärlicht, das im Sichtfeld von einem Objekt reflektiert und/oder gestreut wurde. Die wenigstens eine Detektoreinheit weist eine Vielzahl von Bildpunkten auf, wobei wenigstens einige Bildpunkte jeweils eine Mehrzahl von aktivierbaren Einzelphotonenlawinendioden aufweisen. Der LIDAR-Sensor weist weiterhin eine um eine Rotationsachse rotierbare Rotoreinheit auf. Die Sendeeinheit des LIDAR-Sensors ist wenigstens teilweise auf der Rotoreinheit angeordnet. Die Empfangseinheit des LIDAR-Sensors ist wenigstens teilweise auf der
Rotoreinheit angeordnet.
Erfindungsgemäß weist der LIDAR-Sensor wenigstens einen Verknüpfer auf, der dazu ausgelegt ist, Detektionssignale wenigstens zweier
Einzelphotonenlawinendioden eines Bildpunktes über eine kombinatorische Logik zu verknüpfen.
Der LIDAR-Sensor weist weiterhin insbesondere wenigstens eine
Auswerteeinheit auf. Die wenigstens eine Auswerteeinheit ist dafür ausgebildet, eine Lichtlaufzeit des ausgesandten Primärlichts und des wieder empfangenen Sekundärlichts zu bestimmen. Der Abstand zwischen dem LIDAR-Sensor und einem Objekt im Sichtfeld kann auf der Basis einer Signallaufzeit (Time of Flight, TOF) oder auf der Basis eines frequenzmodulierten Dauerstrich-Signals
(Frequency Modulated Continuous Wave, FMCW) bestimmt werden. Zu den Lichtlaufzeitverfahren zählen Pulsverfahren, die den Empfangszeitpunkt eines reflektierten Laserpulses bestimmen, oder Phasenverfahren, die ein amplitudenmoduliertes Lichtsignal aussenden und den Phasenversatz zu dem empfangenen Lichtsignal bestimmen.
Die Detektoreinheit weist eine Mehrzahl von aktivierbaren
Einzelphotonenlawinendioden (engl. Single-Photon Avalanche Diodes (SPAD)) auf. Eine Einzelphotonenlawinendiode kann hierbei als Subpixel bezeichnet werden. Durch die Verknüpfung wenigstens zweier
Einzelphotonenlawinendioden eines Bildpunktes entstehen sogenannte
Makropixel. Die Bildpunkte der Detektoreinheit können als Makropixel bezeichnet werden. Eine Einzelphotonenlawinendiode löst einen elektrischen Puls aus, wenn eine minimale Lichtmenge auf einen lichtintensiven Bereich der
Einzelphotonenlawinendioden fällt. Die Lichtmenge kann bereits bei einem einzelnen Photon erreicht werden. Eine Einzelphotonenlawinendiode kann entsprechend sehr sensitiv sein. Nachdem der elektrische Impuls bereitgestellt worden ist, benötigt die Einzelphotonenlawinendiode eine feste Zeit, bis sie erneut bereit ist, um einen weiteren elektrischen Impuls ansprechend auf den Einfall der minimalen Lichtmenge bereitzustellen. Während dieser Zeit kann kein Licht registriert werden. Diese Zeit kann als Totzeit bezeichnet werden.
Der Vorteil der Erfindung besteht darin, dass der Dynamikbereich der
Detektoreinheit erhöht werden kann. Die Bildpunkte, sprich Makropixel, ermöglichen die Verwendung, der ansonsten meist zu sensitiven
Einzelphotonenlawinendioden. Die Leistung eines Bildpunktes kann unabhängig von der optisch notwendigen Größe optimiert werden. Im Fall einer defekten Einzelphotonenlawinendiode eines Bildpunktes fällt nicht der komplette Bildpunkt aus. Die Lichtausbeute eines Bildpunktes wird somit im Fall einer defekten Einzelphotonenlawinendiode erhöht. Bei einer flexiblen Zuordnung der
Bildpunkte zu Auswerteeinheiten des LIDAR-Sensors kann eine Anpassung der auszuwertenden Fläche der Detektoreinheit im Subpixel-Bereich ermöglicht werden. Dies erlaubt eine einfache Anpassung der Detektoreinheit an die Sendeeinheit des LIDAR-Sensors. Die Justage der Sendeeinheit und der Empfangseinheit werden erleichtert.
In einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass der Verknüpfer ein ODER-Verknüpfer oder ein Exklusiv-ODER-Verknüpfer ist. Im Falle eines ODER-Verknüpfers ist der Empfangszeitpunkt eines Photons in der steigenden Flanke des Ausgangssignals eines Subpixels kodiert. Die logisch aktive Phase des Ausgangssignals spiegelt die Totzeit des Subpixels wider. Im Falle eines Exklusiv-ODER-Verknüpfers wird das Subpixel auf ein Toggle-Flipflop geschaltet. Jede Photonendetektion eines Subpixels führt daher zu einer Zustandsänderung des Ausgangssignals. Mit anderen Worten ist der
Empfangszeitpunkt eines Photons nun in der steigenden und fallenden Flanke des Ausgangssignals kodiert. Der Vorteil dieser Ausgestaltung besteht darin, dass nicht jedem Subpixel eine Auswerteeinheit zugeordnet werden muss.
In einer weiteren vorteilhaften Ausgestaltung der Erfindung, wobei der
Verknüpfer ein ODER-Verknüpfer ist, weist der LIDAR-Sensor ferner wenigstens einen Pulsverkürzer auf, um ein von einer Einzelphotonenlawinendiode generiertes digitales Signal zeitlich zu verkürzen. Die Totzeit zwischen einzelnen Signalen kann verkürzt werden. Der Vorteil dieser Ausgestaltung besteht darin, dass der Signaldurchsatz erhöht werden kann. Es kann eine erhöhte
Photonenzählrate erreicht werden.
In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Bildpunkte in einem Raster mit einer vorgegebenen Anzahl Zeilen und einer vorgegebenen Anzahl Spalten angeordnet sind. Die Bildpunkte wenigstens einer Zeile und/oder die Bildpunkte wenigstens einer Spalte sind parallel aktivierbar. Beim Empfangen von Sekundärlicht kann jeder Bildpunkt in einer Spalte aktiv sein. Hierbei kann auch jede Einzelphotonenlawinendiode dieser Bildpunkte in der entsprechenden Spalte aktiv sein. Beim Empfangen von Sekundärlicht kann jeder Bildpunkt in einer Zeile aktiv sein. Hierbei kann auch jede
Einzelphotonenlawinendiode dieser Bildpunkte in der entsprechenden Zeile aktiv sein. Der Vorteil dieser Ausgestaltung besteht darin, dass eine verbesserte Detektion des durch das ausgesendete Ausleuchtungsmuster verursachte Sekundärlichts erreicht werden kann. Zum Beispiel ist es bei der Verwendung mehrerer Laser in der Lasermustererzeugungseinheit nicht notwendig einen bestimmten Laser der Lasermustererzeugungseinheit genau einer
Einzelphotonenlawinendiode der Detektoreinheit zuzuordnen. In einer weiteren vorteilhaften Ausgestaltung der Erfindung weist der LIDAR- Sensor weiterhin wenigstens eine Steuereinheit auf, welche dazu ausgebildet ist, die rotierbarer Rotoreinheit wenigstens entlang der zweiten Richtung zu bewegen, sodass das Ausleuchtungsmuster wenigstens entlang der zweiten Richtung bewegt wird. Die Lasermustererzeugungseinheit erzeugt somit ein Ausleuchtungsmuster, dass orthogonal zur ersten Richtung gescannt wird. Das Ausleuchtungsmuster wird somit nicht pixelweise, sondern als Ganzes gescannt. Es handelt sich somit um eine Kombination des Flash-und des Scanprinzips, welche von bekannten LIDAR-Sensoren bekannt sind. Der Vorteil dieser
Ausgestaltung besteht darin, dass die benötigte Pulsleistung der
Lasermustererzeugungseinheit geringgehalten werden kann. Die benötigte Pulsleistung des wenigstens einen Lasers der Lasermustererzeugungseinheit kann geringgehalten werden. Die Pulsleistung kann geringer gehalten werden im Vergleich mit einem LIDAR-Sensor, der nach dem Flash-Prinzip arbeitet. Die Kombination des Flash- und des Scanprinzips ermöglicht außerdem die
Erhöhung der Pulszahl des wenigstens einen Lasers der
Lasermustererzeugungseinheit pro Messung. Dies ist insbesondere von Vorteil bei der Verwendung einer Detektoreinheit, die Einzelphotonenlawinendioden aufweist. Außerdem kann die Augensicherheit des LIDAR-Sensors erhöht werden. Gleichzeitig kann gegenüber eines nach dem Scan-Prinzip arbeitenden LIDAR-Sensors die Messzeit erhöht werden. Durch das Erzeugen des
Ausleuchtungsmusters im Sichtfeld ist die Auflösung in einer Richtung nicht mehr durch eine Anzahl von Lasereinheiten und Detektordioden limitiert. Die Auflösung entlang der ersten Richtung ist abhängig von der Empfangseinheit des LIDAR- Sensors. Die Auflösung entlang der ersten Richtung kann abhängig von einer Empfangsoptik der Empfangseinheit sein. Die Auflösung entlang der ersten Richtung ist abhängig von der Anzahl der Bildpunkte der Detektoreinheit. Die Auflösung entlang der zweiten Richtung ist abhängig von der Scaneinheit des LIDAR-Sensors. Die um eine Rotationsachse rotierbare Rotoreinheit kann hierbei als Scaneinheit bezeichnet werden.
In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Sendeeinheit und die Empfangseinheit entlang der Rotationsachse der rotierbaren Rotoreinheit übereinander oder nebeneinander angeordnet sind. Der Vorteil dieser Ausgestaltung besteht darin, dass die Anforderungen zum Beispiel beim Einbau des LIDAR-Sensors in ein Fahrzeug berücksichtigt werden können. So können zum Beispiel die Anforderungen bezüglich der Bauhöhe des LIDAR- Sensors berücksichtigt werden.
Die Erfindung geht weiterhin aus von einer Arbeitsvorrichtung oder einem Fahrzeug mit einem oben beschriebenen LIDAR-Sensor.
Die Erfindung geht weiterhin aus von einem Verfahren zur optischen Erfassung eines Sichtfelds mittels eines beschriebenen LIDAR-Sensors. Das Verfahren umfasst das Erzeugen eines Ausleuchtungsmusters in einem Sichtfeld, wobei das Ausleuchtungsmuster eine erste Richtung und eine zweite Richtung aufweist. Die erste Richtung und die zweite Richtung sind im Wesentlichen orthogonal zueinander angeordnet. Eine Ausdehnung des Ausleuchtungsmusters entlang der ersten Richtung ist größer als eine Ausdehnung des
Ausleuchtungsmusters entlang der zweiten Richtung. Des Weiteren umfasst das Verfahren die Ansteuerung einer Rotoreinheit zur Rotation um eine
Rotationsachse mittels einer Steuereinheit, sodass das Ausleuchtungsmuster wenigstens entlang der zweiten Richtung bewegt wird. Des Weiteren umfasst das Verfahren das Empfangen von Sekundärlicht, das im Sichtfeld von einem Objekt reflektiert und/oder gestreut wurde mittels wenigstens einer
Detektoreinheit. Die wenigstens eine Detektoreinheit weist eine Vielzahl von Bildpunkten auf. Wenigstens einige Bildpunkte weisen jeweils eine Mehrzahl von aktivierbaren Einzelphotonenlawinendioden auf. Des Weiteren umfasst das Verfahren das Verknüpfen der Detektionssignale wenigstens zweier
Einzelphotonenlawinendioden eines Bildpunktes über eine kombinatorische Logik mittels eines Verknüpfers.
Zeichnungen
Nachfolgend werden Ausführungsbeispiele der vorliegenden Erfindung anhand der beiliegenden Zeichnungen näher erläutert. Gleiche Bezugszeichen in den Figuren bezeichnen gleiche oder gleichwirkende Elemente. Es zeigen:
Figur 1 Draufsicht auf ein erstes Ausführungsbeispiel eines LIDAR-
Sensors; Figur 2 Seitenansicht auf das erste Ausführungsbeispiel eines LIDAR- Sensors;
Figur 3 Seitenansicht eines zweiten Ausführungsbeispiels eines LIDAR- Sensors;
Figur 4 schematische Darstellung eines Ausführungsbeispiels einer
Detektoreinheit des LIDAR-Sensors;
Figur 5 schematische Darstellung eines Ausführungsbeispiels eines
Bildpunktes der Detektoreinheit des LIDAR-Sensors und eines Verknüpfers;
Figur 6 Ausführungsbeispiel eines Verfahrens zur optischen Erfassung eines Sichtfeldes mittels eines LIDAR-Sensors.
Figur 1 zeigt beispielhaft wie die Draufsicht auf einen LIDAR-Sensors 100. Der LIDAR-Sensor 100 gemäß Figur 1 weist eine Sendeeinheit 101 mit einer Lasermustererzeugungseinheit 102 zur Aussendung von Primärlicht 104 in das Sichtfeld 106 auf. Die Lasermustererzeugungseinheit 102 weist im Beispiel den Laser 103 auf. Der Laser 103 kann beispielsweise eine Linienorientierung aufweisen. Das ausgesendete Primärlicht 104 kann bei der Aussendung in das Sichtfeld 106 eine Sendeoptik 105 durchlaufen. Die Sendeoptik 105 kann beispielsweise wenigstens eine Linse oder wenigstens einen optischen Filter aufweisen. Das Primärlicht 104 wird zur Erfassung und/oder Untersuchung einer Szene 108 und eines dort befindlichen Objekts 107 ausgesendet. Das Sichtfeld
106 ist dabei der Bereich der Umgebung, den die Sendeeinheit 101 ausleuchten kann. Das Sichtfeld 106 erstreckt sich vorzugsweise in einem Abstand von 1 m - 180 m zur Sendeeinheit 101.
Des Weiteren weist der LIDAR-Sensor 100 gemäß Figur 1 eine Empfangseinheit 110 auf. Die Empfangseinheit 110 empfängt Licht und insbesondere vom Objekt
107 im Sichtfeld 106 reflektiertes Licht als Sekundärlicht 109 über eine
Empfangsoptik 111. Die Empfangsoptik 111 kann beispielsweise wenigstens eine Linse oder wenigstens einen optischen Filter aufweisen. Das empfangene Sekundärlicht 109 wird an eine Detektoreinheit 112 übertragen. Der LIDAR- Sensor weist weiterhin wenigstens einen, in Figur 1 der Übersicht halber nicht gezeigten, Verknüpfer auf. Dieser Verknüpfer wird bei der Erläuterung der Figur 5, in Verbindung mit der Figur 4, näher beschrieben. Die Steuerung der Lasermustererzeugungseinheit 102 sowie der Detektoreinheit 112 erfolgt über Steuerleitungen 114 bzw. 115 mittels einer Steuer- und
Auswerteeinheit 113. Ein Ausführungsbeispiel der Detektoreinheit 112 wird in Figur 4 näher beschrieben.
Die Empfangseinheit 110 und die Sendeeinheit 101 sind sichtfeldseitig mit im Wesentlichen biaxialen optischen Achsen ausgebildet. Der LIDAR-Sensor 100 weist weiterhin eine um eine Rotationsachse rotierbare Rotoreinheit 116 auf. Im Ausführungsbeispiel ist die Sendeeinheit 101 auf der Rotoreinheit 116 angeordnet. Auch die Empfangseinheit 110 ist auf der Rotoreinheit 116 angeordnet. Die rotierbare Rotoreinheit 116 wird mittels einer Steuereinheit 117 angesteuert.
Figur 2 zeigt beispielhaft die Seitenansicht des in Figur 1 beschriebenen LIDAR Sensors 100. In Figur 2 ist zu sehen, dass die Lasermustererzeugungseinheit 102 ausgebildet ist, ein Ausleuchtungsmuster 218 in dem Sichtfeld 106 zu erzeugen. Das Ausleuchtungsmuster 218 weist eine erste Richtung 219 und eine zweite Richtung 220 auf. Die erste Richtung 219 und die zweite Richtung 220 sind orthogonal zueinander angeordnet. Eine Ausdehnung des
Ausleuchtungsmusters 218 entlang der ersten Richtung 219 ist größer als eine Ausdehnung des Ausleuchtungsmusters 218 entlang der zweiten Richtung 220. Das Ausleuchtungsmuster 218 des gezeigten LIDAR-Sensors 100 ist hierbei als Karomuster ausgebildet. Das Ausleuchtungsmuster 218 kann alternativ als eine Linie oder als ein Rechteck ausgebildet sein.
In Figur 2 ist erkennbar, dass die Steuereinheit 117 ausgebildet ist, die rotierbare Rotoreinheit 116 wenigstens entlang der zweiten Richtung 220 um die
Rotationsachse 221 zu bewegen. Hierdurch wird das Ausleuchtungsmuster 218 wenigstens entlang der zweiten Richtung 220 bewegt. Die Bewegung des Ausleuchtungsmusters 218 kann beispielsweise schrittweise erfolgen oder als kontinuierliche Scanbewegung durchgeführt werden.
Die Sendeeinheit 101 und die Empfangseinheit 110 des LIDAR-Sensors 100 sind entlang der Rotationsachse 221 der rotierbaren Rotoreinheit 116 nebeneinander angeordnet.
Figur 3 zeigt beispielhaft die Seitenansicht auf einen LIDAR-Sensor 300. Der LIDAR-Sensor 300 weist die Sendeeinheit 301 zur Aussendung von Primärlicht 304 in ein Sichtfeld auf. Das Primärlicht wird entlang der Senderichtung 322 ausgesendet. Der LIDAR-Sensor 300 weist weiterhin die Empfangseinheit 310 zum Empfangen von Sekundärlicht 309, das im Sichtfeld von einem Objekt reflektiert und/oder gestreut wurde, auf. Das Sekundärlicht trifft unter der
Empfangsrichtung 323 auf die Empfangseinheit 310.
Der LIDAR-Sensor 300 entspricht im Wesentlichen dem in Figur 1 und 2 beschriebenen LIDAR-Sensor 100. Die Sendeeinheit 301 entspricht der in Figur 1 und 2 beschriebenen Sendeeinheit 101. Die Empfangseinheit 310 entspricht der in Figur 1 und 2 beschriebenen Empfangseinheit 310. Der Unterschied zum LIDAR-Sensor 100 besteht im Wesentlichen nur darin, dass beim LIDAR-Sensor 300 die Sendeeinheit 301 und die Empfangseinheit 310 entlang der
Rotationsachse 321 der rotierbaren Rotoreinheit übereinander angeordnet sind.
In den beschriebenen Figuren können die erste Richtung 219 und die zweite Richtung 220 miteinander vertauscht werden, sodass sich das
Ausleuchtungsmuster 218 entlang der zweiten Richtung erstreckt und entlang der ersten Richtung gescannt wird, d. h. die größere Ausdehnung des
Ausleuchtungsmusters erstreckt sich in horizontaler Richtung und wird in vertikaler Richtung gescannt. Das Ausleuchtungsmuster ist beispielsweise als Laserlinie oder in Form eines Karomusters ausgestaltet.
Figur 4 stellt schematisch und beispielhaft die Detektoreinheit 112 dar, wie sie ein LIDAR-Sensor 100, 300 aufweist. Die Detektoreinheit 112 weist eine Vielzahl von Bildpunkten 401-m,n auf. Die Bildpunkte sind im Beispiel in einem Raster mit einer vorgegebenen Anzahl m Zeilen und einer vorgegebenen Anzahl n Spalten angeordnet. Die Anzahl m ist hierbei eine ganze Zahl. Die Anzahl m kann eine ganze Zahl 1 bis i sein. Die Anzahl n ist eine ganze Zahl. Die Anzahl n kann eine ganze Zahl 1 bis j sein. Der Wert der Zahl i und/oder der Wert der Zahl j kann in einer konkreten Ausführungsform durch die Anforderungen bezüglich der Augensicherheit bei gegebener Reichweite des LIDAR-Sensors begrenzt sein. Der Wert der Zahl i und/oder der Wert der Zahl j kann in einer konkreten
Ausführungsform durch Kostenvorgaben oder Vorgaben bezüglich der
Fertigbarkeit begrenzt sein. Hierbei ist wenigstens die Anzahl m oder wenigstens die Anzahl n ungleich 1. Es weist wenigstens eine Zeile oder eine Spalte wenigstens zwei Bildpunkte auf. Wie im Beispiel der Figur 4 gezeigt, kann sowohl die Anzahl m der Zeilen als auch die Anzahl n der Spalten größer als 1 sein. Die Detektoreinheit ist als Feld einer Vielzahl von Bildpunkten 401-m,n ausgebildet.
Bei der im Beispiel gezeigten Detektoreinheit 112 weisen die Bildpunkte 401-m,n jeweils eine Mehrzahl von aktivierbaren Einzelphotonenlawinendioden 402 (der Übersichtlichkeit halber ist pro Bildpunkt 401-m,n je nur eine
Einzelphotonenlawinendiode 402 mit einem Bezugszeichen versehen) auf. Eine Einzelphotonenlawinendiode 402 kann hierbei als Subpixel bezeichnet werden. Die Bildpunkte 401-m,n wenigstens einer Zeile und/oder die Bildpunkte 401-m,n wenigstens einer Spalte sind parallel aktivierbar.
Die Einzelphotonenlawinendioden 402 eines Bildpunktes 401-m,n sind über einen in Figur 4 nicht gezeigten Verknüpfer verknüpft. Jedem der Bildpunkte 401-m,n der in Figur 4 gezeigten Detektoreinheit 112 kann jeweils ein
Verknüpfer, wie er in Figur 5 beispielhaft gezeigt ist, zugeordnet sein. Durch die Verknüpfung wenigstens zweier Einzelphotonenlawinendioden 402 eines Bildpunktes 401-m,n entstehen sogenannte Makropixel. Die Bildpunkte 401-m,n der Detektoreinheit 112 können als Makropixel bezeichnet werden.
Figur 5 zeigt schematisch ein Ausführungsbeispiel eines Bildpunktes 500 einer Detektoreinheit 112, wie sie ein in den Figuren 1 bis 3 gezeigter LIDAR-Sensor 100, 300 aufweist, und eines Verknüpfers 502, wie sie ein in den Figuren 1 bis 3 gezeigter LIDAR-Sensor 100, 300 aufweist. Der Bildpunkt 500 kann Teil einer in den vorherigen Figuren beschriebenen Detektoreinheit 112 sein.
Der gezeigte Bildpunkt 500 weist beispielhaft die vier
Einzelphotonenlawinendiode 501-1 bis 501-4 auf. Der Verknüpfer 502 verknüpft die vier Einzelphotonenlawinendiode 501-1 bis 501-4 miteinander. Der
Verknüpfer 502 ist dazu ausgelegt, Detektionssignale wenigstens zweier der vier Einzelphotonenlawinendioden 501-1 bis 501-4 des Bildpunktes 500 über eine kombinatorische Logik zu verknüpfen. Der Verknüpfer 502 kann insbesondere ein ODER-Verknüpfer oder ein Exklusiv-ODER-Verknüpfer sein. Im Fall, dass der Verknüpfer 502 ein ODER-Verknüpfer ist, kann der LIDAR-Sensor ferner optional wenigstens einen Pulsverkürzer 503 aufweisen. Mittels des
Pulsverkürzers kann ein von einer Einzelphotonenlawinendioden 501-1 bis 501-4 generiertes digitales Signal zeitlich verkürzt werden. Figur 6 zeigt beispielhaft ein Verfahren zur optischen Erfassung eines Sichtfeldes mittels eines LIDAR-Sensors. Das Verfahren beginnt mit Schritt 601. Im Schritt 602 wird ein Ausleuchtungsmuster in einem Sichtfeld erzeugt. Das
Ausleuchtungsmuster weist hierbei eine erste Richtung und eine zweite Richtung auf. Die erste Richtung und die zweite Richtung sind orthogonal zueinander angeordnet, wobei eine Ausdehnung des Ausleuchtungsmusters entlang der ersten Richtung größer ist als eine Ausdehnung des Ausleuchtungsmusters entlang der zweiten Richtung. Im Schritt 603 wird eine Rotoreinheit zur Rotation um eine Rotationsachse mittels einer Steuereinheit angesteuert. Das
Ausleuchtungsmuster wird somit wenigstens entlang der zweiten Richtung bewegt. Im Schritt 604 wird Sekundärlicht, das im Sichtfeld von einem Objekt reflektiert und/oder gestreut wurde, mittels wenigstens einer Detektoreinheit empfangen. Die wenigstens eine Detektoreinheit weist hierbei eine Vielzahl von Bildpunkten auf. Wenigstens einige Bildpunkte weisen jeweils eine Mehrzahl von aktivierbaren Einzelphotonenlawinendioden auf. Im Schritt 605 werden die
Detektionssignale wenigstens zweier Einzelphotonenlawinendioden eines Bildpunktes über einer kombinatorischen Logik mittels eines Vernüpfers verknüpft. Das Verfahren endet im Schritt 606. Die LIDAR-Sensoren 100 und 300 und das Verfahren 600 können sowohl zur
Erfassung eines Sichtfelds eines Fahrzeugs als auch zur Erfassung eines Sichtfelds einer Arbeitsvorrichtung eingesetzt werden.

Claims

Ansprüche
1. LIDAR-Sensor (100, 300) zur optischen Erfassung eines Sichtfeldes (106),
aufweisend:
• eine Sendeeinheit (101, 301) mit einer Lasermustererzeugungseinheit (102) zur Aussendung von Primärlicht (104, 304) in das Sichtfeld (106);
• wobei die Lasermustererzeugungseinheit (102) ausgebildet ist, ein
Ausleuchtungsmuster (218) in dem Sichtfeld (106) zu erzeugen, wobei das Ausleuchtungsmuster (218) eine erste Richtung (219) und eine zweite Richtung (220) aufweist, wobei die erste Richtung (219) und die zweite Richtung (220) orthogonal zueinander angeordnet sind, wobei eine Ausdehnung des
Ausleuchtungsmusters (218) entlang der ersten Richtung (219) größer ist als eine Ausdehnung des Ausleuchtungsmusters (218) entlang der zweiten Richtung (220); und weiterhin aufweisend
• eine Empfangseinheit (110, 310) mit wenigstens einer Detektoreinheit (112) zum Empfangen von Sekundärlicht (109, 309), das im Sichtfeld (106) von einem Objekt (107) reflektiert und/oder gestreut wurde; wobei
• die wenigstens eine Detektoreinheit (112) eine Vielzahl von Bildpunkten
(401-m,n; 500) aufweist, und wobei wenigstens einige Bildpunkte (401-m,n; 500) jeweils eine Mehrzahl von aktivierbaren Einzelphotonenlawinendioden (402,
501-1 bis 501-4) aufweisen; und weiterhin aufweisend
• wenigstens eine um eine Rotationsachse (221, 321) rotierbare Rotoreinheit (116), wobei
• die Sendeeinheit (101, 301) wenigstens teilweise auf der Rotoreinheit (116)
angeordnet ist; und wobei
• die Empfangseinheit (110, 310) wenigstens teilweise auf der Rotoreinheit (116) angeordnet ist.
dadurch gekennzeichnet, dass der LIDAR-Sensor (100, 300) weiterhin aufweist
• wenigstens einen Verknüpfer (502), der dazu ausgelegt ist, Detektionssignale wenigstens zweier Einzelphotonenlawinendioden (402, 501-1 bis 501-4) eines Bildpunktes (401-m,n; 500) über eine kombinatorische Logik zu verknüpfen.
2. LIDAR-Sensor (100, 300) nach Anspruch 1, dadurch gekennzeichnet, dass der Verknüpfer (502) ein ODER-Verknüpfer oder ein Exklusiv-ODER-Verknüpfer ist.
3. LIDAR-Sensor (100, 300) nach Anspruch 2, wobei der Verknüpfer (502) ein ODER- Verknüpfer ist, ferner aufweisend wenigstens einen Pulsverkürzer (503), um ein von einer Einzelphotonenlawinendioden (402, 501-1 bis 501-4) generiertes digitales Signal zeitlich zu verkürzen.
4. LIDAR-Sensor (100, 300) nach einem der Ansprüche 1 bis 3, dadurch
gekennzeichnet, dass die Bildpunkte (401-m,n; 500) in einem Raster mit einer vorgegebenen Anzahl (m) Zeilen und einer vorgegebenen Anzahl (n) Spalten angeordnet sind, wobei die Bildpunkte (401-m,n; 500) wenigstens einer Zeile und/oder die Bildpunkte (401-m,n; 500) wenigstens einer Spalte parallel aktivierbar sind.
5. LIDAR-Sensor (100, 300) nach einem der Ansprüche 1 bis 4, weiterhin aufweisend wenigstens eine Steuereinheit (117) welche dazu ausgebildet ist, die rotierbare Rotoreinheit (116) wenigstens entlang der zweiten Richtung (220) zu bewegen, sodass das Ausleuchtungsmuster (218) wenigstens entlang der zweiten Richtung (220) bewegt wird.
6. LIDAR-Sensor (100, 300) nach einem der Ansprüche 1 bis 5, dadurch
gekennzeichnet, dass die Sendeeinheit (101, 301) und die Empfangseinheit (110, 310) entlang der Rotationsachse (221) der rotierbaren Rotoreinheit (116)
übereinander oder nebeneinander angeordnet sind.
7. Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor (100, 300) nach einem der Ansprüche 1 bis 6.
8. Verfahren (600) zur optischen Erfassung eines Sichtfeldes mittels eines LIDAR- Sensors nach einem der Ansprüche 1 bis 6 mit den Schritten:
• Erzeugen (602) eines Ausleuchtungsmusters in einem Sichtfeld, wobei das
Ausleuchtungsmuster eine erste Richtung und eine zweite Richtung aufweist, wobei die erste Richtung und die zweite Richtung orthogonal zueinander angeordnet sind, wobei eine Ausdehnung des Ausleuchtungsmusters entlang der ersten Richtung größer ist als eine Ausdehnung des Ausleuchtungsmusters entlang der zweiten Richtung;
• Ansteuerung (603) einer Rotoreinheit zur Rotation um eine Rotationsachse
mittels einer Steuereinheit (117), sodass das Ausleuchtungsmuster wenigstens entlang der zweiten Richtung bewegt wird;
• Empfangen (604) von Sekundärlicht, das im Sichtfeld von einem Objekt reflektiert und/oder gestreut wurde, mittels wenigstens einer Detektoreinheit, wobei die wenigstens eine Detektoreinheit eine Vielzahl von Bildpunkten aufweist, und wobei wenigstens einige Bildpunkte jeweils eine Mehrzahl von aktivierbaren Einzelphotonenlawinendioden aufweisen; und
• Verknüpfen (605) der Detektionssignale wenigstens zweier
Einzelphotonenlawinendioden eines Bildpunktes über eine kombinatorische Logik mittels eines Vernüpfers.
EP19742182.9A 2018-08-22 2019-07-17 Lidar-sensor zur optischen erfassung eines sichtfeldes, arbeitsvorrichtung oder fahrzeug mit einem lidar-sensor und verfahren zur optischen erfassung eines sichtfeldes Withdrawn EP3841402A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018214140.1A DE102018214140A1 (de) 2018-08-22 2018-08-22 LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
PCT/EP2019/069182 WO2020038663A1 (de) 2018-08-22 2019-07-17 Lidar-sensor zur optischen erfassung eines sichtfeldes, arbeitsvorrichtung oder fahrzeug mit einem lidar-sensor und verfahren zur optischen erfassung eines sichtfeldes

Publications (1)

Publication Number Publication Date
EP3841402A1 true EP3841402A1 (de) 2021-06-30

Family

ID=67383766

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19742182.9A Withdrawn EP3841402A1 (de) 2018-08-22 2019-07-17 Lidar-sensor zur optischen erfassung eines sichtfeldes, arbeitsvorrichtung oder fahrzeug mit einem lidar-sensor und verfahren zur optischen erfassung eines sichtfeldes

Country Status (7)

Country Link
US (1) US12174298B2 (de)
EP (1) EP3841402A1 (de)
JP (1) JP2021534415A (de)
KR (1) KR20210045457A (de)
CN (1) CN112912765B (de)
DE (1) DE102018214140A1 (de)
WO (1) WO2020038663A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11573324B2 (en) * 2018-11-28 2023-02-07 Texas Instruments Incorporated Lidar imaging receiver
WO2023010352A1 (zh) * 2021-08-04 2023-02-09 华为技术有限公司 一种探测方法及装置
CN116009009B (zh) * 2022-05-26 2023-06-30 湖南阿秒光学科技有限公司 Tof激光测量系统、激光发射和接收模组以及激光雷达
CN116840854B (zh) * 2023-09-01 2023-11-21 山东省科学院激光研究所 一种用于气溶胶探测的单光子激光雷达光学系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2866655B2 (ja) 1988-07-14 1999-03-08 東京電子工業株式会社 カソード電流安定化回路
AUPR301401A0 (en) 2001-02-09 2001-03-08 Commonwealth Scientific And Industrial Research Organisation Lidar system and method
JP2007170917A (ja) * 2005-12-20 2007-07-05 Hokuyo Automatic Co 光走査装置および被測定物検出装置
US9019150B2 (en) 2011-02-21 2015-04-28 TransRobotics, Inc. System and method for sensing distance and/or movement
DE102011005746A1 (de) * 2011-03-18 2012-09-20 Robert Bosch Gmbh Messvorrichtung zur mehrdimensionalen Vermessung eines Zielobjekts
US10126412B2 (en) * 2013-08-19 2018-11-13 Quanergy Systems, Inc. Optical phased array lidar system and method of using same
DE102013111547B4 (de) 2013-10-21 2021-01-21 Sick Ag Sensor mit um Drehachse beweglicher Abtasteinheit
US9395192B1 (en) * 2013-12-20 2016-07-19 Google Inc. Methods and systems for road and lane boundary tracing
CN104142506B (zh) 2014-08-15 2016-08-24 中国科学院上海技术物理研究所 一种基于压缩感知的激光雷达成像系统
CA2959335A1 (en) 2014-08-26 2016-03-03 Massachusetts Institute Of Technology Methods and apparatus for three-dimensional (3d) imaging
DE102014118149A1 (de) 2014-12-08 2016-06-09 Sick Ag Optoelektronischer Sensor und Verfahren zum Erfassen von Objekten
CN104570002B (zh) * 2014-12-29 2018-10-16 中国科学院合肥物质科学研究院 探测云精细结构的双波长四通道激光雷达系统
JP6482318B2 (ja) 2015-02-26 2019-03-13 ジックオプテックス株式会社 光学式変位計
US10324171B2 (en) 2015-12-20 2019-06-18 Apple Inc. Light detection and ranging sensor
WO2018128655A2 (en) 2016-09-25 2018-07-12 Okeeffe James Distributed laser range finder with fiber optics and micromirrors
JP6819098B2 (ja) * 2016-07-01 2021-01-27 株式会社リコー 物体検出装置、センシング装置及び移動体装置
US9914518B2 (en) 2016-07-05 2018-03-13 Platinum Marine, Inc. Watercraft adjustable shaft spacing apparatus and related method of operation
WO2018031830A1 (en) 2016-08-10 2018-02-15 Okeeffe James Laser range finding with enhanced utilization of a remotely located mirror
DE102016219955B4 (de) 2016-10-13 2024-04-25 Robert Bosch Gmbh Sendeeinheit zum Ausleuchten einer Umgebung, System und Verfahren zum Erfassen einer Umgebung mittels eines scanbaren Ausleuchtungsmusters
DE102016220468A1 (de) 2016-10-19 2018-04-19 Robert Bosch Gmbh Lidar-Sensor zur Erfassung eines Objektes
US10132921B2 (en) * 2016-11-02 2018-11-20 Stmicroelectronics (Research & Development) Ltd Light communications receiver and decoder with time to digital converters
DE102017202353B4 (de) 2017-02-14 2020-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur ermittlung eines abstands zu einem objekt und entsprechendes verfahren

Also Published As

Publication number Publication date
US20210311193A1 (en) 2021-10-07
DE102018214140A1 (de) 2020-02-27
KR20210045457A (ko) 2021-04-26
JP2021534415A (ja) 2021-12-09
WO2020038663A1 (de) 2020-02-27
CN112912765A (zh) 2021-06-04
CN112912765B (zh) 2024-07-12
US12174298B2 (en) 2024-12-24

Similar Documents

Publication Publication Date Title
EP3729137B1 (de) Multipuls-lidarsystem zur mehrdimensionalen erfassung von objekten
EP3168641B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
EP3279685B2 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
WO2020038663A1 (de) Lidar-sensor zur optischen erfassung eines sichtfeldes, arbeitsvorrichtung oder fahrzeug mit einem lidar-sensor und verfahren zur optischen erfassung eines sichtfeldes
DE102018109544A1 (de) Optoelektronischer Sensor und Verfahren zur Abstandsbestimmung
DE102018108340A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
DE10217295B4 (de) Bestimmung der Ausrichtung eines optoelektronischen Sensors
EP3581958A1 (de) Optoelektronischer sensor und verfahren zur erfassung von dreidimensionalen bilddaten
DE102016219955B4 (de) Sendeeinheit zum Ausleuchten einer Umgebung, System und Verfahren zum Erfassen einer Umgebung mittels eines scanbaren Ausleuchtungsmusters
EP3029494A1 (de) Optoelektronischer Sensor
DE102017107666A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung eines Objekts
DE102007004349A1 (de) Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE102019105478A1 (de) LIDAR-Sensoren und Verfahren für dieselben
EP3712647B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
DE102014118055A1 (de) Sendeeinrichtung, Empfangseinrichtung und Objekterfassungsvorrichtung für ein Kraftfahrzeug sowie Verfahren dafür
EP3798671A2 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
EP3329300B1 (de) Optische sensorvorrichtung für ein kraftfahrzeug zum zweidimensionalen abtasten eines umgebungsbereiches des kraftfahrzeugs, kraftfahrzeug sowie verfahren
EP3650888B1 (de) Optoelektronischer sensor und verfahren zur erfassung und abstandsbestimmung von objekten
EP3736603B1 (de) Optoelektronischer sensor und verfahren zur überwachung eines überwachungsbereichs
EP4063902A1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
DE102017204587A1 (de) Verfahren und Vorrichtung zum Abtasten eines Raumwinkels
EP3805790A1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
DE102022208340A1 (de) Verfahren zur Vermeidung des optischen Übersprechens in einem Lidarsystem
EP4045931A1 (de) Multipuls-lidarsystem und verfahren zur erfassung eines objekts in einem beobachtungsbereich
WO2023247474A1 (de) Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug aufweisend wenigstens ein lidar-system

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210322

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20240321

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20240723