DE3919917C2 - - Google Patents
Info
- Publication number
- DE3919917C2 DE3919917C2 DE3919917A DE3919917A DE3919917C2 DE 3919917 C2 DE3919917 C2 DE 3919917C2 DE 3919917 A DE3919917 A DE 3919917A DE 3919917 A DE3919917 A DE 3919917A DE 3919917 C2 DE3919917 C2 DE 3919917C2
- Authority
- DE
- Germany
- Prior art keywords
- light sources
- matrix
- optical sensor
- sensitive component
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
- G01S17/48—Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die Erfindung betrifft einen optischen Sensor zum Identifizieren eines Körpers
gemäß dem Oberbegriff des Anspruchs 1.
Bildverarbeitende Systeme bestehen stets aus den Komponenten Bildaufnehmer-
und Bildverarbeitungssystem, die aufgrund der hohen Komplexität meist örtlich
voneinander getrennt werden müssen. Die wünschenswerte Eigenschaft, die
Intelligenz in den eigentlichen Sensor zu implementieren, ist nur bedingt oder
überhaupt nicht möglich.
Bildaufnehmersysteme betrachten stets die gesamte Szene, beschränken also
ihren Informationsgehalt nicht auf das für die eigentliche Aufgabe notwendige Maß.
Zur Extrahierung der gewünschten Information aus der großen Datenmenge
müssen deshalb komplizierte und zeitaufwendige Algorithmen angewandt werden.
Bei der Positionierung von Aktoren (z. B. Roboterarm) auf ein Objekt sind oftmals
verschiedene Zusatzinformationen notwendig. Beispielsweise muß bei einer Betrachtung
der Szene von oben herab die Größe des Objekts, die Größe des
Roboterarms und der Abstand zwischen Bildaufnehmer und Szene bekannt sein,
um einen absoluten Positionierbetrag zu erhalten. Bei Veränderungen der örtlichen
Gegebenheiten muß das System neu parametriert werden.
Kamerabildaufnehmersysteme sehen stets zweidimensional, das heißt, sie
spannen eine x-y-Ebene ohne Tiefenwirkung (z-Ebene) auf. Für dreidimensionale
Problemstellungen sind oft zwei Bildaufnehmer erforderlich. Die Informationen
beider Aufnehmer muß in geeigneter Weise zusammengeführt werden, um einen
räumlichen Eindruck des Objektes zu erhalten.
Des weiteren sind optische Taster und Reflexschranken bekannt. Mit optischen
Tastern unter Zuhilfenahme von Lichtleitern oder mit Reflexschranken wäre es
möglich eine x-y-Ebene aufzuspannen. Um eine hinreichende Auflösung zu
erzielen sind allerdings sehr viele Einzelkomponenten notwendig, die in ihrer
Anordnung unflexibel sind und viel Platz in Anspruch nehmen.
Ebenso sind positionsempfindliche Bauelemente (PSD) bekannt, deren sensitive
Fläche eine Position zu identifizieren imstande ist, aufgrund eines empfangenen
Beleuchtungssignals. Entsprechend dem Einfallswinkel des Beleuchtungssignals
gibt die positionsempfindliche Diode ein entsprechendes elektrisches Signal ab,
welches weiterverarbeitet werden kann.
Durch die DE-33 37 251 A1 ist ein optisches Abtastverfahren zur dreidimensionalen
Vermessung von Objekten mit einer eindimensionalen Empfängerzeile bekannt
geworden, welches auf der Triangulationsmethode beruht. Zur optischen Adressierung
eines Meßpunktes werden der parallel zu sich selbst bewegbare
Beleuchtungs- und Beobachtungsstrahl über je einen mechanischen Lichtablenker
geführt, der ein Spiegelrad ist, welches so synchronisiert ist, daß die durch die
Abtastung entstehende Verschiebung des auf dem Objekt erzeugten Lichtflecks
relativ zum Empfänger kompensiert wird. Nachteilig in der Anordnung sind die
bewegten Elemente, wie Spiegelrad und Linsen.
Aufgabe zur Erfindung ist es, einen optischen Sensor der eingangs genannten
Gattung zu schaffen, der die notwendig anfallende Datenmenge auf das notwendigste
Maß reduziert und die ausgewerteten Informationen ohne Umwege und
externer Verarbeitung dem Aktor zur Verfügung stellt, wobei die Erfassung von
Objekten im dreidimensionalen Raum möglich sein soll; ebenso soll der optische
Sensor so kompakt ausgeführt sein, daß er in einem Aktor integriert werden kann.
Diese Aufgabe wird gelöst durch die Merkmale des Anspruchs 1. Weitere Ausgestaltungen
der Erfindung sind in den Unteransprüchen gekennzeichnet.
Der erfindungsgemäße optische Sensor arbeitet nach dem Triangulationsprinzip
und wertet die diffuse Reflexion des Objektes aus. Dabei sollte die optische
Rauhigkeit des Objekts größer als 2 Mikrometer sein. In vorteilhafter Weise reduziert
der Sensor die anfallenden Datenmengen aufgrund seines Wirkungsprinzips
auf das notwendige Maß an Datenmengen, wobei die Auswertung der Information,
vorzugsweise mittels eines integrierten Mikroprozessors, ohne Umwege und ohne
einer externen Verarbeitung im Sensor stattfindet und dem Aktor zur Verfügung
steht. In vorteilhafter Weise kann der optische Sensor Objekte sowohl im Raum als
auch zweidimensional in einer Ebene identifizieren.
Ein mit dem erfindungsgemäßen Sensor ausgestatteter Aktor besitzt in vorteilhafter
Weise eine hohe Flexibilität, weil der Sensor leicht in einen Aktor zu integrieren ist.
Da der Sensor einfach in seinem Aufbau ist, ist er auch gegenüber Umgebungseinflüssen,
wie unterschiedliche Intensität des empfangenen Lichts, unempfindlich.
Durch die beliebige Wählbarkeit der Anzahl der Lichtquellen kann ein praktisch
beliebiges Auflösungsvermögen des Sensors erzielt werden.
Eine dreidimensionale Identifizierung eines Objektes kann auf mehrfache Weise
erzielt werden. Entweder können sich die Lichtquellen in einer Matrix in mehreren
Reihen, zum Beispiel kaskadenartig, parallel zueinander befinden, so daß schon
die Lichtquellen eine Ebene aufspannen. Aufgrund der Wirkungsweise der PSD's
und der Triangulations-Meßmethode kann dann ein Objekt im Raum eindeutig
identifiziert und dessen Lage bestimmt werden.
Ebenso ist es möglich, nur mit einer einzigen Zeile von Lichtquellen zu arbeiten
und in diesem Fall zur Bestimmung der Lage im Raum den Sensor in der dritten
Raumrichtung zu verfahren.
Die Lichtquellen werden diskret nacheinander angesteuert - vorzugsweise durch
einen Multiplexer - und senden vorteilhafterweise kurze Lichtblitze aus, welche
nacheinander von den positionsempfindlichen Bauelementen empfangen und
deren elektrische Signale von einer Auswerteelektronik ausgewertet werden.
Zwei Beispiele der Erfindung sind in der Zeichnung dargestellt, in der zeigen:
Fig. 1 ein Ausführungsbeispiel eines optischen Sensors mit geschnittenem
Gehäuse,
Fig. 2 eine Draufsicht auf das Gehäuse von vorn zur Darstellung der Zeile von
Lichtquellen und
Fig. 3 eine Prinzip-Darstellung des Sensors.
Die prinzipielle Wirkungsweise des Sensors ist anhand der Fig. 3 nachfolgend
beschrieben. Eine beliebige - aber nicht unnötig große - Anzahl n von Lichtquellen
14 mit möglichst kleinem Strahldurchmesser und Divergenzwinkel (Beam) befinden
sich in einer Reihe nebeneinander mit den gegebenen Basisweiten Bi und
erzeugen die Sendestrahlen S₁ bis Sn. Sie stellen die ortsdiskrete x-Koordinatenachse
des Systems dar (i = 1 . . . n). In dieser Anordnung befinden sich auf der
linken und rechten Seite jeweils eine Empfangsoptik 16, 16′ und eine Positionsdiode
17, 17′ in einem bestimmten Winkel β bezüglich der x-Koordinatenachse.
Bei einem gegebenen Winkelbereich, Wmax, Wmin, spannen die Empfangsoptiken
16, 16′ mit den Sendestrahlen S₁- Sn eine optisch aktive Ebene auf, innerhalb
derer sich das Objekt 15 befinden muß. Für die folgenden Betrachtungen soll nur
die linke Empfangsanordnung, bestehend aus Empfangsoptik 16 und Positionsdiode
17, herangezogen werden; für die Empfangsoptik 16′ und die Positionsdiode
17′ gelten bis auf i = n . . . 1 die gleichen Aussagen.
Die Sendestrahlen S₁-Sn werden in zeitlicher Reihenfolge nacheinander erzeugt.
Hierbei handelt es sich um kurze Lichtblitze, von links nach rechts laufend. Befindet
sich ein Objekt 15 in der optisch aktiven Ebene bzw. im optisch aktiven Raum, so
erzeugt jeder Sendestrahl S₁ . . . Sn einen diffusen Leuchtfleck auf dem Objekt.
Dieser Leuchtfleck wiederum wird an einer bestimmten Position pi auf der
Positionsdiode abgebildet. Anhand dieser Position kann die Entfernung Di des
Punktes Pi bestimmt werden. Man erhält damit ein Entfernungsfeld der Form:
F = (D1, D2, . . . Dn).
Die kontinuierliche Distanz Di stellt die y-Koordinate dar, während die Basisweite Bi
die entsprechende ortsdiskrete x-Koordinate repräsentiert. Diesem Entfernungsfeld
F kann folgender Informationsgehalt entnommen werden:
Mittels Korrelation des gemessenen mit einem abgespeicherten Entfernungsfeld ist
eine Identifizierung des Objekts möglich. Eigentlich wird hierbei die Kontur ermittelt
und mit Referenzkonturen verglichen.
Nach erfolgter Identifizierung es - ebenfalls mittels Korrelation - möglich, die
Orientierung (Verdrehung) bezüglich des x-y-Koordinatensystems zu definieren.
Wertet man diese Informationen aus, so kann aufgrund der mittels des Sensors
gewonnenen Informationen ein Winkel berechnet werden, um den sich ein mittels
des Sensors gesteuerter Aktor zu drehen hätte, damit das Objekt gegriffen werden
kann.
Mittels geeigneter Verfahren läßt sich ein Vektor mit Richtung und Betrag ermitteln,
der dem Aktor die Information übermittelt, um ein Objekt zu ergreifen.
Deshalb ermittelt dieses Sensorprinzip gerade nur die Daten, die für die oben
genannten Aufgaben notwendig sind. Zum Beispiel ergeben 32 Sendestrahlen mit
einer Entfernungsauflösung von 8 Bit ein Entfernungsfels F mit 32 Byte.
Der Hauptstrahlungswinkel α der Sendestrahlen S₁-Sn in bezug zur Richtung der
x-Koordinate ist vorgebbar und beträgt vorzugsweise 90 Grad. Die Abstände Bi der
einzelnen Sendestrahlen S₁-Sn voneinander sind ebenfalls vorgebbar, müssen
aber nicht konstant sein. Die dritte Raumkoordinate, hier die Z-Achse, kann auch
durch Kaskadierung gewonnen werden.
In vorteilhafter Weise werden die analogen Signalströme der beiden positionsempfindlichen
Dioden PSD's in je ein digitales Wort verwandelt, um im Mikroprozessorsystem
weiterverarbeitet zu werden. Deshalb muß spätestens nach der
Berechnung der Position p eines Punktes P eine diskrete Wandlung mittels eines
Analog-Digital-Wandlers erfolgen.
Die folgenden Größen der geometrisch-optischen Anordnung sind vorgegeben:
Dmin = minimale Distanz der optisch aktiven Ebene
(= minimale y-Koordinate),
Dmax = maximale Distanz der optisch aktiven Ebene
(= maximale y-Koordinate),
Bmin = minimale Basisweite (= minimale x-Koordinate) entspricht hier dem linken Rand der aktiven Ebene,
Bmax = maximale Basisweite (= maximale x-Koordinate) entspricht hier dem rechten Rand der aktiven Ebene,
Dx = gewünschte Auflösung auf der diskreten x-Koordinatenachse.
(= minimale y-Koordinate),
Dmax = maximale Distanz der optisch aktiven Ebene
(= maximale y-Koordinate),
Bmin = minimale Basisweite (= minimale x-Koordinate) entspricht hier dem linken Rand der aktiven Ebene,
Bmax = maximale Basisweite (= maximale x-Koordinate) entspricht hier dem rechten Rand der aktiven Ebene,
Dx = gewünschte Auflösung auf der diskreten x-Koordinatenachse.
Die Anzahl der notwendigen Sendestrahlen N läßt sich dann mit
berechnen. Man erhält somit die diskrete x-Koordinate in Form:
Bi = Bmin + (i-1) Dx
i = 1 . . . N (i = Laufindex der diskreten x-Koordinate)
Anhand dieser Größe läßt sich der notwendige Winkelbereich β der Empfangsoptik
berechnen.
Des weiteren zeigen die Fig. 1 und 2 eine technische Ausführungsform des
optischen Sensors. Innerhalb eines Gehäuses 11, welches als Greiferhand mit
zwei seitlichen Gehäuseenden 10, 10′ ausgeführt ist, befindet sich ein Linsenblock
1, über dem als Gehäusewandung eine lichtdurchlässige Abdeckscheibe 5,
vorzugsweise aus Mineralglas, angeordnet ist. Unterhalb des Linsenblocks 1
befindet sich eine Zeile 13 (Fig. 2) von Lichtquellen, die vorzugsweise LED's
sind. Der Linsenblock 1 dient zur Fokussierung der von den LED's ausgesendeten
Lichtstrahlen; Linsenblock 1 und LED-Zeile 13 bilden zusammen die
Senderanordnung des Sensors.
Die Abdeckscheibe 5 an beiden Enden seitlich hochgezogen und geht in die
Gehäusewandung der Gehäuseenden 10, 10′ über, wobei unterhalb dieser hochgezogenen
Enden der Abdeckscheibe 5 je eine Empfangsoptik 3, 3′ angeordnet
ist, unterhalb derselben sich je eine positionsempfindliche Diode 4, 4′ befinden.
Die Dioden sind jeweils unter einem stumpfen Winkel β, bezogen auf die oben
genannte X-Achse, zueinander geneigt angeordnet. Im unmittelbaren Bereich der
Dioden 4, 4′ befindet sich je eine Empfangselektronik 6, 6′, die sich somit ebenfalls
vorzugsweise in den Gehäuseenden 10, 10′ des Gehäuses 11 befinden.
Die LED's werden mittels einer Sendeelektronik 7 angesteuert, die einen
Multiplexer beinhaltet, um die einzelnen Lichtquellen zeitlich nacheinander anzuregen.
Des weiteren befindet sich innerhalb des Gehäuses 11 eine Auswerteelektronik
8, die u. a. einen Digital-Analog-Wandler beinhaltet und die die Ausgangssignale
der positionsempfindlichen Dioden 4, 4′ bzw. der Empfangselektronik 6, 6′
weiterverarbeitet. Mit der Bezugsziffer 9 ist eine Steckverbindung gekennzeichnet,
zum Übermitteln der Ausgangssignale zum (nicht gezeigten) Aktor.
Die maximalen Empfangswinkel der positionsempfindlichen Dioden spannen eine
aktive Ebene 12 bzw. einen aktiven Raum auf, innerhalb der sich ein Objekt
befinden muß, um identifiziert zu werden, wobei in der Ebene oder im Raum die
absolute Lage des Objektes oder auch des Sensors selbst bestimmt werden kann.
Der erfindungsgemäße optische Sensor ist dazu geeignet, beispielsweise in
Roboterarmen die Lage eines zu greifenden Objektes zu bestimmen, damit das
selbe von den Greifern angesteuert und ergriffen werden kann. Ebenso kann der
optische Sensor zum Identifizieren von Objekten in der zweidimensionalen Ebene
dienen. Ebenso können damit Objekte dreidimensional identifiziert und Ober
flächenstrukturen erfaßt werden. Ebenso können mit dem Sensor Rotationen eines
Aktors vorgegeben werden.
Liste der Bezugszeichen:
1 Linsenblock
2 LED-Zeile diskrete LED's
3, 3′ Empfangsoptiken
4, 4′ positionsempfindliche Bauelemente, vorzugsweise PSD's
5 lichtdurchlässige Abdeckscheibe
6, 6′ Empfangselektroniken
7 Sendeelektronik
8 Auswerteelektronik mit Mikrocomputer-Einheit
9 Steckverbinder
10, 10′ Gehäuseenden
11 Gehäuse
12 aktive Ebene oder aktiver Raum
13 Linienzeile der einzelnen Linsen des Linsenblocks
14 Lichtquellen
15 Objekt
16, 16′ Empfangsoptiken
17, 17′ positionsempfindliche Bauelemente (PSD-Dioden)
S₁-Sn Sendestrahlen
Bi Abstand der diskreten Lichtquelle voneinander
pn-1-p₁ Orte des Empfangssignals auf der PSD-Diode
α Hauptstrahlungswinkel des gesendeten Lichtes zur X-Koordinate
β (stumpfer) Winkel der Optik und der PSD-Diode zur X-Koordinate
2 LED-Zeile diskrete LED's
3, 3′ Empfangsoptiken
4, 4′ positionsempfindliche Bauelemente, vorzugsweise PSD's
5 lichtdurchlässige Abdeckscheibe
6, 6′ Empfangselektroniken
7 Sendeelektronik
8 Auswerteelektronik mit Mikrocomputer-Einheit
9 Steckverbinder
10, 10′ Gehäuseenden
11 Gehäuse
12 aktive Ebene oder aktiver Raum
13 Linienzeile der einzelnen Linsen des Linsenblocks
14 Lichtquellen
15 Objekt
16, 16′ Empfangsoptiken
17, 17′ positionsempfindliche Bauelemente (PSD-Dioden)
S₁-Sn Sendestrahlen
Bi Abstand der diskreten Lichtquelle voneinander
pn-1-p₁ Orte des Empfangssignals auf der PSD-Diode
α Hauptstrahlungswinkel des gesendeten Lichtes zur X-Koordinate
β (stumpfer) Winkel der Optik und der PSD-Diode zur X-Koordinate
Claims (6)
1. Optischer, nach dem Triangulationsprinzip arbeitender Sensor für die Identifi
zierung eines Körpers und/oder Bestimmung der Lage des Körpers oder Sensors
im Raum bezüglich eines gegebenen Koordinatensystems, vorzugsweise zur
Steuerung eines Aktors, mit einem Sendelichtstrahl, der zu sich selbst parallel
verschoben den Körper sequentiell abtastet und mit wenigstens einem positions
empfindlichen Bauelement (PSD=Position-Sensitive-Detector), dem eine Optik
zugeordnet ist, die das vom Körper diffus zurückgestreute Licht auf das positions
empfindliche Bauelement fokussiert und dessen Ortssignal ausgewertet wird,
dadurch gekennzeichnet,
daß der Sensor in Form einer Matrix in Reihe (13) nebeneinanderliegende
diskrete Lichtquellen (1-2; 14) aufweist, deren Abstände (Bi) voneinander und
Hauptstrahlungswinkel (α) ihrer Sendestrahlen (S₁-Sn) bezüglich der Ebene der
Matrix vorgebbar sind, und daß seitlich der Matrix von Lichtquellen unter einem
gegebenen Winkel (β) zwischen 90 und 180 Grad zur Ebene der Matrix wenigstens ein
positionsempfindliches Bauelement (4, 4′; 17, 17′) angeordnet ist, das mit den
Sendestrahlen der Lichtquellen einen optisch aktiven Raum (12) aufspannt und mit
einer elektrischen Ansteuerelektronik mit einem Zeitmultiplexer zum diskret
nacheinander erfolgenden Ansteuern der Lichtquellen und mit einer dem
positionsempfindlichen Bauelement (4, 4′) nachgeschalteten elektrischen Aus
werteeinrichtung (6, 6′, 8).
2. Optischer Sensor nach Anspruch 1 zur Identifizierung eines Körpers und
Bestimmung seiner Lage nur in der Ebene,
dadurch gekennzeichnet, daß
die Matrix aus Lichtquellen (1-2) aus nur einer Reihe (13) von diskreten
Lichtquellen besteht.
3. Optischer Sensor nach Anspruch 1,
dadurch gekennzeichnet, daß
der Hauptstrahlungswinkel (α), unter dem die Sendestrahlen (S₁-Sn) der
Lichtquellen (14) abgestrahlt werden, 90 Grad beträgt.
4. Optischer Sensor nach Anspruch 2,
dadurch gekennzeichnet,
daß zur Erzeugung einer Abtastung im Raum mittels einer zeilenförmigen
Lichtquelle (1-2) die Reihe (13) der diskreten Lichtquellen (1-2) mitsamt dem
positionsempfindlichen Bauelement (4, 4′) in Richtung der dritten Raumkoordinate
beweglich ist.
5. Optischer Sensor nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß
vorzugsweise an beiden Enden der Matrix von Lichtquellen (1-2; 14)
wenigstens ein positionsempfindliches Bauelement (4, 4′; 17, 17′) angeordnet ist.
6. Optischer Sensor nach einem der vorherigen Ansprüche,
dadurch gekennzeichnet,
daß derselbe die Form einer Greiferhand (10, 10′, 11) aufweist, wobei die
Lichtquellen aus einem in einer Ebene liegenden Linsenblock (1) gebildet sind,
unter dem sich eine entsprechende Anzahl von Lichtdioden (LED's) (2) befinden,
wobei sich die Empfangsoptik (3, 3′) an die Enden des Linsenblockes anschließen
und unter den Empfangsoptiken die positionsempfindlichen Dioden (4, 4′)
zusammen mit je einer Empfangselektronik (6, 6′) angeordnet sind.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE3919917A DE3919917A1 (de) | 1989-06-19 | 1989-06-19 | Optischer sensor fuer die identifizierung eines koerpers |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE3919917A DE3919917A1 (de) | 1989-06-19 | 1989-06-19 | Optischer sensor fuer die identifizierung eines koerpers |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3919917A1 DE3919917A1 (de) | 1991-01-03 |
DE3919917C2 true DE3919917C2 (de) | 1991-06-27 |
Family
ID=6383007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3919917A Granted DE3919917A1 (de) | 1989-06-19 | 1989-06-19 | Optischer sensor fuer die identifizierung eines koerpers |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE3919917A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007054596A1 (de) | 2007-11-15 | 2009-05-20 | Pepperl + Fuchs Gmbh | Optischer Sensor und Verfahren zur Positionsbestimmung von Objekten |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4129702C2 (de) * | 1991-03-25 | 1994-08-11 | Heidelberger Druckmasch Ag | Verfahren und Vorrichtung zur optischen Messung der Differenzentfernung zwischen zwei Objekten |
DE19532767C2 (de) * | 1995-09-05 | 2000-12-28 | Fraunhofer Ges Forschung | Triangulationsverfahren |
DE19749435B4 (de) * | 1997-11-09 | 2005-06-02 | Mähner, Bernward | Verfahren und Vorrichtung zur dreidimensionalen, flächenhaften, optischen Vermessung von Objekten |
DE10012138B4 (de) * | 2000-03-13 | 2010-02-25 | Sick Ag | Verfahren und Vorrichtung zur Erfassung von Kantenbereichen von Objekten |
EP1302742B1 (de) * | 2001-10-16 | 2016-03-30 | Datalogic IP Tech S.r.l. | Optoelektronisches Rastersystem zur Messung der Form und/oder des Volumens von Körpern |
CA2518976A1 (en) * | 2003-03-18 | 2004-09-30 | Alexander Thomas Hermary | Coded-light dual-view profile scanner |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3337251A1 (de) * | 1983-10-13 | 1985-04-25 | Gerd Dipl.-Phys. Dr. 8520 Erlangen Häusler | Optisches abtastverfahren zur dreidimensionalen vermessung von objekten |
-
1989
- 1989-06-19 DE DE3919917A patent/DE3919917A1/de active Granted
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007054596A1 (de) | 2007-11-15 | 2009-05-20 | Pepperl + Fuchs Gmbh | Optischer Sensor und Verfahren zur Positionsbestimmung von Objekten |
EP2065732A2 (de) | 2007-11-15 | 2009-06-03 | Pepperl + Fuchs GmbH | Optischer Sensor und Verfahren zur Positionsbestimmung von Objekten |
Also Published As
Publication number | Publication date |
---|---|
DE3919917A1 (de) | 1991-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0892280B1 (de) | Verfahren zum Betrieb einer opto-elektronischen Sensoranordnung | |
EP0596330B1 (de) | Anordnung zum messtechnischen Erfassen von Lastpendelungen bei Kranen | |
DE69119500T2 (de) | System und Verfahren zur dreidimensionalen Positionserfassung | |
AT412032B (de) | Verfahren zur aufnahme eines objektraumes | |
EP0388390A2 (de) | Inkrementales Messsystem | |
EP3819671A1 (de) | Optoelektronischer sensor und verfahren zur erfassung von objekten | |
DE102008039838A1 (de) | Verfahren zum Abtasten der dreidimensionalen Oberfläche eines Objekts mittels eines Lichtstrahl-Scanners und Vorrichtung zur Durchführung des Verfahrens | |
EP1239300A2 (de) | Vorrichtung zur Bestimmung eines Abstandprofils | |
DE102016114995A1 (de) | Vorrichtung und Verfahren zur Aufnahme von Entfernungsbildern | |
DE102019103519B4 (de) | Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts | |
WO1999046612A1 (de) | Optisches sensorsystem zur detektion der position eines objektes | |
EP2865987B1 (de) | Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche | |
EP0388618A2 (de) | System zur Bestimmung der Lage eines Objektes im Raum mit Hilfe eines videooptischen Sensors | |
DE102017212371B4 (de) | Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene | |
DE3919917C2 (de) | ||
DE4212404A1 (de) | Vorrichtung zum messen der raeumlichen form eines langgestreckten bauteils | |
DE10026711B4 (de) | Positionsüberwachungsvorrichtung und -verfahren | |
WO1990002313A1 (de) | Optoelektronische messanordnung | |
AT412029B (de) | Verfahren zur aufnahme eines objektraumes | |
EP0979796A1 (de) | Vorrichtung und Verfahren zur zweidimensionalen Bestimmung von Lastpendelungen und/oder Rotationen an einem Kran | |
DE10051415A1 (de) | Optisches Trackingsystem und -verfahren | |
DE69223544T2 (de) | Verfahren und Vorrichtung zum Messen des Profils eines Objekts | |
EP4053498B1 (de) | Scanner, damit ausgestattete ermittlungs-vorrichtung sowie verfahren für deren betrieb | |
DE102013007859B3 (de) | Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt | |
EP2932188B1 (de) | Gerät mit beweglichem geräteteil, insbesondere koordinatenmessgerät oder werkzeugmaschine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |