DE19911419A1 - Digitales Bereichssensorsystem - Google Patents
Digitales BereichssensorsystemInfo
- Publication number
- DE19911419A1 DE19911419A1 DE19911419A DE19911419A DE19911419A1 DE 19911419 A1 DE19911419 A1 DE 19911419A1 DE 19911419 A DE19911419 A DE 19911419A DE 19911419 A DE19911419 A DE 19911419A DE 19911419 A1 DE19911419 A1 DE 19911419A1
- Authority
- DE
- Germany
- Prior art keywords
- light
- area sensor
- detector
- target
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 53
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 24
- 238000005259 measurement Methods 0.000 claims description 23
- 230000005484 gravity Effects 0.000 claims description 18
- 230000000694 effects Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 11
- 230000002441 reversible effect Effects 0.000 claims description 4
- 230000004075 alteration Effects 0.000 claims description 3
- 235000015241 bacon Nutrition 0.000 claims description 3
- 229910044991 metal oxide Inorganic materials 0.000 claims description 3
- 150000004706 metal oxides Chemical class 0.000 claims description 3
- 239000004065 semiconductor Substances 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims 3
- 229910052729 chemical element Inorganic materials 0.000 claims 2
- 235000013305 food Nutrition 0.000 claims 2
- 241001397173 Kali <angiosperm> Species 0.000 claims 1
- KWYUFKZDYYNOTN-UHFFFAOYSA-M Potassium hydroxide Chemical compound [OH-].[K+] KWYUFKZDYYNOTN-UHFFFAOYSA-M 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 239000000976 ink Substances 0.000 claims 1
- 229940072033 potash Drugs 0.000 claims 1
- 235000015320 potassium carbonate Nutrition 0.000 claims 1
- BWHMMNNQKKPAPP-UHFFFAOYSA-L potassium carbonate Substances [K+].[K+].[O-]C([O-])=O BWHMMNNQKKPAPP-UHFFFAOYSA-L 0.000 claims 1
- 230000006870 function Effects 0.000 description 44
- 230000008901 benefit Effects 0.000 description 11
- 239000000523 sample Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 239000000428 dust Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 3
- 230000005499 meniscus Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 206010010071 Coma Diseases 0.000 description 2
- 201000009310 astigmatism Diseases 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000004441 surface measurement Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 239000006117 anti-reflective coating Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000006059 cover glass Substances 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
- G01S17/48—Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4811—Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Lenses (AREA)
Abstract
Ein digitaler Bereichssensor beinhaltet eine Lichtquelle, ein optisches Element zum Herunterfokussieren des Lichts von der Quelle auf einen kleinen Fleck auf einem Ziel, ein zweites optisches Element, das schräg gegen die Quellenachse angebracht ist, und ein Prisma, das auf einem Mehrelementedetektor angebracht ist, der seinerseits im Brennpunkt des vom Ziel zurücklaufenden Lichts angebracht ist. Der Zweck des Prismas auf dem Detektor besteht darin, das Licht unter einem Winkel näher am normalen Einfall auf die aktive Fläche des Detektors zu lenken, als dies anderenfalls möglich wäre. Der Detektor erzeugt digitale Daten, die zur Verarbeitung und zum Erzeugen eines numerischen Bereichsmeßwerts an ein Steuerungsmodul übertragen werden.
Description
Die Erfindung betrifft lichtgestützte Bereichssensoren, im
Allgemeinen lasergestützte Bereichssensoren, die optische
Messungen hoher Genauigkeit an Oberflächen mit variierenden
Profilen und variierendem Reflexionsgrad ausführen. Genauer
gesagt, betrifft die Erfindung kontaktfreie Sensoren, die
den Abstand vom Sensorkopf zur getesteten Oberfläche optisch
messen.
Oberflächenprofil-Nachfahrvorrichtungen hoher Genauigkeit
waren in der Vergangenheit hauptsächlich vom Kontakttyp. Zum
Abtasten der getesteten Oberfläche wird ein Stift mit kugel
förmigem Rubin (mit einem Radius von typischerweise 1 mm)
verwendet. Bei einigen Systemen wird die Auslenkung der Son
de durch das Schließen eines mechanischen Mikroschalters ge
messen; bei anderen Systemen wird die Auslenkung kapazitiv
gemessen. Obwohl derartige Sonden auf geeigneten Materialien
extrem genau sein können, ist der Bereich geeigneter Mate
rialien begrenzt. Ungenaue Ablesewerte oder Beschädigungen
können auftreten, wenn die Probe ungeeignet ist. Zu Beispie
len ungeeigneter Proben gehören: weiche, flüssige oder kleb
rige Materialien, sehr dünne Proben, die sich unter dem
Stiftdruck verformen würden, Proben, mit Hohlräumen mit ei
nem Radius unter dem des Radius der Spitze, oder Proben, de
ren Berührung gefährlich ist. Außerdem muss, um die Abnut
zung der Sonde und der Probe zu minimieren, die Messge
schwindigkeit niedrig gemacht werden.
Als Alternative zu elektromechanischen Kontrolleinrichtungen
und Kontaktsonden mit Rubinspitze wurden verschiedene Arten
von Messsystemen unter Verwendung optischer Triangulation
entwickelt. Das US-Patent 4,733,969 offenbart eine Laserson
de zum Bestimmen des Abstands von der Sonde zum Testobjekt
durch Aufstrahlen von Laserlicht auf eine Zieloberfläche
durch eine Linse an der Quelle hindurch. Das Licht wird
durch eine Empfangslinse hindurch an der Zieloberfläche re
flektiert und auf ein Paar Detektoren gelenkt. Auf den ers
ten Detektor fallendes Licht zeigt an, dass sich der Sensor
(oder die Sonde) innerhalb des Bereichs zum Ausführen einer
Messung befindet. Licht, das in gleicher Weise, oder in vor
bestimmtem Anteil, auf die zwei Detektoren fällt, zeigt an,
dass ein Auslösepunkt erreicht ist und eine Koordinatenmes
sung vorgenommen werden soll. Licht, das den zweiten Detek
tor verlässt, zeigt an, dass sich der Sensor nicht mehr im
Bereich für Messungen befindet. Die Sonde kann den Laser
strahl auf ungefähr 0,001 Zoll fokussieren. Alternativ kann
eine Zylinderlinse eingebaut sein, um ein Streifenmuster auf
das Zielobjekt zu projizieren. Die Lasersonde kann unter
Verwendung eines Reflexionsspiegels und zusätzlicher Fokus
sierlinsen mit kompakter Konfiguration hergestellt werden.
Zu den Vorteilen dieser Lasersonde gehört die Fähigkeit, ei
ne Integration mit vorhandenen Koordinatenmessmaschinen vor
zunehmen, die Erzeugung einer sehr kleinen Fleckgröße zur
Messung sehr kleiner und detaillierter Objekte sowie eine
Sondenansprechgeschwindigkeit, die hoch und genau ist. Un
glücklicherweise liefert diese Vorrichtung nur einen Binär
vergleich für den Abstand gegenüber einer vorbestimmten Be
zugsposition, wohingegen ein numerischer Bereichsablesewert
allgemeiner nutzbar wäre.
Die US-Patente 4,891,772 und 4,872,747 beschreiben einen
Punkt- und Linienbereichssensor, der einen numerischen Be
reichsablesewert auf Grundlage optischer Triangulation er
zeugt. Erneut wird Laserlicht auf eine Zielfläche gelenkt.
Das an der Zielfläche reflektierte Licht wird durch eine
Kollimationslinse geführt, um auf einem geeigneten Mehrele
mentdetektor einen Lichtfleck zu erzeugen, und es wird die
Position des Lichtflecks analysiert.
Ein Schlüsselmerkmal der in den US-Patenten 4,891,772 und
4,872,747 offenbarten Vorrichtung ist die Verwendung von
Prismen zum Erzeugen einer anamorphotischen Vergrößerung.
Diese Technik macht das Instrument kompakter, während sie es
ermöglicht, dass das Licht konzentriert bleibt, was das
Funktionsvermögen des Instruments verbessert. Nachdem das
zurücklaufende Licht durch die Kollimationslinse gelaufen
ist, wird es auf die im Wesentlichen rechtwinklige Fläche
eines Prismas gelenkt. Das Licht verlässt das Prisma unter
einem spitzen Winkel, was für größere Winkelvergrößerung
sorgt. Eine Fokussierlinse lenkt das austretende, kollimier
te Licht auf die Oberfläche eines Detektors, und es wird ein
Bereichsmesswert bestimmt. Alternativ, und vorzugsweise,
werden zwei Prismen verwendet, von denen jede für ungefähr
dieselbe Vergrößerung sorgt. Dieses Schema liefert besseres
Funktionsvermögen als ein einzelnes Prisma, da die Disper
sion und Verzerrung vom ersten Prisma durch entgegengesetzte
Dispersion und Verzerrung vom zweiten Prisma in starkem Um
fang aufgehoben werden kann. Das zweite Prisma kann so aus
gerichtet werden, dass es für interne Totalreflektion sorgt,
was die Bausteingröße weiter verringern kann. Zu den Vortei
len dieses Systems gehören das Vermeiden eines Kontakts mit
dem Zielobjekt, eine kleine Bausteingröße und die Fähigkeit,
Nachvergrößerungs-Lichtpegel auf wesentlich höheren Pegeln
als bei nicht anamorphotischen Systemen zu halten.
Mindestens eine Beschränkung der Vorrichtung der US-Patente
4,891,772 und 4,872,747 besteht darin, dass die anamorphoti
sche Vergrößerung zu einem beträchtlichen feldabhängigen
Astigmatismus führt. Dies bewirkt, dass sich der Fleck auf
dem Detektor zu den Enden des Arbeitsbereichs des Sensors
hin verbreitert, was die Unsicherheit des Fleckorts erhöht.
Der Astigmatismus rührt von grundlegenden Eigenschaften der
Bilderzeugung aus geneigten Ebenen her und kann durch keine
einfache Optimierung von Oberflächenradien und -neigungen
verringert werden.
Das US-Patent 5,633,721 beschreibt eine Vorrichtung zur Er
fassung einer Oberflächenposition, die optische Triangulati
on dazu verwendet, den Ort eines Musters von auf eine Ziel
fläche gelenktem Licht zu messen. Das vom Muster zurücklau
fende Licht wird durch ein optisches Empfangssystem aus ei
ner Fokussierlinse, einem Prisma oder Gitter, einer Übertra
gungslinse und einem raumempfindlichen Detektor gesammelt
und analysiert. Die Fokussierlinse erzeugt auf der Oberflä
che des Prismas oder Gitters ein Bild des Musters, und die
ses Bild wird durch die Übertragungslinse erneut auf den De
tektor fokussiert. Die Zieloberfläche, die Fokussierlinse
und die vordere Prismenfläche sind so geneigt, dass die
Scheimpflug-Bedingung erfüllt ist. Das Prisma dient zum Bre
chen des Bilds des Musters und zum Verringern der Schrägheit
des endgültigen Bilds.
Beschränkungen hinsichtlich der im US-Patent 5,633,721 of
fenbarten Technik betreffen das Prisma. Die Stirnfläche des
Prismas liegt in einer Bildebene, und infolgedessen erschei
nen alle Staubpartikel oder Oberflächenfehler auf dem Prisma
in scharfer Fokussierung auf dem Detektor, was leicht eine
beanstandbare Bildbeeinträchtigung verursachen kann. Außer
dem muss, da das Bild auf der Stirnfläche des Prismas er
zeugt wird, ein zusätzliches optisches Bauteil (eine Über
tragungslinse) enthalten sein, was zu Sperrigkeit, Gewicht
und Kompliziertheit beim Zusammenbauen des Sensorsystems
beiträgt.
Darüber hinaus trifft jedes der obigen Patente auf das Pro
blem begrenzter Bereichsauflösung. Eine grundsätzliche Gren
ze ist der Bereichsauflösung durch das Vorliegen des Speck
leeffekts auferlegt. Speckle ist ein wohlbekannter Interfe
renzeffekt, der bei kohärenten Quellen beobachtet wird, wo
bei Unregelmäßigkeiten in einer im optischen Pfad positio
nierten Fläche zu einer charakteristischen kornförmigen,
räumlichen Variation der Lichtintensität führen. Da diese
Körnigkeit auch bei Lichtfokussierung andauert, stellt sie
eine grundsätzliche Grenze für die Auflösung von Sensoren
mit Lasertriangulation dar. Der Speckleeffekt, wie er in Zu
sammenhang mit optischer Triangulation auftritt, wurde in
einer Veröffentlichung mit dem Titel "Laser Triangulation;
Fundamental Uncertainty in Distance Measurement" von Rainer
G. Dorsch, Gerd Häusler und Jürgen Herrmann (Applied Optics,
Vol. 33 (1994), S. 1306-1314) analysiert. Die bei der Ana
lyse erreichte Schlussfolgerung bestand darin, dass zum Ver
ringern oder Beseitigen des Speckleeffekts die numerische
Apertur der Empfängerlinse im Objektraum für optimale Funk
tion maximiert werden muss. Die oben beschriebenen Patente
zu Oberflächenmesssystemen berücksichtigen die Maximierung
der numerischen Apertur nicht. Wegen der Vernachlässigung
dieses wesentlichen Faktors hatten frühere Sensoren begrenz
te Bereich/Auflösung-Verhältnisse, typischerweise im Bereich
von nur 400 : 1.
Ferner kann gemäß jedem der oben beschriebenen Patente zu
einem Zeitpunkt nur ein einzelner Oberflächenmesswert er
fasst und verarbeitet werden. Anders gesagt, ist jedes der
oben beschriebenen optischen Systeme so konzipiert, dass der
Detektor nur einen Lichtfleck erfasst, der zu einem Zeit
punkt an der Zielfläche reflektiert wird.
Angesichts des Vorstehenden existiert Bedarf an einem opti
schen Sensorsystem, das genaue Messwerte durch Verringern
des Speckleeffekts durch Einstellung der numerischen Apertur
erzeugen kann, das über verbesserte Verhältnisse von Be
reich/Auflösung und Bereich/Genauigkeit verfügt und das meh
rere Lichtflecke auf dem Detektor ermitteln kann, was es ihm
ermöglicht, Dickenmessungen transparenter Objekte vorzuneh
men.
Die oben beschriebenen Probleme sind in großem Ausmaß durch
den erfindungsgemäßen digitalen Bereichssensor gelöst. Der
digitale Bereichssensor umfasst eine Lichtquelle, ein opti
sches Element zum Herunterfokussieren des Lichts von der
Quelle auf einen kleinen Fleck auf einem Ziel, ein zweites
optisches Element, das schräg zur Quellenachse angebracht
ist, und ein Prisma, das an einem Mehrelementedetektor ange
bracht ist, der seinerseits im Brennpunkt des vom Ziel zu
rücklaufenden Lichts angebracht ist. Der Zweck des Prismas
auf dem Detektor besteht im Lenken des Lichts auf die aktive
Fläche des Detektors unter einem Winkel, der näher an norma
lem Einfall liegt, als dies andernfalls möglich wäre. Die
Detektorschaltung erzeugt einen digitalen Datenwert, der zur
Verarbeitung und zum Erzeugen eines Bereichsmesswerts in
Millimetern an ein Steuerungsmodul übertragen wird.
Es sind eine Aufgabe und ein Vorteil der Erfindung, einen
Dickenmesswert unter Verwendung eines einzelnen Sensors und
eines dynamischen Schwellenwerts zu erzeugen.
Es sind eine Aufgabe und ein Vorteil der Erfindung, eine
größere numerische Apertur im Objektraum als andere ver
gleichbare Sensoren zu verwenden, wodurch die Größe des
Speckleeffekts verringert ist und die Unbestimmtheit im
Messbereich verringert ist.
Es sind eine Aufgabe und ein Vorteil der Erfindung, ein ver
bessertes Bereich/Auflösung-Verhältnis in der Größenordnung
von 2000 : 1, im Vergleich mit vorigen Systemen mit einem Ver
hältnis von 400 : 1, wie auch ein verbessertes Bereich/Genau
igkeit-Verhältnis in der Größenordnung von 200 : 1 zu schaf
fen. Mit diesen verbesserten Verhältnissen ist der erfin
dungsgemäße Sensor vielseitiger als vorige Sensoren, er ver
fügt über einen größeren Arbeitsbereich, und infolgedessen
verringert er die Anzahl der Sensoren, die ein Kunde erwer
ben muss.
Es sind noch eine andere Aufgabe und ein Vorteil der Erfin
dung, es dem Sensor zu ermöglichen, unter Verwendung eines
seriellen Ports zur digitalen Signalverarbeitung (DSP = Di
gital Signal Processing) mit einem digitalen Signalprozessor
zu kommunizieren.
Es sind noch eine andere Aufgabe und ein Vorteil der Erfin
dung, einen Sensor zu schaffen, der wendbar/symmetrisch, was
alternative Montagewahlmöglichkeiten ermöglicht, und auch
stapelbar ist, was das Stapeln ähnlicher und/oder verschie
dener Sensoren ermöglicht. Ferner beinhaltet das Sensorge
häuse vorzugsweise Präzisionsmontagelöcher, Stift- und Mon
tagepositioniermerkmale für Reproduzierbarkeit bei der Mon
tage.
Es sind eine andere Aufgabe und ein Vorteil der Erfindung,
einen Sensor mit kleinerem Energieverlust, als er bisher er
zielbar war, zu schaffen.
Zu anderen Aufgaben und Vorteilen der Erfindung gehören: (1)
Speichern von Kalibrierinformation innerhalb des Sensors
selbst, so dass dann, wenn der Sensor mit einem Steuerungs
modul verbunden wird, dieses Steuerungsmodul den Typ des
vorhandenen Sensors erkennen kann, um dadurch eine einfache
Austauschbarkeit von Sensoren mit einer einzelnen Steue
rungskarte zu ermöglichen; (2) Fähigkeit des Steuerungsmo
duls, unmittelbar an einen ISA-Bus eines IBM-kompatiblen
Computers angeschlossen zu werden, was schnellere Datenüber
tragung als bei einer bisher bekannten und verwendeten RS-
232-Schnittstelle ermöglicht.
Fig. 1 ist ein Blockdiagramm eines erfindungsgemäßen digita
len Bereichssensorsystems.
Fig. 2 zeigt das optische Layout eines erfindungsgemäßen
digitalen Bereichssensors, der das Vorhandensein diffusen
Lichts nutzt.
Fig. 3 zeigt ein alternatives Ausführungsbeispiel der Erfin
dung, das das Vorhandensein von Spiegellicht nutzt.
Fig. 4 bildet eine Nahansicht eines Prismas und eines Detek
tors des digitalen Bereichssensors.
Fig. 5 zeigt ein Blockdiagramm der Sensorelektronik bei der
Erfindung.
Fig. 6 zeigt ein Gehäuse zum Aufnehmen des digitalen Be
reichssensors der Fig. 2 und 4.
Fig. 7 zeigt ein Gehäuse zum Aufnehmen des digitalen Be
reichssensors der Fig. 3.
Fig. 8 zeigt ein Blockdiagramm der Steuerungsmodulelektronik
bei der Erfindung.
Fig. 9 ist ein Flussdiagramm, das den Betrieb eines Steue
rungsmoduls zeigt, das in Verbindung mit dem digitalen Be
reichssensor steht.
Fig. 10 zeigt ein Flussdiagramm, das den Mehrfleck-Funkti
onsbetrieb des Steuerungsmoduls veranschaulicht.
Fig. 1 zeigt die Grundkomponenten eines digitalen Bereichs
sensorsystems 9 gemäß der Erfindung. Dieses digitale Be
reichssensorsystem 9 beinhaltet vorzugsweise einen digitalen
Bereichssensor 10, ein Steuerungsmodul 60, einen Hostprozes
sor 63 und eine Nutzerschnittstelle 64. Der digitale Be
reichssensor 10 ist zur Kommunikation mit dem Steuerungsmo
dul 60 verbunden. Das Steuerungsmodul 60 ist zur Kommunika
tion mit dem Hostprozessor 63 verbunden, der mit der Nutzer
schnittstelle 64 verbunden ist.
Unter Bezugnahme auf die Fig. 2 und 3 können zwei optische
Designs für den digitalen Bereichssensor 10 beurteilt wer
den. Jedes der optischen Designs für den Sensor 10 verfügt
über einen spezifizierten optimalen Arbeitsbereich; jedoch
können zahlreiche andere Sensoren mit verschiedenen Arbeits
bereichen durch Anwenden der unten beschriebenen Prinzipien
geschaffen werden. Der spezifizierte optimale Arbeitsbereich
des optischen Designs von Fig. 2 beträgt ungefähr 2,0 mm,
während derjenige bei Fig. 3 ungefähr 0,5 mm beträgt.
Das optische Design für den digitalen Bereichssensor 10 kann
in zwei optische Ketten, einen Sender 12 und einen Empfänger
14, unterteilt werden. Der Sender 12 umfasst im Wesentlichen
eine Laserdiode 16 oder eine andere geeignete Lichtquelle,
wozu kohärente und nicht kohärente Lichtquellen gehören, so
wie mehrere Fokussierelemente zum Aufstrahlen eines Licht
flecks auf ein Ziel 18. Der Empfänger 14 umfasst im Wesent
lichen mehrere Lichtsammeloptiken zum Sammeln des durch das
Ziel 18 gestreuten Lichts und zum Fokussieren des Lichts zu
einem Fleck auf einem Detektor 20.
Der Sender 12 erzeugt vorzugsweise, bei gewünschter Beab
standung vom Ziel 18, über den Arbeitsbereich des Sensors 10
einen Fleck auf dem Ziel 18. Dies erfolgt vorzugsweise mit
tels der Laserdiode 16, einer Kollimationslinse 22 und einer
Fokussierlinse 24. Am Ausgang des Übertragungspfads kann zum
Abdichten des Sensorgehäuses 27 (in Fig. 6 dargestellt) und
zum optischen Verbessern des Aussehens des Sensorgehäuses 27
ein RG630-Filter 26 angebracht sein. Das Ausführungsbeispiel
der Fig. 3 zeigt einen Fall, bei dem der Sender 12 unter
einem Winkel von ungefähr 35° zur Zieloberfläche einen Fleck
auf dem Ziel 18 erzeugt. Das Ausführungsbeispiel von Fig. 2
bildet einen Streulichtsensor, der am Ziel 18 gestreutes
Licht zum Erfassen des Bereichs des Ziels 18 verwendet, wäh
rend das Ausführungsbeispiel der Fig. 3 Licht verwendet, das
spiegelnd unmittelbar in den Sensor reflektiert wird, um den
Bereich des Ziels 18 zu erfassen.
Die Laserdiode 16 ist vorzugsweise ein Bauteil von 10 mW,
670 nm. Eine derartige Laserdiode wird von Toshiba unter der
Teilenummer TOLD9925 hergestellt. Um der Laser-II-Klassifi
kation CDRH (Center for Devices and Radiological Health) für
maximale Ausgangsleistung von 1 mW zu genügen, ist die Spit
zenausgangsleistung der Laserdiode 16 auf 950 µW einge
stellt. Das von der Laserdiode 16 emittierte Licht ist ziem
lich divergent und muss kollimiert werden. Die Kollimations
linse 22 ist vorzugsweise eine gegossene asphärische Glas
linse. Eine geeignete Linse wird von Geltech hergestellt und
trägt die Teilenummer 350110-B; diese Linse verfügt vorzugs
weise über eine Antireflexionsbeschichtung für 670 nm.
Dann wird kollimiertes Licht auf einen Fleck fokussiert, der
die Abnehmernadel zum Abtasten der getesteten Oberfläche des
Ziels 18 bildet. Die Fokussierlinse 24 ist vorzugsweise eine
plankonvexe Linse BK7 mit einer geeigneten effektiven Brenn
weite (EFL = Effective Focal Length); die Fokussierlinse 24
der Fig. 2 verfügt vorzugsweise über ein EFL von 70 mm, und
die Fokussierlinse 24 von Fig. 3 verfügt vorzugsweise über
eine EFL von 55 mm. Die Brennweite der Fokussierlinse 24 ist
so gewählt, dass an den Enden und im Zentrum des Arbeitsbe
reichs des digitalen Bereichssensors 10 der korrekte Fleck
durchmesser geliefert wird. Beim Ausführungsbeispiel der
Fig. 4 beträgt die numerische Apertur (NA) der Fokussierlin
se 24 im Bildraum vorzugsweise ungefähr 0,025, was es dem
Sensor 10 ermöglicht, im Zentrum seines Arbeitsbereichs von
2,0 mm einen wünschenswerten Fleckdurchmesser von ungefähr
30 µm zu erzielen, und an den Enden des Arbeitsbereichs ei
nen geringfügig größeren Fleckdurchmesser von ungefähr 60 µm
zu erzielen. Beim Ausführungsbeispiel der Fig. 3 beträgt die
NA der Fokussierlinse 24 im Bildraum vorzugsweise ungefähr
0,035, wodurch im Zentrum des Arbeitsbereichs von 0,5 mm ein
wünschenswerter Fleckdurchmesser von ungefähr 16 µm erzielt
wird und an den Enden des Arbeitsbereichs ein geringfügig
größerer Fleckdurchmesser von 23 µm erzielt wird.
Das Ausgangsfilter 26 ist vorzugsweise ein rotes Glasfilter
aus dem Material RG630. Wie bereits erläutert, dient der
Zweck des Filters hauptsächlich dem optischen Aussehen. Der
Filter 26 bedeckt die Ausgangsöffnung des Senders 12 und
sorgt für ein einheitliches Aussehen hinsichtlich der Emp
fangsöffnung. Das Ausgangsfilter 26 dichtet auch das Gehäuse
27 des Sensors ab, um es gegen Staub zu schützen.
Der Empfänger 14 ist wegen des Triangulationswinkels der
Ausführungsbeispiele ein optisches System außerhalb der Ach
se; Fig. 2 verfügt über einen Triangulationswinkel von unge
fähr 35°, und Fig. 3 verfügt über einen Triangulationswinkel
von ungefähr 70°. Da der Triangulationswinkel nicht 90° be
trägt, benötigt der Empfänger 14 ein geneigtes Bild, um der
Scheimpflug-Bedingung zu genügen. Das optische System des
Empfängers 14 beinhaltet vorzugsweise ein Filter 32, eine
Tripletlinsenanordnung 34 mit einem Meniskus 36 und einer
zementierten Doppellinse 38, einen Stirnflächenspiegel 40
und ein am Detektor 20 angebrachtes 15°-Prisma 42. Bei den
Ausführungsbeispielen der Fig. 2 und 3 verfügt das optische
System des Empfängers 14 vorzugsweise über eine numerische
Apertur (NA) von ungefähr 0,2 im Objektraum, um dazu beizu
tragen, die nachteiligen Auswirkungen des Speckleeffekts zu
verringern.
Beim Bestimmen der maximalen NA wird die folgende Gleichung,
von Dorsch et al., für die Standardhöhenabweichung (σ) einer
einzelnen Höhenabmessung verwendet:
σ = λ/2π sin u sin Θ (1),
wobei:
λ die Lichtwellenlänge ist;
sin (u) die numerische Apertur des Systems ist und
Θ der Triangulationswinkel des Systems ist
u = atan (CA/2s)
wobei:
CA die freie Öffnung (clear aperture) ist und
s der Zielabstand vom Ziel zur CA ist.
λ die Lichtwellenlänge ist;
sin (u) die numerische Apertur des Systems ist und
Θ der Triangulationswinkel des Systems ist
u = atan (CA/2s)
wobei:
CA die freie Öffnung (clear aperture) ist und
s der Zielabstand vom Ziel zur CA ist.
Diese Gleichung liefert für ein durch den Speckleeffekt do
miniertes Ziel 18 die beste Fallsituation. Das Funktionsver
mögen kann noch besser sein, wenn das Ziel 18 keinen Speck
leeffekt zeigt. Die numerische Apertur (NA) wird als Kompro
miss zwischen dem gewünschten Funktionsvermögen, der Größe
des Sensors 10, der Distanz und den Kosten der Optik ausge
wählt.
Eine Schwierigkeit bei Systemen mit großer numerischer Aper
tur besteht darin, dass es schwieriger ist, Aberrationen zu
kontrollieren. Um solche Aberrationen zu kontrollieren, ins
besondere Koma, ist das Filter 32 beim Ausführungsbeispiel
der Fig. 2 leicht gekippt. Bei den Ausführungsbeispielen der
Fig. 3 ist ein Kippen des Filters 32 erforderlich, da das
Funktionsvermögen dieser optischen Systeme nicht durch Koma
beherrscht wird. Das Filter 32 ist vorzugsweise ein opti
sches Filter, wie es zum Sperren unerwünschter Lichtwellen
längen verwendet wird, um die Streulichtempfindlichkeit des
Sensors 10 zu minimieren. Das Filter 22 bildet auch eine
Maßnahme zum Abdichten des Sensorgehäuses 27 gegen Staub.
Das optische System des Empfängers 14 ist mit einer Triplet
linsenanordnung 34 konzipiert. Die Tripletlinsenanordnung 34
verfügt vorzugsweise über eine Positivmeniskuslinse 36 und
eine aufzementierte Doppellinse 38 mit einem Luftzwischen
raum dazwischen, der für die endlichen Konjugierten (Ziel-
und Bildabstand) optimiert ist, wie sie vorzugsweise zum
Abbilden des Arbeitsbereichs auf den Detektor 20 verwendet
werden. Beim Ausführungsbeispiel der Fig. 2 verfügt die Me
niskuslinse 36 vorzugsweise über eine effektive Brennweite
(EFL) von 57 mm, während die Doppellinse 38 vorzugsweise
über eine EFL von 118 mm verfügt. Beim Ausführungsbeispiel
der Fig. 3 verfügt die Meniskuslinse 36 vorzugsweise über
eine EFL von 51 mm, während die Doppellinse 58 vorzugsweise
über eine EFL von 124 mm verfügt.
Von der Tripletlinsenanordnung 34 emittierte Lichtstrahlen
werden mit dem Stirnflächenspiegel 40 auf den Detektor 20
gelenkt. Der Stirnflächenspiegel 40 ist für den Empfänger 14
nicht wesentlich, jedoch kann er dazu verwendet werden, die
Lichtstrahlen umzulenken, um einen kompakteren Baustein des
Sensors 10 zu bilden. Beim Ausführungsbeispiel der Fig. 2
ist ein einzelner Stirnflächenspiegel dazu verwendet, die
Lichtstrahlen um ungefähr 90° umzulenken, während das Aus
führungsbeispiel der Fig. 3 zwei Stirnflächenspiegel verwen
det, um die Lichtstrahlen zwei Mal um ungefähr 90° umzulen
ken, um einen kleineren Sensorbaustein zu erzielen.
Der Detektor 20 ist vorzugsweise ein Metalloxid-Halbleiter-
(MOS)-Bauteil in Form eines linearen Arrays mit 256 Elemen
ten mit Bildpunktelementen mit 25 Mikrometer auf 500 Mikro
meter. Ein derartiger Detektor wird von Hamamatsu herge
stellt und trägt die Teilenummer S3923-256Q. Während ein
Hamamatsudetektor mit 256 Elementen den bevorzugten Detektor
bildet, können zahlreiche andere Detektoren verwendet wer
den, ohne vom Grundgedanken oder Schutzumfang der Erfindung
abzuweichen. Zum Beispiel kann auch ein Lineararraydetektor
mit 512 oder 1024 Elementen verwendet werden. Da der Detek
tor 20 mit ungefähr +5 V betrieben werden kann, im Vergleich
mit bisherigen CCD-Arraydetektoren, die +15 V benötigen, ist
die Anzahl der Spannungsversorgungsanschlüsse verringert.
Außerdem verfügt der Sensor 10 über viel geringere Energie
verluste, im Allgemeinen im Bereich von 0,4 bis 1,0 W, wäh
rend bisherige Sensoren unter Verwendung von CCD-Arraysenso
ren typischerweise Energieverlustpegel von näherungsweise
4 W aufwiesen. Der niedrigere Energieverlust bei der Erfin
dung sorgt für bessere Komponentenzuverlässigkeit; es ist
wahrscheinlicher, dass Komponenten bei höheren Temperaturen
ausfallen. Ferner sorgt der geringere Energieverlust für
Dimensionsstabilität des Sensors 10, was wichtig ist, wenn
bis zu Werten herab von 1 µm gemessen wird. Hinsichtlich der
Dimensionsstabilität bewirken hohe Energieverluste Diffe
renzänderungen in den Komponenten, was ein Abschälen von
Verbindungen in Komponenten hervorruft und Verbindungsstel
len der Komponenten unter Spannung setzt.
Um den empfangenen Lichtfleck über den ganzen Arbeitsbereich
des Sensors 10 auf dem Detektor 20 fokussiert zu - halten,
muss die wohlbekannte Scheimpflug-Bedingung erfüllt sein.
Wenn eine gewünschte Vergrößerung und eine Neigung der Bild
ebene vorgegeben sind, schreibt die Scheimpflug-Bedingung
die Neigung des Detektors 20 vor, die es ermöglicht, dass
das Bild über den gesamten Arbeitsbereich des Sensors fokus
siert ist. Im Fall hoher Vergrößerungen kann die vorge
schriebene Neigung des Detektors extrem sein. Im Fall der
Fig. 2 schreibt die Scheimpflug-Bedingung für den Detektor
20 einen Neigungswinkel von 70° in Bezug auf die optische
Achse des Empfängers 14 vor. Diese große Neigung ist dahin
gehend von großem Nachteil, dass Reflexionsverluste am Ab
deckglas des Detektors 20 und der Oberfläche des Detektors
20 stark erhöht sind. Ebenfalls besteht die Tendenz, dass
Doppelreflexionen auf dem Detektor 20 Geisterbilder verursa
chen, und ferner besteht die Tendenz, dass die meisten De
tektorbausteine, wie der Detektor 20, Licht aus derart
schrägen Winkeln teilweise sperren.
Um diesen Problemen entgegenzuwirken, wird vorzugsweise ein
Prisma 42 mit einem geeigneten optischen Kleber an einem
Fenster des Detektors 20 befestigt. Das Prisma 42 ist vor
zugsweise ein 15°-Prisma, das so wirkt, dass es den Ein
fallswinkel in den Empfänger 14 wesentlich verringert. Beim
Ausführungsbeispiel der Fig. 2 verringert das Prisma 42 den
Einfallswinkel von 70° auf 23°. Beim Ausführungsbeispiel der
Fig. 3 verringert das Prisma 42 den Einfallswinkel von unge
fähr 63° auf 23°. Das Prisma 42 verfügt vorzugsweise über
eine ebene Stirnfläche, die das Problem der Ausblendung be
seitigt. Ferner verfügt das Prisma 42 vorzugsweise über ei
nen viel kleineren Brechungsindex als Siliziumdetektoren,
wie sie allgemein zum Erfassen von Licht verwendet werden,
so dass die Reflexionsverluste an der Stirnfläche des Pris
mas 42 nicht übermäßig sind. Außerdem trifft aus dem Prisma
42 austretendes Licht mit beinahe normalem Einfall auf den
Detektor 20, was Probleme mit Reflexionsverlusten und Geis
terbildern am Detektor 20 stark verringert, siehe Fig. 4.
Das Reflexionsbild des Ziels 18 wird nicht auf der Stirnflä
che des Prismas 42 erzeugt, sondern vielmehr über das Prisma
42 hinaus auf die Oberfläche des Detektors 20 fokussiert;
anders gesagt, befindet sich das Prisma 42 selbst nicht un
ter einem Winkel, der der Scheimpflug-Bedingung genügen
müsste. Da das Prisma 42 nicht in der Bildebene liegt, sind
Auswirkungen von Staubteilchen und Oberflächenfehlern auf
dem Prisma 42 verringert. Die Verwendung des Prismas 42
zeigt den zusätzlichen Vorteil des Hinzufügens anamorphoti
scher Vergrößerung in der optischen Achse des Empfängers 14,
was die Vergrößerungserfordernisse für das optische System
des Empfängers 14 verringert. Dies führt dadurch zu einer
kleineren Bausteingröße, dass sich die Bildraumkonjugierte
über eine kürzere Strecke erstreckt. Andere zweckdienliche
optische Elemente können anstelle des Prismas 42 verwendet
werden, ohne vom Grundgedanken oder Schutzumfang der Erfin
dung abzuweichen. Zum Beispiel kann ein Gitter oder ein von
einem Computer erzeugtes Hologramm verwendet werden.
Das optische Design des Sensors 10, wie oben beschrieben,
schafft einen Sensor mit verbessertem Bereich/Auflösung-Ver
hältnis und Bereich/Genauigkeit-Verhältnis. Das Ausführungs
beispiel der Fig. 2 verfügt über ein Bereich/Auflösung-Ver
hältnis in der Größenordnung von 2000 : 1 im Vergleich mit
früheren Sensoren mit Bereich/Auflösung-Verhältnissen in der
Größenordnung von 400 : 1. Außerdem hat das Ausführungsbei
spiel der Fig. 2 Bereich/Genauigkeit-Verhältnisse in der
Größenordnung von 200 : 1. Das Ausführungsbeispiel der Fig. 3
hat ein Bereich/Auflösung-Verhältnis in der Größenordnung
von 4000 : 1 und ein Bereich/Genauigkeit-Verhältnis von 500 : 1.
Testdaten von jedem der Ausführungsbeispiele, wie sie in der
folgenden Tabelle 1 angegeben sind, unterstützen die Ver
hältnisse und Verbesserungen an diesen.
Zusätzlich zu den oben beschriebenen Elementen beinhaltet
der Sensor 10 vorzugsweise eine geeignete Ansteuerungs- und
Schnittstellenelektronik, wie es im Blockdiagramm der Fig. 5
angegeben ist. Die Sensorelektronik 100 verwendet eine Ab
lauf- und Kommunikationssteuerung 102, die ein programmier
bares logisches Bauteil (PLD = programmable logic device)
ist, um den Betrieb des Sensors 10 zu steuern. Die Steuerung
102 ist über einen Lasertreiber 103 auf kommunikative Weise
mit dem Laser 16 verbunden. Taktsignale von der Steuerung
102 werden auf kommunikative Weise über einen Taktsignalpuf
fer 104 an den Detektor 20 gegeben. Der Sättigungsstatus des
Detektors 20, wie von einem Sättigungsdetektor 105 mitge
teilt, wird an die Steuerung 102 rückgeliefert. Analoge Vi
deosignale des Detektors werden auf kommunikative Weise an
einen Analog/Digital-Wandler 106 gegeben. Die digitalen Da
ten werden an die Steuerung 102 rückgeliefert. Die Steuerung
102 ist auch auf kommunikative Weise mit einem EEPROM 107
(dessen Verwendung unten beschrieben wird), einem Tempera
tursensor 108 zum Überwachen der Temperatur des Sensors 10
sowie mehreren LEDs 109 verbunden, die den Betriebszustand
des Sensors 10 anzeigen. Die Steuerung 102 überträgt über
einen Differenzempfänger- und Sender 110 und einen seriellen
Verbinder 111 serielle Daten an den Sensor 10 und von die
sem. Der serielle Verbinder 111 ist auf kommunikative Weise
über ein Kabel 61 mit einem Steuerungsmodul 60 (in Fig. 1
dargestellt) verbunden.
Wenn ein Bereichslesevorgang angefordert wird, läuft die
folgende Abfolge von Ereignissen ab: vom Steuerungsmodus 60
wird ein Triggersignal an den Sensor 10 geliefert, und die
ses wird von der Steuerung 102 empfangen und verarbeitet.
Die Steuerung 102 schaltet den Laser 16 über den Lasertrei
ber 103 ein. Das Ende der korrekten Belichtung des MOS-De
tektors 20 wird durch den Sättigungsdetektor 105 angezeigt,
der die Schaltungsanordnung verwendet, wie sie in den US-
Patenten 5,519,204 und 5,665,958 beschrieben ist, die hier
durch Bezugnahme eingeschlossen werden. Am Ende des Belich
tungsvorgangs wird der Laser 16 ausgeschaltet, und es werden
weitere Taktsignale an den MOS-Detektor 20 geliefert, um ihn
dazu zu veranlassen, analoge Videosignale entsprechend dem
Muster des Lichts, wie es auf ihn während der Belichtung
vorlag, zu erzeugen. Taktsignale werden auch während dieser
Auslesephase zugeführt, die die photoempfindlichen Elemente
für den nächsten Belichtungsvorgang rücksetzen. Die Video
signale werden durch den Analog/Digital-Wandler 106 digita
lisiert und für weitere Verarbeitung an das Steuerungsmodul
60 geliefert. Das Steuerungsmodul 60 setzt die Videoaus
gangssignale unter Verwendung von Algorithmen, wie sie unten
beschrieben sind, in einen Bereichslesewert um und liefert
den Bereichslesewert an den Hostprozessor 63.
Der digitale Bereichssensor 10, einschließlich der Sensor
elektronik 100, ist vorzugsweise innerhalb des in den Fig. 6
und 7 dargestellten Sensorgehäuses 27 untergebracht. Die
Fig. 6, die aus Fig. 6A, 6B und 6C besteht, die eine linke
perspektivische Ansicht des Inneren des Gehäuses 27, eine
rechte perspektivische Ansicht des Inneren des Gehäuses 27
bzw. eine linke perspektivische Ansicht des Äußeren des Ge
häuses 27 bilden, zeigt das bevorzugte Gehäuse für die Aus
führungsbeispiele 2 des digitalen Bereichssensors 10. Die
Fig. 7, die aus Fig. 7A, 7B, 7C und 7D besteht, die eine
vordere, linke Perspektive des Inneren des Gehäuses 27, eine
hintere, linke Perspektive des Inneren des Gehäuses 27, eine
rechte, hintere Perspektive des Gehäuses 27 bzw. eine linke
hintere Perspektive des Äußeren des Gehäuses 27 sind, ent
spricht dem bevorzugten Gehäuse für das Ausführungsbeispiel
der Fig. 3 eines digitalen Bereichssensors 10. Das Sensorge
häuse 27 versorgt den Sensor 10 dadurch mit einzigartigen
Vorteilen, dass dieses Sensorgehäuse 27 Präzisionsmontage
löcher 28 beinhaltet, die es dem Benutzer ermöglichen, das
Sensorgehäuse 27 wiederholt an der korrekten und genauen Po
sition zu montieren. Ferner ist die Konfiguration des Sen
sorgehäuses dahingehend einzigartig, dass es so konzipiert
ist, dass es stapelbar ist, wobei es Stapelmerkmale 29 auf
weist. Das Sensorgehäuse 27 kann mit anderen Sensorgehäusen
gestapelt werden, was eine Erweiterung auf mehrere Sensoren
10 ermöglicht, die bei verschiedenen Arbeitsbereichen arbei
ten. Zum Beispiel kann das Sensorgehäuse 27 der Fig. 6 mit
dem Sensorgehäuse 27 der Fig. 7 einen Stapel bilden, obwohl
die jeweiligen Gehäuse von geringfügig verschiedener Konfi
guration sind, da die Montagelöcher 28 und die Stapelmerkma
le 29 an jedem Gehäuse 27 ähnlich positioniert sind. Ferner
ist das Sensorgehäuse 27 so konzipiert, dass es wendbar ist,
so dass es mit der Innenseite nach oben oder der Außenseite
nach oben montiert werden kann. Das Äußere des Gehäuses 27,
z. B. die Fig. 6C und 7D, ist mit mehreren Montagelöchern 28
und Stapelmerkmalen 29, die identisch am Ort der Montagelö
cher 28 liegen, und Stapelmerkmalen 29 am Inneren des Sen
sorgehäuses 27, z. B. Fig. 6A und 7A, versehen, um die Wend
barkeit des Gehäuses 27 zu gewährleisten.
Während des Aufbaus des digitalen Bereichssensors 10 wird an
ihm eine Kalibrierung vorgenommen. Die Art der Kalibrierung
besteht darin, das Ziel entlang einem bekannten Weg zu ver
schieben, der ungefähr rechtwinklig zur getesteten Zielebene
verläuft, und die Position des Flecks auf dem Detektor 20
(im Bildpunktraum) aufzuzeichnen. Die Zielposition wird vor
zugsweise mit einem Interferometer gemessen, und jeder Mess
wert des Interferometers wird mit der Fleckposition des De
tektors im Bildpunktraum korreliert. Idealerweise sollte das
Kurvenbild dieser zwei Messwerte eine gerade Linie sein. Je
doch zeigt das Kurvenbild aufgrund der Art des optischen
Systems sowie Variationen des Aufbauzyklus gleichmäßige und
systematische Abweichungen von der Linearität. Infolgedessen
wird das Kurvenbild der tatsächlichen Position (wie vom In
terferameter mitgeteilt) und der Fleckposition auf dem De
tektor 20 aufgenommen, und ein Anpassungsvorgang mit kleins
ten Quadraten wird unter Verwendung einer Funktion dritter
Ordnung, vorzugsweise in der folgenden Form, ausgeführt:
y = a + bx + cx2 + dx3 (2)
mit:
a = Versatz des Sensors;
b, c, d = Funktion bester Anpassung für die Aus gangsdaten;
x = Fleckposition auf dem Detektor im Bildpunkt raum;
y = aktuelle Position auf dem Ziel in mm.
a = Versatz des Sensors;
b, c, d = Funktion bester Anpassung für die Aus gangsdaten;
x = Fleckposition auf dem Detektor im Bildpunkt raum;
y = aktuelle Position auf dem Ziel in mm.
Dann werden die Koeffizienten der Funktion dritter Ordnung
im EEPROM 107, das in Fig. 5 dargestellt ist, im Sensor 10
abgespeichert und später bei der Initialisierung, oder der
ersten Verwendung, des Sensors 10 in das Steuerungsmodul 60
geladen. Das Abspeichern der Kalibrierinformation im Sensor
10 selbst ermöglicht eine Austauschbarkeit von Sensoren mit
einem einzelnen Steuerungsmodul 60. Zum Beispiel kann einer
von mehreren verschiedenen Typen von Sensoren mit einem ein
zelnen Steuerungsmodul 60 verbunden werden. Dieses einzelne
Steuerungsmodul 60 kann aus zusätzlich im EEPROM 107 gespei
cherter Information erkennen, welcher Typ von Sensor 10 vor
handen ist.
Das Steuerungsmodul 60 ist vorzugsweise ein Steuerungsmodul
Gen3 (GCM = Gen3 Steuerungsmodul), das eine ISA-Karte ist,
die sich innerhalb des Hostprozessors 63 befindet. Das
Steuerungsmodul 60 ist in einen ISA-Bus 62 des Hostprozes
sors 63 eingesteckt und steht über eine interne Busstruktur
mit dem Hostprozessor 63 in Kommunikation. Das Steuerungsmo
dul 60 enthält einen Mikroprozessor 65, der den Betrieb des
Sensors 10 steuert, eine Datenverarbeitung am Ausgangssignal
des Detektors 20 ausführt und Kommunikationsvorgänge mit dem
Hostprozessor 63 ausführt.
Die Struktur der Elektronik 120 des Steuerungsmoduls ist im
Blockdiagramm der Fig. 8 dargestellt. Der Mikroprozessor 65
nutzt während seiner Betriebsabläufe in kommunikativer Weise
einen SRAM 121. Der Mikroprozessor 65 ist auf kommunikative
Weise mit einer Eingangs/Ausgangs-Steuerung 122, die Codier
zähler 123 steuert, einer Interruptsteuerung 124, einer Sen
sorspannungsversorgung 125 und einem Doppelportspeicher 126
verbunden. Die Eingangs/Ausgangs-Steuerung 122 betreibt auch
LEDs 127, die den Betriebszustand des Steuerungsmoduls 60
anzeigen. Der Mikroprozessor 65 bildet eine Schnittstelle zu
den Codierzählern 123, die mit der Interruptsteuerung 124
und einem Codiererjumper- und Signalvorverarbeitungsblock
128 verbunden ist.
Über einen Motorcodiererverbinder 129 wird ein Schritt- und
Richtungs- oder Codierersignal geliefert. Der Codiererjum
per- und Signalvorverarbeitungsblock 128 informiert die Ein
gangs/Ausgangs-Steuerung 122 über den Codierertyp, und diese
informiert ihrerseits den Mikroprozessor 65. Der Codierer
jumper- und Signalverarbeitungsblock 128 verarbeitet das Co
dierersignal und liefert es an den Codiererzähler 123. Ein
Interrupt vom Codiererzähler 123 über die Interruptsteuerung
124 an den Mikroprozessor 65 zeigt an, dass der Sensor 10
eine Bereichsmessung vornehmen sollte. Dieser Auslösevorgang
kann so konfiguriert sein, dass der Signalprozessor 10 an
vorbestimmten oder regelmäßig beabstandeten Positionen Ab
leswerte erfasst. Alternativ kann eine externe Auslösequel
le, die über einen Triggerverbinder 129 mit der Elektronik
120 des Steuerungsmoduls verbunden ist, über die Interrupt
steuerung 124 ein Interruptsignal dahingehend an den Mikro
prozessor 65 liefern, dass der Sensor 10 eine Bereichsmes
sung vornehmen sollte. Auf diese Weise verfügt das Steue
rungsmodul 60 über die Fähigkeit des gleichzeitigen Überwa
chens zweier Positionsanzeigeeinrichtungen. Außerdem kann
das Steuerungsmodul 60 den Bereich rückliefern, und es kann
durch einen externen Trigger ausgelöst werden, um bis zu
vier Achsen zu überwachen.
Der Mikroprozessor 65 überträgt über den Doppelportspeicher
126 und den Datenpuffer 131 Daten an den Hostprozessor 65
sowie von diesem. Der Datenpuffer 131 liefert Daten an ein
Adressenregister 132, das die vom Doppelportspeicher 126 an
den Datenpuffer 131 übertragenen Daten steuert und statio
niert. Der Datenpuffer 131 überträgt auch Daten über den
ISA-Bus 62 an den Hostprozessor 63. Der Prozessor 63 kommu
niziert über den ISA-Bus 62 und einen PLD-Decodierblock 133
und eine PnP-Schnittstelle 134 mit dem Steuerungsmodul 60.
Wie bereits angemerkt, ist der Detektor 20 des Sensors 10
ein lineares Array mit 256 Elementen. Jedes Element des De
tektors 20 erzeugt infolge des auf die Elemente, oder Bild
punkte, des Detektors 20 auffallenden Lichts eine Ladung.
Diese Ladungen werden innerhalb des Detektors 20 in eine
Spannung umgesetzt und unter Steuerung der Sensorelektronik
100 taktmäßig aus dem Detektor 20 ausgelesen. Dieser Strom
analoger Daten wird dann verstärkt und durch einen 8-Bit-
Analog/Digital-Wandler 106 digitalisiert. Das Digitalisie
rungsergebnis ist ein Strom serieller Daten aus 256 Acht-
Bit-Wörtern, die jeweils über das serielle Kabel 61 an das
Steuerungsmodul 60 geliefert werden.
Das Steuerungsmodul 60 bearbeitet den Strom digitaler Daten
mittels eines Daten-Nachverarbeitungsalgorithmus 65 zum Er
zeugen eines Bereichsmesswerts, vorzugsweise in Millimetern,
der dann an den Hostprozessor 63 mitgeteilt wird. In Fig. 8
ist ein Flussdiagramm für den Daten-Nachverarbeitungsalgo
rithmus 65 dargestellt. Vorzugsweise liegt der gesamte Da
ten-Nachverarbeitungsalgorithmus 65 in der Firmware des
Steuerungsmoduls 60. Vor dem Einschalten des Lasers 16 wird
die maximale Belichtungszeit eingestellt. Die Schaltung für
automatische Belichtung stoppt den Belichtungsvorgang und
beginnt mit dem Übertragen von Daten an das Steuerungsmodul
60, wenn genug Licht empfangen wurde. Wenn die Maximalbe
lichtung erreicht ist, bevor ausreichend Licht empfangen
wurde, beendet das Steuerungsmodul 60 den Belichtungsvor
gang, und der Sensor 10 beginnt mit dem Übertragen von Daten
an das Steuerungsmodul 60. Es unterliegt dem Benutzer zu er
mitteln, ob aus "abgebrochenen" Belichtungsvorgängen resul
tierende Daten verwendet werden sollen. Der maximale Belich
tungswert wird vom Benutzer über die Benutzerschnittstelle
64 eingestellt.
Der Empfang der digitalen Daten 142 ist der erste im Daten-
Nachverarbeitungsalgorithmus des Steuerungsmoduls 60 ausge
führte Schritt. Die Schwellenwertfunktion 143 wird beim Emp
fangen des Stroms digitaler Daten vom Sensor 10 ausgeführt.
Während der Schwellenwertfunktion 143 wendet das Steuerungs
modul 60 ein Schwellenwertfilter auf die Daten an. Die
Schwellenwertbildung für die Daten erlaubt es dem Benutzer,
Detektorstörsignale und unerwünschte Reflexionen aus den Da
ten zu entfernen. Vom Benutzer wird ein Schwellenwert vor
zugsweise über eine Software-Nutzerstelle 64 mittels des
Hostprozessors 63 eingestellt. Jeder Bildpunkt in den Daten
wird mit dem Schwellenwert verglichen, wie es durch einen
Entscheidungsblock 144 angegeben ist. Wenn der Bildpunktwert
dem Schwellenwert entspricht oder kleiner ist, wird der
Bildpunktwert auf Null gesetzt, Block 145. Wenn der Bild
punktwert über dem Schwellenwert liegt, wird der Bildpunkt
wert beibehalten, Block 146. Der Schwellenwert wird vorzugs
weise im Bereich von 0 bis 255 eingestellt. Es kann eine al
ternative Schwellenwertfunktion ausgeführt werden, bei der
der Bildpunktvergleich durch das Subtrahieren des Schwellen
werts von jedem Bildpunktwert ersetzt ist, wobei dann alle
sich ergebenden negativen Werte auf Null gesetzt werden.
Die Schwellenwertfunktion 143 kann beim Einfokussieren auf
eine Fleckposition sehr nützlich sein, insbesondere im Fall
von Sekundärreflexionen. Jeder Bildpunkt im Detektor 20 er
zeugt eine Spannung, die proportional zum auf ihn fallenden
Licht ist. Wenn der Schwerpunkt eines Flags beim Vorliegen
von Sekundärreflexionen berechnet wird, besteht die Tendenz,
dass die Messung durch diese Sekundärreflexionen verzerrt
wird und nicht das wahre Zentrum des Flecks erzeugt. Unter
Verwendung der Schwellenwertfunktion 143 kann die Sekundär
reflexion aus der Berechnung beseitigt werden, was ein bes
seres Maß für den Primärfleck erlaubt.
Vorzugsweise wird nach der Schwellenwertfunktion 144 eine
Fensterfunktion 147 ausgeführt. Die Fensterfunktion 147 er
laubt es dem Benutzer, die Fläche des Detektors 20, über die
die Lichtfleckposition berechnet wird, durch Erkennen, wel
che Bildpunkte sich im gewünschten Fenster befinden, zu be
schränken. Dies ist ein künstliches Verfahren zum Verringern
des effektiven Arbeitsbereichs des Detektors 20, und es ist
dann von Nutzen, wenn mehrere Flecke auf dem Detektor 20
verfolgt werden. Die Vorgabefenstergröße entspricht vorzugs
weise der gesamten Länge des Detektors 20, anders gesagt,
256 Bildpunkten, jedoch kann sie vorzugsweise durch Definie
ren eines Start- und eines Endbildpunkts verringert werden.
Eine Randfunktion 148 gilt sowohl für den Detektorrand als
auch den Fensterrand (wenn mehrere Fenster verwendet wer
den), und sie ermittelt, ob die Randbildpunkte des Detektors
20, oder dessen Fenster, Daten enthalten. Wenn die Randbild
punkte keine Daten enthalten, wird eine Fehlermeldung an den
Hostprozessor 63 geliefert, und sie wird dazu verwendet, die
zweckdienliche Maßnahme zu bestimmen, zu der es gehören
kann, den Fehler nicht zu berücksichtigen oder erneut einen
Messwert zu erfassen. Daten in den Randbildpunkten erzeugen
bei der Bereichsmessung eine fehlerhafte Berechnung. Wenn
die Randbildpunkte keine Daten enthalten, geht der Mikropro
zessor des Steuerungsmoduls 60 zu einer Bereichsberechnungs
funktion 150 weiter.
Die Bereichsberechnungsfunktion 150 wirkt so, dass sie das
Zentrum des Lichtflecks auf dem Detektor 20 im vom Benutzer
definierten Fenster unter Verwendung einer mathematischen
Schwerpunktsberechnung der folgenden Form auffindet:
mit:
I = Intensität in Volt (durch den A/D-Wandler di gitalisiert) für ein Detektorelement;
P = Bildpunktzahl des Detektors.
I = Intensität in Volt (durch den A/D-Wandler di gitalisiert) für ein Detektorelement;
P = Bildpunktzahl des Detektors.
Die Fleckposition im Bildpunktraum wird durch Aufsummieren
der Gesamtsumme aller Intensitäten an den einzelnen Elemen
ten des Detektors 20 (im Nenner der Gleichung (3) angegeben)
und durch Teilen dieses Werts in die Summe der Intensitäten
jedes Detektorelements mal der Bildpunktzahl (im Zähler der
Gleichung (3) angegeben) bestimmt. Die Intensität und die
Bildpunktwerte sind ganzzahlige Zahlen, und das Ergebnis
dieser Berechnung ist eine reelle Zahl (ungeradzahlig). Da
her kann das Zentrum der Fleckposition auf einem Bruchteil
eines Bildpunkts, näherungsweise 1/10 eines Bildpunkts, lie
gen.
Nach der Bereichsberechnungsfunktion 150 nutzt eine Be
reichswandlungsfunktion 151 die Koeffizienten, wie sie wäh
rend der Kalibrierung ermittelt wurden und im EEPROM 107 im
Sensor 10 abgespeichert wurden, um die aus der Bereichsbe
rechnungsfunktion 150 erhaltene Bildpunkt-Fleckposition in
eine Bereichsposition in Millimetern umzuwandeln. Dann über
trägt eine Datenübertragungsfunktion 152 die Bereichsposi
tion in Millimetern über den internen Bus 62 an den Hostpro
zessor 63.
Ein Mehrfleckalgorithmus 200 versorgt das Steuerungsmodul 60
mit der Fähigkeit, die Position mehrerer Flecke auf dem De
tektor 20 zu bestimmen. Die Position jedes dieser Flecke
kann bis auf einen Bruchteil eines Bildpunkts bestimmt wer
den. Diese Fähigkeit ermöglicht es, eine Klasse von Messun
gen auszuführen, die die Fähigkeiten anderer Triangulations
sensoren überschreitet. Wenn z. B. der Sensor 10 dazu ver
wendet wird, ein klares Stück Kunststoff zu messen, erschei
nen auf dem Detektor 20 zwei Flecke. Ein Fleck wird an der
ersten, oder oberen, Fläche des klaren Kunststoffziels re
flektiert, während der andere Fleck an der zweiten, oder un
teren, Fläche des klaren Kunststoffziels reflektiert wird.
Die Intensitäten der Flecke unterscheiden sich aufgrund der
Menge des Lichts, das von jeder Fläche reflektiert wird. Die
Position jedes Flecks ist der Bereich für jede Fläche. Die
Differenz zwischen den zwei Bereichen ist die Dicke des kla
ren Kunststoffs (es ist zu beachten, dass der Brechungsindex
und der Einfallswinkel berücksichtigt werden müssen und sie
die Interpretation der Fleckdaten beeinflussen).
Um die Position jedes Flecks auf dem Detektor 20 zu bestim
men, wird der Mehrfleckalgorithmus 200 verwendet. Das Fluss
diagramm für den Mehrfleckalgorithmus ist in Fig. 10 darge
stellt und umfasst die Fig. 10A und 10B.
Wie beim Daten-Nachverarbeitungsalgorithmus 65 ist der erste
im Mehrfleckalgorithmus 100 ausgeführte Schritt der Empfang
digitaler Daten vom Sensor 10, wie es in einem Block 202 an
gegeben ist. Auf die Daten wird eine Videoschwellenwertfunk
tion 204 angewandt. Diese Videoschwellenwertfunktion 204
entspricht einem Schwellenwert, der auf das gesamte Detek
torarray einwirkt, um Störsignale zu verwerfen, wie sie
durch Nebenreflexionen und/oder Mehrpfadreflexion verursacht
sein können. Ohne Verwerfen der Störsignale wäre das berech
nete Fleckzentrum verschoben und die Genauigkeit der Be
reichsmessung wäre deutlich beeinflusst. Der Videoschwellen
wert wird vom Benutzer über die Benutzerschnittstelle 64
eingestellt.
Dann wird vorzugsweise eine Fensterfunktion 210 angewandt.
Die Fensterfunktion 210 erlaubt es dem Benutzer, den Bereich
des Detektors 20 zu beschränken, über den die mehreren
Lichtfleckpositionen berechnet werden.
Als Nächstes bestimmt eine Funktion 212 die Anzahl von Flecken.
Die Anzahl von Flecken wird dadurch bestimmt, dass die
erste Ableitung der vom Sensor 10 empfangenen digitalen Da
ten gebildet wird und die Nulldurchgänge der Daten ermittelt
werden. Auf diese Weise können die Spitzenwerte der Daten
und damit die Anzahl der Flecke innerhalb der Fenster be
stimmt werden.
Dann wird an den Nulldurchgangsdaten eine Spitzenwert-
Schwellenwertfunktion 214 ausgeführt. Während der Spitzen
wert-Schwellenwertfunktion 214 überprüft das Steuerungsmodul
60, ob die Bildpunktintensität an jedem Nulldurchgang größer
als der Spitzenwert-Schwellenwert ist. Wenn die Bildpunktin
tensität kleiner als der Spitzenwert-Schwellenwert ist, wird
dieser Bildpunkt aus der Liste von Nulldurchgängen herausge
nommen, Block 216. Wenn die Bildpunktintensität dem Spitzen
wert-Schwellenwert entspricht oder größer ist, wird der
Bildpunkt-Intensitätswert beibehalten, Block 218. Der
Schwellenwert wird vorzugsweise im Bereich von 0 bis 255
eingestellt.
Als Nächstes wird die Anzahl der Flecke vom Benutzer einge
stellt, Block 220, und vom Benutzer werden ein Primär- und
ein Sekundärfleck über die Software-Schnittstelle 64 spezi
fiziert, wie es im Block 221 angegeben ist. Der Primärfleck
kann als Fleck eins bis fünf ausgewählt werden, während der
Sekundärfleck als Fleck null bis fünf ausgewählt werden
kann, wobei null anzeigt, dass kein Sekundärfleck ausgewählt
ist.
Dann erfolgt durch die Firmware des Steuerungsmoduls 60 eine
Überprüfung 222, um zu ermitteln, ob die Anzahl der Spitzen
werte über dem Spitzenwert-Schwellenwert der vom Benutzer
eingegebenen Fleckanzahl entspricht. Wenn die Anzahl der
Spitzenwerte nicht mit der eingegebenen Fleckanzahl überein
stimmt, wird eine Fehlermeldung 224 an den Hostprozessor 63
geliefert und entsprechend eingewirkt. Wenn die Anzahl der
Spitzenwerte mit der eingegebenen Fleckanzahl übereinstimmt,
führt das Steuerungsmodul 60 eine Spitzenwert-Fensterfunk
tion 225 aus, um das Spitzenwertfenster für den Primärfleck
zu bestimmen.
Die Spitzenwert-Fensterfunktion 225 bestimmt das Spitzen
wertfenster durch eine Suche ausgehend vom Spitzenwert für
den nächsten Ort unter dem Videoschwellenwert zu beiden Sei
ten des Spitzenwerts, oder Nullorts. Wenn sich unter dem Vi
deoschwellenwert keine Bildpunkte finden, bevor der Rand des
Fensters oder der nächste Schwellenwert erreicht wird, wird
eine Fehlermeldung 226 erzeugt und entsprechend eingewirkt.
Wenn sich Bildpunkte unter dem Videoschwellenwert finden,
werden die Grenzen des Spitzenwertfensters für den Primär
fleck dadurch für eine Bereichsberechnungsfunktion 227 defi
niert.
Die Bereichsberechnungsfunktion 227 wirkt so, dass sie den
Schwerpunkt des Primärflecks innerhalb der Grenzen des Spit
zenwertfensters für den Primärfleck berechnet. Es wird eine
Gleichung ähnlich der obigen Gleichung 3 dazu verwendet, den
Schwerpunkt zu bestimmen, mit der Ausnahme, dass i und j auf
die Zahl von Bildpunkten im Spitzenwertfenster für den Pri
märfleck begrenzt sind. Das Ausgangssignal der Bereichsbe
rechnungsfunktion 227 bildet die Fleckposition in Bildpunk
ten.
Nach der Bereichsberechnungsfunktion 227 verwendet eine Be
reichswandlungsfunktion 228 die Koeffizienten, wie sie wäh
rend der Kalibrierung bestimmt wurden und im EEPROM 107 des
Sensors 10 abgespeichert wurden, um die Bildpunkt-Fleckposi
tion des Primärflecks von der Bereichsberechnungsfunktion
226 in eine Bereichsposition in Millimetern umzuwandeln.
Dann erfolgt eine Prüfung 228 zum Ermitteln, ob tatsächlich
ein Sekundärfleck ausgewählt wurde. Wenn kein ausgewählter
Sekundärfleck existiert, wird die Bereichsposition für den
Primärfleck in Millimetern zur Verwendung und/oder Anzeige
an den Hostprozessor rückgeliefert, Block 232. Wenn ein Se
kundärfleck ausgewählt würde, führt das Steuerungsmodul 60
eine Spitzenwert-Fensterfunktion 233 aus, um das Spitzen
wertfenster für den Sekundärfleck zu bestimmen.
Die Spitzenwert-Fensterfunktion 233 bestimmt das Spitzen
wertfenster für den Sekundärfleck durch eine Suche ausgehend
vom Spitzenwert für den nächsten Ort unter dem Videoschwel
lenwert zu beiden Seiten des Spitzenwert- oder Nullorts.
Wenn sich keine Bildpunkte unter dem Videoschwellenwert fin
den, bevor der Rand des Fensters oder der nächste Spitzen
wert erreicht ist, wird eine Fehlermeldung 234 erzeugt und
entsprechend eingewirkt. Wenn sich Bildpunkte unter dem
Videoschwellenwert finden, sind dadurch die Grenzen des
Spitzenwertfensters für den Sekundärfleck für eine Bereichs
berechnungsfunktion 235 definiert.
Die Bereichsberechnungsfunktion 235 wirkt so, dass sie den
Schwerpunkt des Sekundärflecks innerhalb der Grenzen des
Spitzenwertfensters für den Sekundärfleck berechnet. Zum Be
stimmen des Schwerpunkts des Sekundärflecks wird eine Glei
chung ähnlich der obigen Gleichung (3) verwendet, mit der
Ausnahme, dass i und j auf die Zahl der Bildpunkte im Spit
zenwertfenster für den Sekundärfleck begrenzt sind. Das Aus
gangssignal der Bereichsberechnungsfunktion 235 bildet die
Fleckposition in Bildpunkten.
Nach der Bereichsberechnungsfunktion 235 verwendet eine Be
reichswandlungsfunktion 236 die Koeffizienten, wie sie wäh
rend der Kalibrierung bestimmt wurden und im EEPROM 107 des
Sensors 10 abgespeichert wurden, um die Bildpunkt-Fleckposi
tion des Sekundärflecks von der Bereichsberechnungsfunktion
236 in eine Bereichsposition in Millimetern umzuwandeln.
Wenn die Bereichspositionen des Primärflecks und des Sekun
därflecks einmal bestimmt sind, wird die Differenz zwischen
den Flecken berechnet, Block 238, und zur Verwendung und/oder
Anzeige an den Hostprozessor 64 rückgeliefert, Block
240. Die einzelnen Bereichspositionen der Primär- und Sekun
därflecke können ebenfalls zur Verwendung und/oder Anzeige
an den Hostprozessor 64 rückgeliefert werden.
Der Mehrfleckalgorithmus 200 ermöglicht es dem Benutzer, ei
nen oder zwei von fünf Flecken unter Verwendung der Fenster
funktion zu isolieren und einen Spitzenwert-Schwellenwert
zum Auswählen der zu verwendenden Flecke einzustellen. Die
Mehrfleckroutine kann dann die Position jedes der fünf Flecke
auf dem Detektor 20 bestimmen, und sie kann den Abstand
zwischen beliebigen zwei Flecken, oder den Bereich jedes der
Flecke, bestimmen.
Der oben beschriebene Sensor 10 und das Steuerungsmodul 60
bilden ein optisches Sensorsystem, das dadurch genaue Mess
werte erzeugen kann, dass der Speckleeffekt durch eine Ein
stellung der numerischen Apertur verringert ist, es verfügt
über ein verbessertes Bereich/Auflösung-Verhältnis und ein
verbessertes Bereich/Genauigkeit-Verhältnis, und es kann
gleichzeitig mehrere Lichtflecke auf dem Detektor 20 bestim
men.
Die Erfindung kann auf andere spezielle Formen realisiert
werden, ohne vom Grundgedanken der wesentlichen Bestandteile
derselben abzuweichen; daher ist das veranschaulichte Aus
führungsbeispiel in jeder Hinsicht als veranschaulichend und
nicht als beschränkend anzusehen, wobei auf die beigefügten
Ansprüche statt auf die vorstehende Beschreibung Bezug zu
nehmen ist, um den Schutzumfang der Erfindung anzuzeigen.
Claims (79)
1. Bereichssensor zum Bestimmen der Abmessungen eines
Ziels, mit:
- 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad zum Ziel;
- 2. einem optischen Element innerhalb des Lichtpfads zum Fo kussieren des Lichts auf das Ziel;
- 3. einem zweiten optischen Element zum Sammeln des am Ziel reflektierten Lichts, um das reflektierte Licht wesentlich zu fokussieren;
- 4. einem Detektor mit einer Fläche zum Erfassen des Bilds des fokussierten, reflektierten Lichts, wobei das reflektierte Licht einen Einfallswinkel zur Oberfläche des Detektors bil det; und
- 5. einem dritten optischen Element außerhalb der Bildebene des fokussierten, reflektierten Lichts, wobei dieses dritte optische Element angrenzend an die Fläche des Detektors liegt und es so konzipiert ist, dass es das reflektierte Licht empfängt, den Einfallswinkel verkleinert und das re flektierte Licht auf den Detektor lenkt.
2. Bereichssensor nach Anspruch 1, bei dem das dritte op
tische Element ein Beugungselement enthält.
3. Bereichssensor nach Anspruch 2, bei dem das dritte op
tische Element ein Prisma enthält.
4. Bereichssensor nach Anspruch 2, bei dem das dritte op
tische Element ein Gitter enthält.
5. Bereichssensor nach Anspruch 3, bei das Prisma ungefähr
ein 15-Grad-Prisma ist.
6. Bereichssensor nach Anspruch 1, bei dem das dritte op
tische Element den Fleck des reflektierten Lichts mit unge
fähr normalem Einfall auf den Detektor lenkt.
7. Bereichssensor nach Anspruch 1, bei dem das Bild des
Flecks des reflektierten Lichts im Wesentlichen auf die
Oberfläche des Detektors fokussiert ist.
8. Bereichssensor nach Anspruch 3, bei dem das Prisma eine
im Wesentlichen ebene Stirnfläche aufweist.
9. Bereichssensor nach Anspruch 1, ferner mit einem Sen
sorgehäuse zum Aufnehmen der Lichtquelle, des optischen Ele
ments, des zweiten optischen Elements und des Detektors, wo
bei das Sensorgehäuse mehrere Montagelöcher aufweist, um es
genau und reproduzierbar montieren zu können.
10. Bereichssensor nach Anspruch 9, bei dem das Sensorge
häuse so konzipiert ist, dass es sowohl wendbar als auch
stapelbar ist.
11. Bereichssensor nach Anspruch 1, bei dem Kalibrierinfor
mation für den Bereichssensor in ihm gespeichert ist.
12. Bereichssensor nach Anspruch 11, bei dem die Kalibrier
information Nichtlinearitätsinformation zu ihm beinhaltet.
13. Bereichssensor nach Anspruch 1, bei dem der Detektor
mehrere photoempfindliche Elemente aufweist.
14. Bereichssensor nach Anspruch 13, bei dem der Detektor
ein lineares Metalloxid-Halbleiter-Array aufweist.
15. Bereichssensor nach Anspruch 1, der niedrige Energie
verluste nicht über ungefähr 1,0 W aufweist.
16. Bereichssensor nach Anspruch 1, ferner mit einem se
riellen Port zum kommunikativen Verbinden des Bereichssen
sors mit einem Steuerungsmodul.
17. Bereichssensor nach Anspruch 1, der ein Bereich/Auflö
sung-Verhältnis von ungefähr ≧ 2000 : 1 aufweist.
18. Bereichssensor nach Anspruch 1, der ein Bereich/Genau
igkeit-Verhältnis von ungefähr ≧ 200 : 1 aufweist.
19. Bereichssensor zum Bestimmen der Abmessungen eines
Ziels, mit:
- 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad zum Ziel;
- 2. einem optischen Element innerhalb des Lichtpfads zum Fo kussieren des Lichts auf das Ziel;
- 3. einem zweiten optischen Element zum Sammeln des am Ziel reflektierten Lichts, um das reflektierte Licht wesentlich zu fokussieren;
- 4. einem Detektor mit einer Fläche zum Erfassen des Bilds des fokussierten, reflektierten Lichts, wobei das reflektierte Licht einen Einfallswinkel zur Oberfläche des Detektors bil det, wobei das zweite optische Element so konzipiert ist, dass es das reflektierte Licht auf die Oberfläche des Detek tors fokussiert; und
- 5. einem dritten optischen Element außerhalb der Bildebene des fokussierten, reflektierten Lichts, wobei dieses dritte optische Element angrenzend an die Fläche des Detektors liegt und das optische Element so konzipiert ist, dass es das reflektierte Licht empfängt, den Einfallswinkel verklei nert und das reflektierte Licht auf den Detektor lenkt.
20. Bereichssensor nach Anspruch 19, bei dem das dritte
optische Element ein Beugungselement enthält.
21. Bereichssensor nach Anspruch 20, bei dem das dritte op
tische Element ein Prisma enthält.
22. Bereichssensor nach Anspruch 20, bei dem das dritte op
tische Element ein Gitter enthält.
23. Bereichssensor nach Anspruch 19, bei dem das dritte op
tische Element den Fleck des reflektierten Lichts mit unge
fähr normalem Einfall auf den Detektor lenkt.
24. Bereichssensor zum Bestimmen der Abmessungen eines
Ziels, mit:
- 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad zum Ziel;
- 2. einem optischen Element innerhalb des Lichtpfads zum Fo kussieren des Lichts auf das Ziel;
- 3. einem zweiten optischen Element zum Sammeln des am Ziel reflektierten Lichts, um das reflektierte Licht wesentlich zu fokussieren, wobei dieses zweite optische Element eine ziemlich große numerische Apertur aufweist;
- 4. einem Detektor mit einer Fläche zum Erfassen des Bilds des fokussierten, reflektierten Lichts, wobei das reflektierte Licht einen Einfallswinkel zur Oberfläche des Detektors bil det; und
- 5. einem dritten optischen Element außerhalb der Bildebene des fokussierten, reflektierten Lichts, wobei dieses dritte optische Element angrenzend an die Fläche des Detektors liegt und es so konzipiert ist, dass es das reflektierte Licht empfängt, den Einfallswinkel verkleinert und das re flektierte Licht auf den Detektor lenkt.
25. Bereichssensor nach Anspruch 24, bei dem das dritte op
tische Element ein Beugungselement enthält.
26. Bereichssensor nach Anspruch 25, bei dem das dritte op
tische Element ein Prisma enthält.
27. Bereichssensor nach Anspruch 25, bei dem das dritte op
tische Element ein Gitter enthält.
28. Bereichssensor nach Anspruch 24, bei dem das dritte op
tische Element den Fleck des reflektierten Lichts mit unge
fähr normalem Einfall auf den Detektor lenkt.
29. Bereichssensor nach Anspruch 24, bei dem die ziemlich
große numerische Apertur so wirkt, dass sie den Speckleef
fekt an der Oberfläche des Detektors wesentlich verringert.
30. Bereichssensor nach Anspruch 24, bei dem die ziemlich
große numerische Apertur so wirkt, dass sie Unbestimmtheiten
bei Bereichsmessungen wesentlich verringert.
31. Bereichssensor nach Anspruch 24, bei dem die ziemlich
große numerische Apertur 0,1 beträgt.
32. Bereichssensor nach Anspruch 31, bei dem die ziemlich
große numerische Apertur 0,2 beträgt.
33. Bereichssensor zum Vornehmen von Bereichsmessungen und
zum Bestimmen der Abmessungen eines Ziels, mit:
- 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad auf das Ziel;
- 2. einem Sender innerhalb des Lichtpfads zum Fokussieren des Lichts auf das Ziel;
- 3. einem Empfänger zum Sammeln des am Ziel reflektierten Lichts und zum Fokussieren des reflektierten Lichts, wobei der Empfänger eine ziemlich große numerische Apertur auf weist; und
- 4. einem Detektor mit einer Erfassungsfläche, die so konzi piert ist, dass sie das reflektierte Licht empfängt, wobei die ziemlich große numerische Apertur so wirkt, dass sie den Speckleeffekt an der Erfassungsfläche wesentlich verringert.
34. Bereichssensor nach Anspruch 33, bei dem die ziemlich
große numerische Apertur so wirkt, dass sie Unbestimmtheiten
bei Bereichsmessungen wesentlich verringert.
35. Bereichssensor nach Anspruch 33, bei dem die ziemlich
große numerische Apertur ≧ 0,1 beträgt.
36. Bereichssensor nach Anspruch 35, bei dem die ziemlich
große numerische Apertur 0,2 beträgt.
37. Bereichssensor nach Anspruch 33, bei dem der Detektor
mehrere photoempfindliche Elemente aufweist.
38. Bereichssensor nach Anspruch 37, bei dem der Detektor
ein lineares Metalloxid-Halbleiter-Array aufweist.
39. Bereichssensor nach Anspruch 33, der niedrige Energie
verluste nicht über ungefähr 1,0 W aufweist.
40. Bereichssensor nach Anspruch 33, ferner mit einem se
riellen Port zum kommunikativen Verbinden des Bereichssen
sors mit einem Steuerungsmodul.
41. Bereichssensor nach Anspruch 33, bei dem das am Ziel
reflektierte Licht entlang einem Pfad reflektiert wird, und
bei dem der Empfänger ein Filter aufweist, das relativ zu
diesem Pfad gekippt ist.
42. Bereichssensor nach Anspruch 33, bei dem das Filter ge
kippt ist, um Aberrationen zu korrigieren.
43. Bereichssensor nach Anspruch 33, ferner mit einem Sen
sorgehäuse zum Aufnehmen der Lichtquelle, des optischen Ele
ments, des zweiten optischen Elements und des Detektors, wo
bei das Sensorgehäuse mehrere Montagelöcher aufweist, um es
genau und reproduzierbar montieren zu können.
44. Bereichssensor nach Anspruch 43, bei dem das Sensorge
häuse so konzipiert ist, dass es sowohl wendbar als auch
stapelbar ist.
45. Bereichssensor nach Anspruch 33, bei dem Kalibrierin
formation für den Bereichssensor in ihm gespeichert ist.
46. Bereichssensor nach Anspruch 45, bei dem die Kalibrier
information Nichtlinearitätsinformation zu ihm beinhaltet.
47. Bereichssensor nach Anspruch 33, der ein Bereich/Auflö
sung-Verhältnis von ungefähr ≧ 2000 : 1 aufweist.
48. Bereichssensor nach Anspruch 33, der ein Bereich/Genau
igkeit-Verhältnis von ungefähr ≧ 200 : 1 aufweist.
49. Bereichssensorsystem zum Bestimmen der Abmessungen ei
nes Ziels, mit:
- 1. einem Bereichssensor mit einem Detektor zum Erfassen von Licht, das an einem Ziel reflektiert wird, wobei der Sensor so konzipiert ist, dass er für das erfasste Licht repräsen tative digitale Daten erzeugt; und
- 2. einem Steuerungsmodul, das kommunikativ mit dem Bereichs sensor verbunden ist und so konzipiert ist, dass es die di gitalen Daten empfängt und auf diese einwirkt, um einen nu merischen Abmessungs-Ablesewert zu erzeugen.
50. Bereichssensorsystem nach Anspruch 49, bei dem das
Steuerungsmodul dadurch auf die digitalen Daten einwirkt,
dass es eine Schwerpunktsberechnung ausführt, um einen nume
rischen Abmessungs-Ablesewert zu erzeugen.
51. Bereichssensorsystem nach Anspruch 50, bei dem das
Steuerungsmodul dadurch auf die digitalen Daten einwirkt,
dass es einen Schwellenwert auf diese digitalen Daten anwen
det, um einen numerischen Abmessungs-Ablesewert zu erzeugen.
52. Bereichssensorsystem nach Anspruch 49, bei dem das er
fasste Licht mindestens zwei Spitzenwerte der Lichtintensi
tät beinhaltet und bei dem das Steuerungsmodul so konzipiert
ist, dass es einen numerischen Abmessungs-Messwert für die
mindestens zwei Spitzenwerte der Lichtintensität erzeugt.
53. Bereichssensorsystem nach Anspruch 49, bei dem das er
fasste Licht mindestens zwei Spitzenwerte der Lichtintensi
tät enthält und bei dem das Steuerungsmodul so konzipiert
ist, dass es für mindestens einen der zwei Spitzenwerte der
Lichtintensität einen numerischen Abmessungs-Messwert er
zeugt.
54. Bereichssensorsystem nach Anspruch 52, bei dem das
Steuerungsmodul so konzipiert ist, dass es aus den mindes
tens zwei Spitzenwerten der Lichtintensität einen numeri
schen Dickenmesswert für das Ziel erzeugt.
55. Bereichssensorsystem nach Anspruch 49, ferner mit einem
Hostprozessor, der kommunikativ mit dem Steuerungsmodul ver
bunden ist.
56. Bereichssensorsystem nach Anspruch 55, bei dem der
Hostprozessor kommunikativ über einen Bus dieses Hostprozes
sors mit dem Steuerungsmodul verbunden ist.
57. Bereichssensorsystem nach Anspruch 49, bei dem Kali
brierungsinformation des Bereichssensors in diesem gespei
chert ist und bei dem das Steuerungsmodul so konzipiert ist,
dass es diese Kalibrierungsinformation liest.
58. Bereichssensorsystem nach Anspruch 57, bei dem das
Steuerungsmodul so konzipiert ist, dass es die Kalibrie
rungsinformation dazu verwendet, die digitalen Daten vom Be
reichssensor zu linearisieren.
59. Bereichssensorsystem nach Anspruch 49, bei dem das
Steuerungsmodul kommunikativ über ein serielles Kabel mit
dem Bereichssensor gekoppelt ist.
60. Bereichssensorsystem zum Bestimmen der Abmessungen ei
nes Ziels, mit:
- 1. einem Bereichssensor mit einem Detektor zum Erfassen von Licht, das an einem Ziel reflektiert wird, wobei das erfass te Licht mehrere Lichtintensitäts-Spitzenwerte enthält, und wobei der Bereichssensor so konzipiert ist, dass er für das erfasste Licht repräsentative Daten erzeugt; und
- 2. einem Steuerungsmodul, das kommunikativ mit dem Bereichs sensor verbunden ist und so konzipiert ist, dass es die Da ten empfängt und auf diese Daten einwirkt, um für mindestens einen der mehreren Lichtintensitäts-Spitzenwerte einen nume rischen Abmessungs-Ablesewert zu erzeugen.
61. Bereichssensorsystem nach Anspruch 60, bei dem die Da
ten digitale Daten sind.
62. Bereichssensorsystem nach Anspruch 60, bei dem das
Steuerungsmodul dadurch auf die Daten einwirkt, dass es eine
Schwerpunktsberechnung ausführt, um einen numerischen Abmes
sungs-Ablesewert zu erzeugen.
63. Bereichssensorsystem nach Anspruch 62, bei dem das
Steuerungsmodul dadurch auf die Daten einwirkt, dass es ei
nen Schwellenwert auf diese digitalen Daten anwendet, um
einen numerischen Abmessungs-Ablesewert zu erzeugen.
64. Bereichssensorsystem nach Anspruch 60, bei dem das er
fasste Licht mindestens zwei Spitzenwerte der Lichtintensi
tät beinhaltet und bei dem das Steuerungsmodul so konzipiert
ist, dass es aus zwei Spitzenwerten der mehreren Lichtinten
sitäts-Spitzenwerte einen numerischen Dickenmesswert für das
Ziel erzeugt.
65. Bereichssensorsystem nach Anspruch 60, ferner mit einem
Hostprozessor, der kommunikativ mit dem Steuerungsmodul ver
bunden ist.
66. Bereichssensorsystem nach Anspruch 65, bei dem der
Hostprozessor kommunikativ über einen Bus dieses Hostprozes
sors mit dem Steuerungsmodul verbunden ist.
67. Bereichssensorsystem nach Anspruch 60, bei dem Kali
brierungsinformation des Bereichssensors in diesem gespei
chert ist und bei dem das Steuerungsmodul so konzipiert ist,
dass es diese Kalibrierungsinformation liest.
68. Bereichssensorsystem nach Anspruch 67, bei dem das
Steuerungsmodul so konzipiert ist, dass es die Kalibrie
rungsinformation dazu verwendet, die digitalen Daten vom Be
reichssensor zu linearisieren.
69. Bereichssensorsystem nach Anspruch 60, bei dem das
Steuerungsmodul kommunikativ über ein serielles Kabel mit
dem Bereichssensor gekoppelt ist.
70. Verfahren zum Bestimmen der Abmessungen eines Ziels,
mit, der Reihe nach, den folgenden Schritten:
- 1. Empfangen digitaler Daten von einem Bereichssensor, wobei die digitalen Daten für Licht repräsentativ sind, das von einem Detektor des Bereichssensors empfangen wird;
- 2. Anwenden eines Schwellenwerts auf die digitalen Daten;
- 3. Ausführen einer Schwerpunktsberechnung an den dem Schwel lenwert unterzogenen digitalen Daten; und
- 4. Erzeugen eines numerischen Abmessungsmesswerts für das Ziel aus der Schwerpunktsberechnung.
71. Verfahren nach Anspruch 70, ferner mit dem Schritt des
Linearisierens der Schwerpunktsberechnung.
72. Verfahren zum Bestimmen der Abmessungen eines Ziels,
mit, der Reihe nach, den folgenden Schritten:
- 1. Empfangen von Daten von einem Bereichssensor, wobei diese digitalen Daten für Licht repräsentativ sind, wie es von einem Detektor des Bereichssensors empfangen wird, und wobei das Licht mehrere Spitzenwert-Lichtintensitäten enthält;
- 2. Anwenden eines Schwellenwerts auf die Daten mindestens einer der mehreren Spitzenwert-Lichtintensitäten;
- 3. Ausführen einer Schwerpunktsberechnung an den Daten der mindestens einen der mehreren Spitzenwert-Lichtintensitäten; und
- 4. Erzeugen mindestens eines numerischen Abmessungsmesswerts für das Ziel aus der Schwerpunktsberechnung.
73. Verfahren nach Anspruch 72, bei dem die Daten digitale
Daten sind.
74. Verfahren nach Anspruch 72, ferner mit dem Anwenden ei
nes Schwellenwerts auf die Daten mindestens zweier der meh
reren Spitzenwert-Lichtintensitäten, und dem Ausführen einer
Schwerpunktsberechnung an den Daten mindestens zweier der
mehreren Spitzenwert-Lichtintensitäten.
75. Verfahren nach Anspruch 74, ferner mit dem Erzeugen
mindestens zweier numerischer Abmessungsmesswerte für das
Ziel aus der Schwerpunktsberechnung an den Daten mindestens
zweier der mehreren Spitzenwert-Lichtintensitäten.
76. Verfahren nach Anspruch 74, ferner mit dem Schritt des
Erzeugens eines Dickenmesswerts für das Ziel aus der Schwer
punktsberechnung aus den Daten mindestens zweier der mehre
ren Spitzenwert-Lichtintensitäten.
77. Verfahren nach Anspruch 72, ferner mit dem Schritt des
Linearisierens der Schwerpunktsberechnung.
78. Verfahren nach Anspruch 74, ferner mit dem Schritt des
Linearisierens der Schwerpunktsberechnung.
79. Verfahren zum Verringern des Einfallswinkels von an
einem Ziel reflektiertem Licht, mit den folgenden Schritten:
- 1. Lenken von Licht entlang einem Pfad auf ein Ziel;
- 2. Fokussieren des Lichts auf das Ziel;
- 3. Sammeln des Reflexionslichts vom Ziel, wobei das Licht un ter einem Einfallswinkel am Ziel reflektiert wird;
- 4. wesentliches Fokussieren des gesammelten Reflexionslichts;
- 5. Verringern des Einfallswinkels des gesammelten Reflexions lichts außerhalb einer Bildebene des fokussierten Refle xionslichts; und
- 6. Erfassen des fokussierten Reflexionslichts unter dem ver ringerten Einfallswinkel.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US3981998A | 1998-03-16 | 1998-03-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19911419A1 true DE19911419A1 (de) | 1999-10-14 |
Family
ID=21907508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19911419A Withdrawn DE19911419A1 (de) | 1998-03-16 | 1999-03-15 | Digitales Bereichssensorsystem |
Country Status (3)
Country | Link |
---|---|
US (3) | US6088110A (de) |
JP (1) | JPH11311504A (de) |
DE (1) | DE19911419A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10319182B4 (de) * | 2003-04-29 | 2008-06-12 | Carl Zeiss Jena Gmbh | Verfahren und Anordnung zur Bestimmung der Fokusposition bei der Abbildung einer Probe |
DE102007011902A1 (de) | 2007-03-13 | 2008-07-24 | Daimler Ag | Laserschweißvorrichtung |
DE10362244B4 (de) * | 2003-04-29 | 2014-06-26 | Carl Zeiss Microscopy Gmbh | Verfahren zur Bestimmung der Fokusposition und der Verkippung der Fokusebene bei der Abbildung einer Probe |
DE102007058505B4 (de) | 2006-12-07 | 2022-03-17 | Keyence Corporation | Optischer Abstandssensor und optische Abstandsmesseinrichtung |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CH695028A5 (de) * | 1999-12-24 | 2005-11-15 | Hera Rotterdam Bv | Optoelektronischer Distanzsensor und Verfahren zur optoelektronischen Distanzmessung. |
KR100399637B1 (ko) * | 2000-12-21 | 2003-09-29 | 삼성전기주식회사 | 광학식 마우스 |
KR100399635B1 (ko) * | 2000-12-21 | 2003-09-29 | 삼성전기주식회사 | 광학식 마우스 |
US20020140824A1 (en) * | 2001-04-02 | 2002-10-03 | Christoff Jordan C. | System and method for processing low illumination image data |
US7209779B2 (en) * | 2001-07-17 | 2007-04-24 | Accuimage Diagnostics Corp. | Methods and software for retrospectively gating a set of images |
US6778267B2 (en) * | 2001-09-24 | 2004-08-17 | Kla-Tencor Technologies Corp. | Systems and methods for forming an image of a specimen at an oblique viewing angle |
US7071460B2 (en) * | 2002-06-07 | 2006-07-04 | Christopher Rush | Optical non-contact measuring probe |
JP4185397B2 (ja) * | 2002-12-25 | 2008-11-26 | 株式会社キーエンス | 光学式検出器 |
JP4379056B2 (ja) * | 2003-08-12 | 2009-12-09 | 富士ゼロックス株式会社 | 三次元画像撮像装置および方法 |
JP5226510B2 (ja) * | 2005-06-30 | 2013-07-03 | エイエムオー・ウェーブフロント・サイエンシーズ・リミテッド・ライアビリティ・カンパニー | 光学表面の曲率を測定するシステムおよび方法 |
WO2007072044A1 (en) * | 2005-12-23 | 2007-06-28 | Ingenia Holdings (Uk) Limited | Optical authentication |
GB0612786D0 (en) * | 2006-06-28 | 2006-08-09 | Spiral Scratch Ltd | Imaging with depth information |
CA2597891A1 (en) * | 2007-08-20 | 2009-02-20 | Marc Miousset | Multi-beam optical probe and system for dimensional measurement |
US7808617B2 (en) | 2007-09-17 | 2010-10-05 | Quality Vision International, Inc. | Dual resolution, dual range sensor system and method |
US7791731B2 (en) * | 2007-12-18 | 2010-09-07 | Quality Vision International, Inc. | Partial coherence interferometer with measurement ambiguity resolution |
CN101561267B (zh) * | 2008-04-16 | 2013-06-05 | 鸿富锦精密工业(深圳)有限公司 | 距离测量装置与方法 |
CN102639989B (zh) | 2009-11-06 | 2014-12-10 | 赛博光学公司 | 具有自适应聚焦的高速光学检查系统 |
JP2011106896A (ja) * | 2009-11-16 | 2011-06-02 | Mitsutoyo Corp | 非接触プローブ、及び測定機 |
US20140035812A1 (en) * | 2011-05-05 | 2014-02-06 | Maxim Integrated Products, Inc. | Gesture sensing device |
US8716649B2 (en) | 2011-05-05 | 2014-05-06 | Maxim Integrated Products, Inc. | Optical gesture sensor using a single illumination source |
US9229581B2 (en) | 2011-05-05 | 2016-01-05 | Maxim Integrated Products, Inc. | Method for detecting gestures using a multi-segment photodiode and one or fewer illumination sources |
US9555407B2 (en) | 2013-03-14 | 2017-01-31 | Protedyne Corporation | Laser triangulation for pipette tip position |
JP6381909B2 (ja) * | 2013-12-27 | 2018-08-29 | パナソニック デバイスSunx株式会社 | 変位センサ |
FR3031183B1 (fr) * | 2014-12-31 | 2018-01-26 | Arianegroup Sas | Procede et dispositif pour le controle laser de l'etat d'une surface |
JP2021015100A (ja) * | 2019-07-16 | 2021-02-12 | パナソニックIpマネジメント株式会社 | 受光器、投光器、及び光電センサ |
CN113917397A (zh) * | 2021-09-17 | 2022-01-11 | 深圳市睿联技术股份有限公司 | 测距方法、装置、系统及计算机可读存储介质 |
CN114460594B (zh) * | 2022-04-14 | 2022-06-14 | 宜科(天津)电子有限公司 | 一种基于三角测距的图像的去噪方法 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3497289A (en) * | 1967-09-25 | 1970-02-24 | Bausch & Lomb | Prism variable anamorphic optical system |
DE1673927A1 (de) * | 1968-02-09 | 1971-08-12 | Philips Patentverwaltung | Verfahren und Anordnung zur Wiedererkennung eines Koerpers oder seiner Position und Orientierung im Raum |
DE1673905A1 (de) * | 1968-02-15 | 1971-09-30 | Eltro Gmbh | Mit einem Laser-Entfernungsmesser kombiniertes optisches Ziel-oder Beobachtungsgeraet |
US3497259A (en) | 1968-06-28 | 1970-02-24 | William E Sherfey | Head or back support for wheelchairs |
US3799652A (en) * | 1971-03-05 | 1974-03-26 | Thomson Csf | Optical deflection system with acousto optical cell and associated prisms |
US4017160A (en) * | 1975-09-19 | 1977-04-12 | Minnesota Mining And Manufacturing Company | Continuously variable anamorphic lens |
US4084881A (en) * | 1975-10-21 | 1978-04-18 | Canon Kabushiki Kaisha | Light beam scanning device |
US4059343A (en) * | 1976-02-26 | 1977-11-22 | The United States Of America As Represented By The Secretary Of The Air Force | Prismatic anamorphic system for optical correlators |
US4170401A (en) * | 1977-08-15 | 1979-10-09 | The Perkin-Elmer Corporation | Passive error compensating device for optical alignment |
US4373804A (en) * | 1979-04-30 | 1983-02-15 | Diffracto Ltd. | Method and apparatus for electro-optically determining the dimension, location and attitude of objects |
JPS5838880A (ja) * | 1981-08-31 | 1983-03-07 | Tokyo Optical Co Ltd | 光波距離計 |
US4436260A (en) * | 1981-12-21 | 1984-03-13 | The United States Of America As Represented By The Secretary Of The Air Force | Optical scanner for use in confined areas |
JPS58113807A (ja) * | 1981-12-28 | 1983-07-06 | Canon Inc | 距離測定装置 |
JPS58174874A (ja) * | 1982-04-08 | 1983-10-13 | Tokyo Optical Co Ltd | 光波測距方法及びその装置 |
US4488813A (en) * | 1982-04-29 | 1984-12-18 | Mechanical Technology Incorporated | Reflectivity compensating system for fiber optic sensor employing dual probes at a fixed gap differential |
JPS59202010A (ja) * | 1983-05-02 | 1984-11-15 | Kubota Ltd | 自動測距装置 |
JPS6020111A (ja) * | 1983-07-14 | 1985-02-01 | Fuji Electric Corp Res & Dev Ltd | 距離測定装置 |
US4580879A (en) * | 1983-09-06 | 1986-04-08 | Storage Technology Partners Ii | In-line optical anamorphic beam expander/contractor |
DE3586008D1 (de) * | 1984-03-09 | 1992-06-17 | Hitachi Ltd | Prismensystem und vorrichtung zur verarbeitung optischer informationen. |
JPH0675131B2 (ja) * | 1984-06-08 | 1994-09-21 | ミノルタカメラ株式会社 | ゾーンフォーカスカメラの測距装置 |
JPS61116611A (ja) * | 1984-11-12 | 1986-06-04 | Canon Inc | 距離測定方法 |
JPS61183928A (ja) * | 1985-02-12 | 1986-08-16 | Nippon Kogaku Kk <Nikon> | 投影光学装置 |
KR900002117B1 (ko) * | 1985-03-28 | 1990-04-02 | 시부야 고오교오 가부시끼가이샤 | 레이저 광선을 이용한 거리측정방법과 장치 |
DE3536700C3 (de) * | 1985-10-15 | 1994-07-07 | Focus Mestechnik Gmbh & Co Kg | Gerät zum Ermitteln des lokalen Abstandes einer Prüffläche von einer Referenzfläche, deren geometrische Lage in bezug auf das Gerät bekannt ist |
US4733969A (en) * | 1986-09-08 | 1988-03-29 | Cyberoptics Corporation | Laser probe for determining distance |
US4891772A (en) * | 1987-04-15 | 1990-01-02 | Cyberoptics Corporation | Point and line range sensors |
US4872747A (en) * | 1987-04-15 | 1989-10-10 | Cyberoptics Corporation | Use of prisms to obtain anamorphic magnification |
CA1307051C (en) * | 1988-02-26 | 1992-09-01 | Paolo Cielo | Method and apparatus for monitoring the surface profile of a moving workpiece |
JP2681649B2 (ja) * | 1988-04-01 | 1997-11-26 | 株式会社トプコン | 面位置検出装置 |
US5218415A (en) * | 1988-05-31 | 1993-06-08 | Canon Kabushiki Kaisha | Device for optically detecting inclination of a surface |
JPH0652707B2 (ja) * | 1988-10-11 | 1994-07-06 | キヤノン株式会社 | 面位置検出方法 |
CA1298380C (en) * | 1988-10-19 | 1992-03-31 | National Research Council Of Canada | Method and system for increasing the effective dynamic range of a photosensor |
GB8826224D0 (en) * | 1988-11-09 | 1988-12-14 | Gersan Anstalt | Sensing shape of object |
JPH04166786A (ja) * | 1990-10-30 | 1992-06-12 | Topcon Corp | 投光受光光学装置 |
US5272501A (en) * | 1991-08-28 | 1993-12-21 | Nikon Corporation | Projection exposure apparatus |
JP3204406B2 (ja) * | 1991-10-30 | 2001-09-04 | 株式会社ニコン | 面位置検出方法及び装置、半導体露光装置、並びに前記方法を用いた露光方法 |
CA2115859C (en) * | 1994-02-23 | 1995-12-26 | Brian Dewan | Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device |
US5530548A (en) * | 1994-11-07 | 1996-06-25 | Automotive Systems Laboratory, Inc. | Calibratable optical distance sensing system and method |
US5806020A (en) * | 1995-08-29 | 1998-09-08 | Laser Technology, Inc. | Laser based speed and accident reconstruction measuring apparatus and method |
JP3209667B2 (ja) * | 1995-10-09 | 2001-09-17 | 三菱電機株式会社 | 車両用光レーダ装置 |
-
1999
- 1999-03-15 DE DE19911419A patent/DE19911419A1/de not_active Withdrawn
- 1999-03-16 JP JP11070326A patent/JPH11311504A/ja active Pending
- 1999-05-25 US US09/318,582 patent/US6088110A/en not_active Expired - Lifetime
- 1999-09-03 US US09/389,539 patent/US6353478B1/en not_active Expired - Lifetime
-
2000
- 2000-03-02 US US09/517,677 patent/US6288786B1/en not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10319182B4 (de) * | 2003-04-29 | 2008-06-12 | Carl Zeiss Jena Gmbh | Verfahren und Anordnung zur Bestimmung der Fokusposition bei der Abbildung einer Probe |
DE10362244B4 (de) * | 2003-04-29 | 2014-06-26 | Carl Zeiss Microscopy Gmbh | Verfahren zur Bestimmung der Fokusposition und der Verkippung der Fokusebene bei der Abbildung einer Probe |
DE102007058505B4 (de) | 2006-12-07 | 2022-03-17 | Keyence Corporation | Optischer Abstandssensor und optische Abstandsmesseinrichtung |
DE102007011902A1 (de) | 2007-03-13 | 2008-07-24 | Daimler Ag | Laserschweißvorrichtung |
Also Published As
Publication number | Publication date |
---|---|
JPH11311504A (ja) | 1999-11-09 |
US6088110A (en) | 2000-07-11 |
US6353478B1 (en) | 2002-03-05 |
US6288786B1 (en) | 2001-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19911419A1 (de) | Digitales Bereichssensorsystem | |
DE69312403T2 (de) | Messung der Wanddicke eines transparenten Gefässes | |
DE69925582T2 (de) | Vorrichtung und verfahren zum optischen messen der oberflächenkontur eines objekts | |
EP0048489B1 (de) | Vorrichtung zum Untersuchen eines Fingerreliefs | |
DE3687568T2 (de) | Eingabeschnittstelle fuer rechner. | |
DE3926349C2 (de) | ||
DE2823060A1 (de) | Vorrichtung und verfahren zum messen der wellenlaenge eines lichtstrahls | |
CH654914A5 (de) | Optoelektronisches messverfahren und einrichtung zum bestimmen der oberflaechenguete streuend reflektierender oder transparenter oberflaechen. | |
DE4211875A1 (de) | Optischer Abstandssensor | |
DE19727226A1 (de) | Meßanordnung und Verfahren zum berührungslosen Erfassen der 3-dimensionalen Raumform einer Brillenfassungsnut | |
DE3719422C2 (de) | ||
EP3899424B1 (de) | Vorrichtung und verfahren zur optischen vermessung einer innenkontur einer brillenfassung | |
DE112013001142T5 (de) | Verfahren zum Identifizieren abnormaler Spektralprofile, die von einem chromatischen konfokalen Entfernungssensor gemessen werden | |
DE3784231T2 (de) | Verfahren und vorrichtung zur beruehrungslosen automatischen fokussierung. | |
DE4235832A1 (de) | Dachoberflaechenmessvorrichtung | |
WO2020225125A1 (de) | Erfassungsvorrichtung mit zumindest einer sensoreinrichtung, einer auswerteeinrichtung, einer lichtquelle sowie einem trägermedium | |
DE69404226T2 (de) | Kontaktloser zweistufiger Detektionspositionierungsapparat | |
DE69830323T2 (de) | Vorrichtung und verfahren zur bestimmung der optischen verzerrung eines transparenten substrats | |
DE3732149C2 (de) | Verfahren und Vorrichtung zum Charakterisieren einer Genauigkeitseigenschaft einer optischen Linse | |
DE102007027553A1 (de) | Zeigevorrichtung | |
DE4105509C2 (de) | Streulichtmeßanordnung zur Untersuchung der Oberflächenrauheit | |
DE4135959C2 (de) | Verfahren zur Messung der Neigungen von Grenzflächen in einem optischen System | |
DE102018211913A1 (de) | Vorrichtung und Verfahren zum Erfassen einer Objektoberfläche mittels elektromagnetischer Strahlung | |
EP0961930B1 (de) | Lichtabtastvorrichtung | |
DE102015115615A1 (de) | Vorrichtung und Verfahren zur chromatisch-konfokalen Untersuchung einer Probe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: QUALITY VISION INTERNATIONAL, ROCHESTER, N.Y., US |
|
8127 | New person/name/address of the applicant |
Owner name: QUALITY VISION INTERNATIONAL,INC., ROCHESTER, N.Y. |
|
8139 | Disposal/non-payment of the annual fee |