[go: up one dir, main page]

DE19911419A1 - Digitales Bereichssensorsystem - Google Patents

Digitales Bereichssensorsystem

Info

Publication number
DE19911419A1
DE19911419A1 DE19911419A DE19911419A DE19911419A1 DE 19911419 A1 DE19911419 A1 DE 19911419A1 DE 19911419 A DE19911419 A DE 19911419A DE 19911419 A DE19911419 A DE 19911419A DE 19911419 A1 DE19911419 A1 DE 19911419A1
Authority
DE
Germany
Prior art keywords
light
area sensor
detector
target
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19911419A
Other languages
English (en)
Inventor
Eric P Rudd
William P Kennedy
David D Madsen
Troy R Pesola
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quality Vision International Inc
Original Assignee
Cyberoptics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cyberoptics Corp filed Critical Cyberoptics Corp
Publication of DE19911419A1 publication Critical patent/DE19911419A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Lenses (AREA)

Abstract

Ein digitaler Bereichssensor beinhaltet eine Lichtquelle, ein optisches Element zum Herunterfokussieren des Lichts von der Quelle auf einen kleinen Fleck auf einem Ziel, ein zweites optisches Element, das schräg gegen die Quellenachse angebracht ist, und ein Prisma, das auf einem Mehrelementedetektor angebracht ist, der seinerseits im Brennpunkt des vom Ziel zurücklaufenden Lichts angebracht ist. Der Zweck des Prismas auf dem Detektor besteht darin, das Licht unter einem Winkel näher am normalen Einfall auf die aktive Fläche des Detektors zu lenken, als dies anderenfalls möglich wäre. Der Detektor erzeugt digitale Daten, die zur Verarbeitung und zum Erzeugen eines numerischen Bereichsmeßwerts an ein Steuerungsmodul übertragen werden.

Description

GEBIET DER ERFINDUNG
Die Erfindung betrifft lichtgestützte Bereichssensoren, im Allgemeinen lasergestützte Bereichssensoren, die optische Messungen hoher Genauigkeit an Oberflächen mit variierenden Profilen und variierendem Reflexionsgrad ausführen. Genauer gesagt, betrifft die Erfindung kontaktfreie Sensoren, die den Abstand vom Sensorkopf zur getesteten Oberfläche optisch messen.
HINTERGRUND DER ERFINDUNG
Oberflächenprofil-Nachfahrvorrichtungen hoher Genauigkeit waren in der Vergangenheit hauptsächlich vom Kontakttyp. Zum Abtasten der getesteten Oberfläche wird ein Stift mit kugel­ förmigem Rubin (mit einem Radius von typischerweise 1 mm) verwendet. Bei einigen Systemen wird die Auslenkung der Son­ de durch das Schließen eines mechanischen Mikroschalters ge­ messen; bei anderen Systemen wird die Auslenkung kapazitiv gemessen. Obwohl derartige Sonden auf geeigneten Materialien extrem genau sein können, ist der Bereich geeigneter Mate­ rialien begrenzt. Ungenaue Ablesewerte oder Beschädigungen können auftreten, wenn die Probe ungeeignet ist. Zu Beispie­ len ungeeigneter Proben gehören: weiche, flüssige oder kleb­ rige Materialien, sehr dünne Proben, die sich unter dem Stiftdruck verformen würden, Proben, mit Hohlräumen mit ei­ nem Radius unter dem des Radius der Spitze, oder Proben, de­ ren Berührung gefährlich ist. Außerdem muss, um die Abnut­ zung der Sonde und der Probe zu minimieren, die Messge­ schwindigkeit niedrig gemacht werden.
Als Alternative zu elektromechanischen Kontrolleinrichtungen und Kontaktsonden mit Rubinspitze wurden verschiedene Arten von Messsystemen unter Verwendung optischer Triangulation entwickelt. Das US-Patent 4,733,969 offenbart eine Laserson­ de zum Bestimmen des Abstands von der Sonde zum Testobjekt durch Aufstrahlen von Laserlicht auf eine Zieloberfläche durch eine Linse an der Quelle hindurch. Das Licht wird durch eine Empfangslinse hindurch an der Zieloberfläche re­ flektiert und auf ein Paar Detektoren gelenkt. Auf den ers­ ten Detektor fallendes Licht zeigt an, dass sich der Sensor (oder die Sonde) innerhalb des Bereichs zum Ausführen einer Messung befindet. Licht, das in gleicher Weise, oder in vor­ bestimmtem Anteil, auf die zwei Detektoren fällt, zeigt an, dass ein Auslösepunkt erreicht ist und eine Koordinatenmes­ sung vorgenommen werden soll. Licht, das den zweiten Detek­ tor verlässt, zeigt an, dass sich der Sensor nicht mehr im Bereich für Messungen befindet. Die Sonde kann den Laser­ strahl auf ungefähr 0,001 Zoll fokussieren. Alternativ kann eine Zylinderlinse eingebaut sein, um ein Streifenmuster auf das Zielobjekt zu projizieren. Die Lasersonde kann unter Verwendung eines Reflexionsspiegels und zusätzlicher Fokus­ sierlinsen mit kompakter Konfiguration hergestellt werden. Zu den Vorteilen dieser Lasersonde gehört die Fähigkeit, ei­ ne Integration mit vorhandenen Koordinatenmessmaschinen vor­ zunehmen, die Erzeugung einer sehr kleinen Fleckgröße zur Messung sehr kleiner und detaillierter Objekte sowie eine Sondenansprechgeschwindigkeit, die hoch und genau ist. Un­ glücklicherweise liefert diese Vorrichtung nur einen Binär­ vergleich für den Abstand gegenüber einer vorbestimmten Be­ zugsposition, wohingegen ein numerischer Bereichsablesewert allgemeiner nutzbar wäre.
Die US-Patente 4,891,772 und 4,872,747 beschreiben einen Punkt- und Linienbereichssensor, der einen numerischen Be­ reichsablesewert auf Grundlage optischer Triangulation er­ zeugt. Erneut wird Laserlicht auf eine Zielfläche gelenkt. Das an der Zielfläche reflektierte Licht wird durch eine Kollimationslinse geführt, um auf einem geeigneten Mehrele­ mentdetektor einen Lichtfleck zu erzeugen, und es wird die Position des Lichtflecks analysiert.
Ein Schlüsselmerkmal der in den US-Patenten 4,891,772 und 4,872,747 offenbarten Vorrichtung ist die Verwendung von Prismen zum Erzeugen einer anamorphotischen Vergrößerung. Diese Technik macht das Instrument kompakter, während sie es ermöglicht, dass das Licht konzentriert bleibt, was das Funktionsvermögen des Instruments verbessert. Nachdem das zurücklaufende Licht durch die Kollimationslinse gelaufen ist, wird es auf die im Wesentlichen rechtwinklige Fläche eines Prismas gelenkt. Das Licht verlässt das Prisma unter einem spitzen Winkel, was für größere Winkelvergrößerung sorgt. Eine Fokussierlinse lenkt das austretende, kollimier­ te Licht auf die Oberfläche eines Detektors, und es wird ein Bereichsmesswert bestimmt. Alternativ, und vorzugsweise, werden zwei Prismen verwendet, von denen jede für ungefähr dieselbe Vergrößerung sorgt. Dieses Schema liefert besseres Funktionsvermögen als ein einzelnes Prisma, da die Disper­ sion und Verzerrung vom ersten Prisma durch entgegengesetzte Dispersion und Verzerrung vom zweiten Prisma in starkem Um­ fang aufgehoben werden kann. Das zweite Prisma kann so aus­ gerichtet werden, dass es für interne Totalreflektion sorgt, was die Bausteingröße weiter verringern kann. Zu den Vortei­ len dieses Systems gehören das Vermeiden eines Kontakts mit dem Zielobjekt, eine kleine Bausteingröße und die Fähigkeit, Nachvergrößerungs-Lichtpegel auf wesentlich höheren Pegeln als bei nicht anamorphotischen Systemen zu halten.
Mindestens eine Beschränkung der Vorrichtung der US-Patente 4,891,772 und 4,872,747 besteht darin, dass die anamorphoti­ sche Vergrößerung zu einem beträchtlichen feldabhängigen Astigmatismus führt. Dies bewirkt, dass sich der Fleck auf dem Detektor zu den Enden des Arbeitsbereichs des Sensors hin verbreitert, was die Unsicherheit des Fleckorts erhöht. Der Astigmatismus rührt von grundlegenden Eigenschaften der Bilderzeugung aus geneigten Ebenen her und kann durch keine einfache Optimierung von Oberflächenradien und -neigungen verringert werden.
Das US-Patent 5,633,721 beschreibt eine Vorrichtung zur Er­ fassung einer Oberflächenposition, die optische Triangulati­ on dazu verwendet, den Ort eines Musters von auf eine Ziel­ fläche gelenktem Licht zu messen. Das vom Muster zurücklau­ fende Licht wird durch ein optisches Empfangssystem aus ei­ ner Fokussierlinse, einem Prisma oder Gitter, einer Übertra­ gungslinse und einem raumempfindlichen Detektor gesammelt und analysiert. Die Fokussierlinse erzeugt auf der Oberflä­ che des Prismas oder Gitters ein Bild des Musters, und die­ ses Bild wird durch die Übertragungslinse erneut auf den De­ tektor fokussiert. Die Zieloberfläche, die Fokussierlinse und die vordere Prismenfläche sind so geneigt, dass die Scheimpflug-Bedingung erfüllt ist. Das Prisma dient zum Bre­ chen des Bilds des Musters und zum Verringern der Schrägheit des endgültigen Bilds.
Beschränkungen hinsichtlich der im US-Patent 5,633,721 of­ fenbarten Technik betreffen das Prisma. Die Stirnfläche des Prismas liegt in einer Bildebene, und infolgedessen erschei­ nen alle Staubpartikel oder Oberflächenfehler auf dem Prisma in scharfer Fokussierung auf dem Detektor, was leicht eine beanstandbare Bildbeeinträchtigung verursachen kann. Außer­ dem muss, da das Bild auf der Stirnfläche des Prismas er­ zeugt wird, ein zusätzliches optisches Bauteil (eine Über­ tragungslinse) enthalten sein, was zu Sperrigkeit, Gewicht und Kompliziertheit beim Zusammenbauen des Sensorsystems beiträgt.
Darüber hinaus trifft jedes der obigen Patente auf das Pro­ blem begrenzter Bereichsauflösung. Eine grundsätzliche Gren­ ze ist der Bereichsauflösung durch das Vorliegen des Speck­ leeffekts auferlegt. Speckle ist ein wohlbekannter Interfe­ renzeffekt, der bei kohärenten Quellen beobachtet wird, wo­ bei Unregelmäßigkeiten in einer im optischen Pfad positio­ nierten Fläche zu einer charakteristischen kornförmigen, räumlichen Variation der Lichtintensität führen. Da diese Körnigkeit auch bei Lichtfokussierung andauert, stellt sie eine grundsätzliche Grenze für die Auflösung von Sensoren mit Lasertriangulation dar. Der Speckleeffekt, wie er in Zu­ sammenhang mit optischer Triangulation auftritt, wurde in einer Veröffentlichung mit dem Titel "Laser Triangulation; Fundamental Uncertainty in Distance Measurement" von Rainer G. Dorsch, Gerd Häusler und Jürgen Herrmann (Applied Optics, Vol. 33 (1994), S. 1306-1314) analysiert. Die bei der Ana­ lyse erreichte Schlussfolgerung bestand darin, dass zum Ver­ ringern oder Beseitigen des Speckleeffekts die numerische Apertur der Empfängerlinse im Objektraum für optimale Funk­ tion maximiert werden muss. Die oben beschriebenen Patente zu Oberflächenmesssystemen berücksichtigen die Maximierung der numerischen Apertur nicht. Wegen der Vernachlässigung dieses wesentlichen Faktors hatten frühere Sensoren begrenz­ te Bereich/Auflösung-Verhältnisse, typischerweise im Bereich von nur 400 : 1.
Ferner kann gemäß jedem der oben beschriebenen Patente zu einem Zeitpunkt nur ein einzelner Oberflächenmesswert er­ fasst und verarbeitet werden. Anders gesagt, ist jedes der oben beschriebenen optischen Systeme so konzipiert, dass der Detektor nur einen Lichtfleck erfasst, der zu einem Zeit­ punkt an der Zielfläche reflektiert wird.
Angesichts des Vorstehenden existiert Bedarf an einem opti­ schen Sensorsystem, das genaue Messwerte durch Verringern des Speckleeffekts durch Einstellung der numerischen Apertur erzeugen kann, das über verbesserte Verhältnisse von Be­ reich/Auflösung und Bereich/Genauigkeit verfügt und das meh­ rere Lichtflecke auf dem Detektor ermitteln kann, was es ihm ermöglicht, Dickenmessungen transparenter Objekte vorzuneh­ men.
ZUSAMMENFASSUNG DER ERFINDUNG
Die oben beschriebenen Probleme sind in großem Ausmaß durch den erfindungsgemäßen digitalen Bereichssensor gelöst. Der digitale Bereichssensor umfasst eine Lichtquelle, ein opti­ sches Element zum Herunterfokussieren des Lichts von der Quelle auf einen kleinen Fleck auf einem Ziel, ein zweites optisches Element, das schräg zur Quellenachse angebracht ist, und ein Prisma, das an einem Mehrelementedetektor ange­ bracht ist, der seinerseits im Brennpunkt des vom Ziel zu­ rücklaufenden Lichts angebracht ist. Der Zweck des Prismas auf dem Detektor besteht im Lenken des Lichts auf die aktive Fläche des Detektors unter einem Winkel, der näher an norma­ lem Einfall liegt, als dies andernfalls möglich wäre. Die Detektorschaltung erzeugt einen digitalen Datenwert, der zur Verarbeitung und zum Erzeugen eines Bereichsmesswerts in Millimetern an ein Steuerungsmodul übertragen wird.
Es sind eine Aufgabe und ein Vorteil der Erfindung, einen Dickenmesswert unter Verwendung eines einzelnen Sensors und eines dynamischen Schwellenwerts zu erzeugen.
Es sind eine Aufgabe und ein Vorteil der Erfindung, eine größere numerische Apertur im Objektraum als andere ver­ gleichbare Sensoren zu verwenden, wodurch die Größe des Speckleeffekts verringert ist und die Unbestimmtheit im Messbereich verringert ist.
Es sind eine Aufgabe und ein Vorteil der Erfindung, ein ver­ bessertes Bereich/Auflösung-Verhältnis in der Größenordnung von 2000 : 1, im Vergleich mit vorigen Systemen mit einem Ver­ hältnis von 400 : 1, wie auch ein verbessertes Bereich/Genau­ igkeit-Verhältnis in der Größenordnung von 200 : 1 zu schaf­ fen. Mit diesen verbesserten Verhältnissen ist der erfin­ dungsgemäße Sensor vielseitiger als vorige Sensoren, er ver­ fügt über einen größeren Arbeitsbereich, und infolgedessen verringert er die Anzahl der Sensoren, die ein Kunde erwer­ ben muss.
Es sind noch eine andere Aufgabe und ein Vorteil der Erfin­ dung, es dem Sensor zu ermöglichen, unter Verwendung eines seriellen Ports zur digitalen Signalverarbeitung (DSP = Di­ gital Signal Processing) mit einem digitalen Signalprozessor zu kommunizieren.
Es sind noch eine andere Aufgabe und ein Vorteil der Erfin­ dung, einen Sensor zu schaffen, der wendbar/symmetrisch, was alternative Montagewahlmöglichkeiten ermöglicht, und auch stapelbar ist, was das Stapeln ähnlicher und/oder verschie­ dener Sensoren ermöglicht. Ferner beinhaltet das Sensorge­ häuse vorzugsweise Präzisionsmontagelöcher, Stift- und Mon­ tagepositioniermerkmale für Reproduzierbarkeit bei der Mon­ tage.
Es sind eine andere Aufgabe und ein Vorteil der Erfindung, einen Sensor mit kleinerem Energieverlust, als er bisher er­ zielbar war, zu schaffen.
Zu anderen Aufgaben und Vorteilen der Erfindung gehören: (1) Speichern von Kalibrierinformation innerhalb des Sensors selbst, so dass dann, wenn der Sensor mit einem Steuerungs­ modul verbunden wird, dieses Steuerungsmodul den Typ des vorhandenen Sensors erkennen kann, um dadurch eine einfache Austauschbarkeit von Sensoren mit einer einzelnen Steue­ rungskarte zu ermöglichen; (2) Fähigkeit des Steuerungsmo­ duls, unmittelbar an einen ISA-Bus eines IBM-kompatiblen Computers angeschlossen zu werden, was schnellere Datenüber­ tragung als bei einer bisher bekannten und verwendeten RS- 232-Schnittstelle ermöglicht.
BESCHREIBUNG DER ZEICHNUNGEN
Fig. 1 ist ein Blockdiagramm eines erfindungsgemäßen digita­ len Bereichssensorsystems.
Fig. 2 zeigt das optische Layout eines erfindungsgemäßen digitalen Bereichssensors, der das Vorhandensein diffusen Lichts nutzt.
Fig. 3 zeigt ein alternatives Ausführungsbeispiel der Erfin­ dung, das das Vorhandensein von Spiegellicht nutzt.
Fig. 4 bildet eine Nahansicht eines Prismas und eines Detek­ tors des digitalen Bereichssensors.
Fig. 5 zeigt ein Blockdiagramm der Sensorelektronik bei der Erfindung.
Fig. 6 zeigt ein Gehäuse zum Aufnehmen des digitalen Be­ reichssensors der Fig. 2 und 4.
Fig. 7 zeigt ein Gehäuse zum Aufnehmen des digitalen Be­ reichssensors der Fig. 3.
Fig. 8 zeigt ein Blockdiagramm der Steuerungsmodulelektronik bei der Erfindung.
Fig. 9 ist ein Flussdiagramm, das den Betrieb eines Steue­ rungsmoduls zeigt, das in Verbindung mit dem digitalen Be­ reichssensor steht.
Fig. 10 zeigt ein Flussdiagramm, das den Mehrfleck-Funkti­ onsbetrieb des Steuerungsmoduls veranschaulicht.
BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
Fig. 1 zeigt die Grundkomponenten eines digitalen Bereichs­ sensorsystems 9 gemäß der Erfindung. Dieses digitale Be­ reichssensorsystem 9 beinhaltet vorzugsweise einen digitalen Bereichssensor 10, ein Steuerungsmodul 60, einen Hostprozes­ sor 63 und eine Nutzerschnittstelle 64. Der digitale Be­ reichssensor 10 ist zur Kommunikation mit dem Steuerungsmo­ dul 60 verbunden. Das Steuerungsmodul 60 ist zur Kommunika­ tion mit dem Hostprozessor 63 verbunden, der mit der Nutzer­ schnittstelle 64 verbunden ist.
Unter Bezugnahme auf die Fig. 2 und 3 können zwei optische Designs für den digitalen Bereichssensor 10 beurteilt wer­ den. Jedes der optischen Designs für den Sensor 10 verfügt über einen spezifizierten optimalen Arbeitsbereich; jedoch können zahlreiche andere Sensoren mit verschiedenen Arbeits­ bereichen durch Anwenden der unten beschriebenen Prinzipien geschaffen werden. Der spezifizierte optimale Arbeitsbereich des optischen Designs von Fig. 2 beträgt ungefähr 2,0 mm, während derjenige bei Fig. 3 ungefähr 0,5 mm beträgt.
Das optische Design für den digitalen Bereichssensor 10 kann in zwei optische Ketten, einen Sender 12 und einen Empfänger 14, unterteilt werden. Der Sender 12 umfasst im Wesentlichen eine Laserdiode 16 oder eine andere geeignete Lichtquelle, wozu kohärente und nicht kohärente Lichtquellen gehören, so­ wie mehrere Fokussierelemente zum Aufstrahlen eines Licht­ flecks auf ein Ziel 18. Der Empfänger 14 umfasst im Wesent­ lichen mehrere Lichtsammeloptiken zum Sammeln des durch das Ziel 18 gestreuten Lichts und zum Fokussieren des Lichts zu einem Fleck auf einem Detektor 20.
Der Sender 12 erzeugt vorzugsweise, bei gewünschter Beab­ standung vom Ziel 18, über den Arbeitsbereich des Sensors 10 einen Fleck auf dem Ziel 18. Dies erfolgt vorzugsweise mit­ tels der Laserdiode 16, einer Kollimationslinse 22 und einer Fokussierlinse 24. Am Ausgang des Übertragungspfads kann zum Abdichten des Sensorgehäuses 27 (in Fig. 6 dargestellt) und zum optischen Verbessern des Aussehens des Sensorgehäuses 27 ein RG630-Filter 26 angebracht sein. Das Ausführungsbeispiel der Fig. 3 zeigt einen Fall, bei dem der Sender 12 unter einem Winkel von ungefähr 35° zur Zieloberfläche einen Fleck auf dem Ziel 18 erzeugt. Das Ausführungsbeispiel von Fig. 2 bildet einen Streulichtsensor, der am Ziel 18 gestreutes Licht zum Erfassen des Bereichs des Ziels 18 verwendet, wäh­ rend das Ausführungsbeispiel der Fig. 3 Licht verwendet, das spiegelnd unmittelbar in den Sensor reflektiert wird, um den Bereich des Ziels 18 zu erfassen.
Die Laserdiode 16 ist vorzugsweise ein Bauteil von 10 mW, 670 nm. Eine derartige Laserdiode wird von Toshiba unter der Teilenummer TOLD9925 hergestellt. Um der Laser-II-Klassifi­ kation CDRH (Center for Devices and Radiological Health) für maximale Ausgangsleistung von 1 mW zu genügen, ist die Spit­ zenausgangsleistung der Laserdiode 16 auf 950 µW einge­ stellt. Das von der Laserdiode 16 emittierte Licht ist ziem­ lich divergent und muss kollimiert werden. Die Kollimations­ linse 22 ist vorzugsweise eine gegossene asphärische Glas­ linse. Eine geeignete Linse wird von Geltech hergestellt und trägt die Teilenummer 350110-B; diese Linse verfügt vorzugs­ weise über eine Antireflexionsbeschichtung für 670 nm.
Dann wird kollimiertes Licht auf einen Fleck fokussiert, der die Abnehmernadel zum Abtasten der getesteten Oberfläche des Ziels 18 bildet. Die Fokussierlinse 24 ist vorzugsweise eine plankonvexe Linse BK7 mit einer geeigneten effektiven Brenn­ weite (EFL = Effective Focal Length); die Fokussierlinse 24 der Fig. 2 verfügt vorzugsweise über ein EFL von 70 mm, und die Fokussierlinse 24 von Fig. 3 verfügt vorzugsweise über eine EFL von 55 mm. Die Brennweite der Fokussierlinse 24 ist so gewählt, dass an den Enden und im Zentrum des Arbeitsbe­ reichs des digitalen Bereichssensors 10 der korrekte Fleck­ durchmesser geliefert wird. Beim Ausführungsbeispiel der Fig. 4 beträgt die numerische Apertur (NA) der Fokussierlin­ se 24 im Bildraum vorzugsweise ungefähr 0,025, was es dem Sensor 10 ermöglicht, im Zentrum seines Arbeitsbereichs von 2,0 mm einen wünschenswerten Fleckdurchmesser von ungefähr 30 µm zu erzielen, und an den Enden des Arbeitsbereichs ei­ nen geringfügig größeren Fleckdurchmesser von ungefähr 60 µm zu erzielen. Beim Ausführungsbeispiel der Fig. 3 beträgt die NA der Fokussierlinse 24 im Bildraum vorzugsweise ungefähr 0,035, wodurch im Zentrum des Arbeitsbereichs von 0,5 mm ein wünschenswerter Fleckdurchmesser von ungefähr 16 µm erzielt wird und an den Enden des Arbeitsbereichs ein geringfügig größerer Fleckdurchmesser von 23 µm erzielt wird.
Das Ausgangsfilter 26 ist vorzugsweise ein rotes Glasfilter aus dem Material RG630. Wie bereits erläutert, dient der Zweck des Filters hauptsächlich dem optischen Aussehen. Der Filter 26 bedeckt die Ausgangsöffnung des Senders 12 und sorgt für ein einheitliches Aussehen hinsichtlich der Emp­ fangsöffnung. Das Ausgangsfilter 26 dichtet auch das Gehäuse 27 des Sensors ab, um es gegen Staub zu schützen.
Der Empfänger 14 ist wegen des Triangulationswinkels der Ausführungsbeispiele ein optisches System außerhalb der Ach­ se; Fig. 2 verfügt über einen Triangulationswinkel von unge­ fähr 35°, und Fig. 3 verfügt über einen Triangulationswinkel von ungefähr 70°. Da der Triangulationswinkel nicht 90° be­ trägt, benötigt der Empfänger 14 ein geneigtes Bild, um der Scheimpflug-Bedingung zu genügen. Das optische System des Empfängers 14 beinhaltet vorzugsweise ein Filter 32, eine Tripletlinsenanordnung 34 mit einem Meniskus 36 und einer zementierten Doppellinse 38, einen Stirnflächenspiegel 40 und ein am Detektor 20 angebrachtes 15°-Prisma 42. Bei den Ausführungsbeispielen der Fig. 2 und 3 verfügt das optische System des Empfängers 14 vorzugsweise über eine numerische Apertur (NA) von ungefähr 0,2 im Objektraum, um dazu beizu­ tragen, die nachteiligen Auswirkungen des Speckleeffekts zu verringern.
Beim Bestimmen der maximalen NA wird die folgende Gleichung, von Dorsch et al., für die Standardhöhenabweichung (σ) einer einzelnen Höhenabmessung verwendet:
σ = λ/2π sin u sin Θ (1),
wobei:
λ die Lichtwellenlänge ist;
sin (u) die numerische Apertur des Systems ist und
Θ der Triangulationswinkel des Systems ist
u = atan (CA/2s)
wobei:
CA die freie Öffnung (clear aperture) ist und
s der Zielabstand vom Ziel zur CA ist.
Diese Gleichung liefert für ein durch den Speckleeffekt do­ miniertes Ziel 18 die beste Fallsituation. Das Funktionsver­ mögen kann noch besser sein, wenn das Ziel 18 keinen Speck­ leeffekt zeigt. Die numerische Apertur (NA) wird als Kompro­ miss zwischen dem gewünschten Funktionsvermögen, der Größe des Sensors 10, der Distanz und den Kosten der Optik ausge­ wählt.
Eine Schwierigkeit bei Systemen mit großer numerischer Aper­ tur besteht darin, dass es schwieriger ist, Aberrationen zu kontrollieren. Um solche Aberrationen zu kontrollieren, ins­ besondere Koma, ist das Filter 32 beim Ausführungsbeispiel der Fig. 2 leicht gekippt. Bei den Ausführungsbeispielen der Fig. 3 ist ein Kippen des Filters 32 erforderlich, da das Funktionsvermögen dieser optischen Systeme nicht durch Koma beherrscht wird. Das Filter 32 ist vorzugsweise ein opti­ sches Filter, wie es zum Sperren unerwünschter Lichtwellen­ längen verwendet wird, um die Streulichtempfindlichkeit des Sensors 10 zu minimieren. Das Filter 22 bildet auch eine Maßnahme zum Abdichten des Sensorgehäuses 27 gegen Staub.
Das optische System des Empfängers 14 ist mit einer Triplet­ linsenanordnung 34 konzipiert. Die Tripletlinsenanordnung 34 verfügt vorzugsweise über eine Positivmeniskuslinse 36 und eine aufzementierte Doppellinse 38 mit einem Luftzwischen­ raum dazwischen, der für die endlichen Konjugierten (Ziel- und Bildabstand) optimiert ist, wie sie vorzugsweise zum Abbilden des Arbeitsbereichs auf den Detektor 20 verwendet werden. Beim Ausführungsbeispiel der Fig. 2 verfügt die Me­ niskuslinse 36 vorzugsweise über eine effektive Brennweite (EFL) von 57 mm, während die Doppellinse 38 vorzugsweise über eine EFL von 118 mm verfügt. Beim Ausführungsbeispiel der Fig. 3 verfügt die Meniskuslinse 36 vorzugsweise über eine EFL von 51 mm, während die Doppellinse 58 vorzugsweise über eine EFL von 124 mm verfügt.
Von der Tripletlinsenanordnung 34 emittierte Lichtstrahlen werden mit dem Stirnflächenspiegel 40 auf den Detektor 20 gelenkt. Der Stirnflächenspiegel 40 ist für den Empfänger 14 nicht wesentlich, jedoch kann er dazu verwendet werden, die Lichtstrahlen umzulenken, um einen kompakteren Baustein des Sensors 10 zu bilden. Beim Ausführungsbeispiel der Fig. 2 ist ein einzelner Stirnflächenspiegel dazu verwendet, die Lichtstrahlen um ungefähr 90° umzulenken, während das Aus­ führungsbeispiel der Fig. 3 zwei Stirnflächenspiegel verwen­ det, um die Lichtstrahlen zwei Mal um ungefähr 90° umzulen­ ken, um einen kleineren Sensorbaustein zu erzielen.
Der Detektor 20 ist vorzugsweise ein Metalloxid-Halbleiter- (MOS)-Bauteil in Form eines linearen Arrays mit 256 Elemen­ ten mit Bildpunktelementen mit 25 Mikrometer auf 500 Mikro­ meter. Ein derartiger Detektor wird von Hamamatsu herge­ stellt und trägt die Teilenummer S3923-256Q. Während ein Hamamatsudetektor mit 256 Elementen den bevorzugten Detektor bildet, können zahlreiche andere Detektoren verwendet wer­ den, ohne vom Grundgedanken oder Schutzumfang der Erfindung abzuweichen. Zum Beispiel kann auch ein Lineararraydetektor mit 512 oder 1024 Elementen verwendet werden. Da der Detek­ tor 20 mit ungefähr +5 V betrieben werden kann, im Vergleich mit bisherigen CCD-Arraydetektoren, die +15 V benötigen, ist die Anzahl der Spannungsversorgungsanschlüsse verringert. Außerdem verfügt der Sensor 10 über viel geringere Energie­ verluste, im Allgemeinen im Bereich von 0,4 bis 1,0 W, wäh­ rend bisherige Sensoren unter Verwendung von CCD-Arraysenso­ ren typischerweise Energieverlustpegel von näherungsweise 4 W aufwiesen. Der niedrigere Energieverlust bei der Erfin­ dung sorgt für bessere Komponentenzuverlässigkeit; es ist wahrscheinlicher, dass Komponenten bei höheren Temperaturen ausfallen. Ferner sorgt der geringere Energieverlust für Dimensionsstabilität des Sensors 10, was wichtig ist, wenn bis zu Werten herab von 1 µm gemessen wird. Hinsichtlich der Dimensionsstabilität bewirken hohe Energieverluste Diffe­ renzänderungen in den Komponenten, was ein Abschälen von Verbindungen in Komponenten hervorruft und Verbindungsstel­ len der Komponenten unter Spannung setzt.
Um den empfangenen Lichtfleck über den ganzen Arbeitsbereich des Sensors 10 auf dem Detektor 20 fokussiert zu - halten, muss die wohlbekannte Scheimpflug-Bedingung erfüllt sein. Wenn eine gewünschte Vergrößerung und eine Neigung der Bild­ ebene vorgegeben sind, schreibt die Scheimpflug-Bedingung die Neigung des Detektors 20 vor, die es ermöglicht, dass das Bild über den gesamten Arbeitsbereich des Sensors fokus­ siert ist. Im Fall hoher Vergrößerungen kann die vorge­ schriebene Neigung des Detektors extrem sein. Im Fall der Fig. 2 schreibt die Scheimpflug-Bedingung für den Detektor 20 einen Neigungswinkel von 70° in Bezug auf die optische Achse des Empfängers 14 vor. Diese große Neigung ist dahin­ gehend von großem Nachteil, dass Reflexionsverluste am Ab­ deckglas des Detektors 20 und der Oberfläche des Detektors 20 stark erhöht sind. Ebenfalls besteht die Tendenz, dass Doppelreflexionen auf dem Detektor 20 Geisterbilder verursa­ chen, und ferner besteht die Tendenz, dass die meisten De­ tektorbausteine, wie der Detektor 20, Licht aus derart schrägen Winkeln teilweise sperren.
Um diesen Problemen entgegenzuwirken, wird vorzugsweise ein Prisma 42 mit einem geeigneten optischen Kleber an einem Fenster des Detektors 20 befestigt. Das Prisma 42 ist vor­ zugsweise ein 15°-Prisma, das so wirkt, dass es den Ein­ fallswinkel in den Empfänger 14 wesentlich verringert. Beim Ausführungsbeispiel der Fig. 2 verringert das Prisma 42 den Einfallswinkel von 70° auf 23°. Beim Ausführungsbeispiel der Fig. 3 verringert das Prisma 42 den Einfallswinkel von unge­ fähr 63° auf 23°. Das Prisma 42 verfügt vorzugsweise über eine ebene Stirnfläche, die das Problem der Ausblendung be­ seitigt. Ferner verfügt das Prisma 42 vorzugsweise über ei­ nen viel kleineren Brechungsindex als Siliziumdetektoren, wie sie allgemein zum Erfassen von Licht verwendet werden, so dass die Reflexionsverluste an der Stirnfläche des Pris­ mas 42 nicht übermäßig sind. Außerdem trifft aus dem Prisma 42 austretendes Licht mit beinahe normalem Einfall auf den Detektor 20, was Probleme mit Reflexionsverlusten und Geis­ terbildern am Detektor 20 stark verringert, siehe Fig. 4. Das Reflexionsbild des Ziels 18 wird nicht auf der Stirnflä­ che des Prismas 42 erzeugt, sondern vielmehr über das Prisma 42 hinaus auf die Oberfläche des Detektors 20 fokussiert; anders gesagt, befindet sich das Prisma 42 selbst nicht un­ ter einem Winkel, der der Scheimpflug-Bedingung genügen müsste. Da das Prisma 42 nicht in der Bildebene liegt, sind Auswirkungen von Staubteilchen und Oberflächenfehlern auf dem Prisma 42 verringert. Die Verwendung des Prismas 42 zeigt den zusätzlichen Vorteil des Hinzufügens anamorphoti­ scher Vergrößerung in der optischen Achse des Empfängers 14, was die Vergrößerungserfordernisse für das optische System des Empfängers 14 verringert. Dies führt dadurch zu einer kleineren Bausteingröße, dass sich die Bildraumkonjugierte über eine kürzere Strecke erstreckt. Andere zweckdienliche optische Elemente können anstelle des Prismas 42 verwendet werden, ohne vom Grundgedanken oder Schutzumfang der Erfin­ dung abzuweichen. Zum Beispiel kann ein Gitter oder ein von einem Computer erzeugtes Hologramm verwendet werden.
Das optische Design des Sensors 10, wie oben beschrieben, schafft einen Sensor mit verbessertem Bereich/Auflösung-Ver­ hältnis und Bereich/Genauigkeit-Verhältnis. Das Ausführungs­ beispiel der Fig. 2 verfügt über ein Bereich/Auflösung-Ver­ hältnis in der Größenordnung von 2000 : 1 im Vergleich mit früheren Sensoren mit Bereich/Auflösung-Verhältnissen in der Größenordnung von 400 : 1. Außerdem hat das Ausführungsbei­ spiel der Fig. 2 Bereich/Genauigkeit-Verhältnisse in der Größenordnung von 200 : 1. Das Ausführungsbeispiel der Fig. 3 hat ein Bereich/Auflösung-Verhältnis in der Größenordnung von 4000 : 1 und ein Bereich/Genauigkeit-Verhältnis von 500 : 1. Testdaten von jedem der Ausführungsbeispiele, wie sie in der folgenden Tabelle 1 angegeben sind, unterstützen die Ver­ hältnisse und Verbesserungen an diesen.
Tabelle 1
Zusätzlich zu den oben beschriebenen Elementen beinhaltet der Sensor 10 vorzugsweise eine geeignete Ansteuerungs- und Schnittstellenelektronik, wie es im Blockdiagramm der Fig. 5 angegeben ist. Die Sensorelektronik 100 verwendet eine Ab­ lauf- und Kommunikationssteuerung 102, die ein programmier­ bares logisches Bauteil (PLD = programmable logic device) ist, um den Betrieb des Sensors 10 zu steuern. Die Steuerung 102 ist über einen Lasertreiber 103 auf kommunikative Weise mit dem Laser 16 verbunden. Taktsignale von der Steuerung 102 werden auf kommunikative Weise über einen Taktsignalpuf­ fer 104 an den Detektor 20 gegeben. Der Sättigungsstatus des Detektors 20, wie von einem Sättigungsdetektor 105 mitge­ teilt, wird an die Steuerung 102 rückgeliefert. Analoge Vi­ deosignale des Detektors werden auf kommunikative Weise an einen Analog/Digital-Wandler 106 gegeben. Die digitalen Da­ ten werden an die Steuerung 102 rückgeliefert. Die Steuerung 102 ist auch auf kommunikative Weise mit einem EEPROM 107 (dessen Verwendung unten beschrieben wird), einem Tempera­ tursensor 108 zum Überwachen der Temperatur des Sensors 10 sowie mehreren LEDs 109 verbunden, die den Betriebszustand des Sensors 10 anzeigen. Die Steuerung 102 überträgt über einen Differenzempfänger- und Sender 110 und einen seriellen Verbinder 111 serielle Daten an den Sensor 10 und von die­ sem. Der serielle Verbinder 111 ist auf kommunikative Weise über ein Kabel 61 mit einem Steuerungsmodul 60 (in Fig. 1 dargestellt) verbunden.
Wenn ein Bereichslesevorgang angefordert wird, läuft die folgende Abfolge von Ereignissen ab: vom Steuerungsmodus 60 wird ein Triggersignal an den Sensor 10 geliefert, und die­ ses wird von der Steuerung 102 empfangen und verarbeitet. Die Steuerung 102 schaltet den Laser 16 über den Lasertrei­ ber 103 ein. Das Ende der korrekten Belichtung des MOS-De­ tektors 20 wird durch den Sättigungsdetektor 105 angezeigt, der die Schaltungsanordnung verwendet, wie sie in den US- Patenten 5,519,204 und 5,665,958 beschrieben ist, die hier durch Bezugnahme eingeschlossen werden. Am Ende des Belich­ tungsvorgangs wird der Laser 16 ausgeschaltet, und es werden weitere Taktsignale an den MOS-Detektor 20 geliefert, um ihn dazu zu veranlassen, analoge Videosignale entsprechend dem Muster des Lichts, wie es auf ihn während der Belichtung vorlag, zu erzeugen. Taktsignale werden auch während dieser Auslesephase zugeführt, die die photoempfindlichen Elemente für den nächsten Belichtungsvorgang rücksetzen. Die Video­ signale werden durch den Analog/Digital-Wandler 106 digita­ lisiert und für weitere Verarbeitung an das Steuerungsmodul 60 geliefert. Das Steuerungsmodul 60 setzt die Videoaus­ gangssignale unter Verwendung von Algorithmen, wie sie unten beschrieben sind, in einen Bereichslesewert um und liefert den Bereichslesewert an den Hostprozessor 63.
Der digitale Bereichssensor 10, einschließlich der Sensor­ elektronik 100, ist vorzugsweise innerhalb des in den Fig. 6 und 7 dargestellten Sensorgehäuses 27 untergebracht. Die Fig. 6, die aus Fig. 6A, 6B und 6C besteht, die eine linke perspektivische Ansicht des Inneren des Gehäuses 27, eine rechte perspektivische Ansicht des Inneren des Gehäuses 27 bzw. eine linke perspektivische Ansicht des Äußeren des Ge­ häuses 27 bilden, zeigt das bevorzugte Gehäuse für die Aus­ führungsbeispiele 2 des digitalen Bereichssensors 10. Die Fig. 7, die aus Fig. 7A, 7B, 7C und 7D besteht, die eine vordere, linke Perspektive des Inneren des Gehäuses 27, eine hintere, linke Perspektive des Inneren des Gehäuses 27, eine rechte, hintere Perspektive des Gehäuses 27 bzw. eine linke hintere Perspektive des Äußeren des Gehäuses 27 sind, ent­ spricht dem bevorzugten Gehäuse für das Ausführungsbeispiel der Fig. 3 eines digitalen Bereichssensors 10. Das Sensorge­ häuse 27 versorgt den Sensor 10 dadurch mit einzigartigen Vorteilen, dass dieses Sensorgehäuse 27 Präzisionsmontage­ löcher 28 beinhaltet, die es dem Benutzer ermöglichen, das Sensorgehäuse 27 wiederholt an der korrekten und genauen Po­ sition zu montieren. Ferner ist die Konfiguration des Sen­ sorgehäuses dahingehend einzigartig, dass es so konzipiert ist, dass es stapelbar ist, wobei es Stapelmerkmale 29 auf­ weist. Das Sensorgehäuse 27 kann mit anderen Sensorgehäusen gestapelt werden, was eine Erweiterung auf mehrere Sensoren 10 ermöglicht, die bei verschiedenen Arbeitsbereichen arbei­ ten. Zum Beispiel kann das Sensorgehäuse 27 der Fig. 6 mit dem Sensorgehäuse 27 der Fig. 7 einen Stapel bilden, obwohl die jeweiligen Gehäuse von geringfügig verschiedener Konfi­ guration sind, da die Montagelöcher 28 und die Stapelmerkma­ le 29 an jedem Gehäuse 27 ähnlich positioniert sind. Ferner ist das Sensorgehäuse 27 so konzipiert, dass es wendbar ist, so dass es mit der Innenseite nach oben oder der Außenseite nach oben montiert werden kann. Das Äußere des Gehäuses 27, z. B. die Fig. 6C und 7D, ist mit mehreren Montagelöchern 28 und Stapelmerkmalen 29, die identisch am Ort der Montagelö­ cher 28 liegen, und Stapelmerkmalen 29 am Inneren des Sen­ sorgehäuses 27, z. B. Fig. 6A und 7A, versehen, um die Wend­ barkeit des Gehäuses 27 zu gewährleisten.
Während des Aufbaus des digitalen Bereichssensors 10 wird an ihm eine Kalibrierung vorgenommen. Die Art der Kalibrierung besteht darin, das Ziel entlang einem bekannten Weg zu ver­ schieben, der ungefähr rechtwinklig zur getesteten Zielebene verläuft, und die Position des Flecks auf dem Detektor 20 (im Bildpunktraum) aufzuzeichnen. Die Zielposition wird vor­ zugsweise mit einem Interferometer gemessen, und jeder Mess­ wert des Interferometers wird mit der Fleckposition des De­ tektors im Bildpunktraum korreliert. Idealerweise sollte das Kurvenbild dieser zwei Messwerte eine gerade Linie sein. Je­ doch zeigt das Kurvenbild aufgrund der Art des optischen Systems sowie Variationen des Aufbauzyklus gleichmäßige und systematische Abweichungen von der Linearität. Infolgedessen wird das Kurvenbild der tatsächlichen Position (wie vom In­ terferameter mitgeteilt) und der Fleckposition auf dem De­ tektor 20 aufgenommen, und ein Anpassungsvorgang mit kleins­ ten Quadraten wird unter Verwendung einer Funktion dritter Ordnung, vorzugsweise in der folgenden Form, ausgeführt:
y = a + bx + cx2 + dx3 (2)
mit:
a = Versatz des Sensors;
b, c, d = Funktion bester Anpassung für die Aus­ gangsdaten;
x = Fleckposition auf dem Detektor im Bildpunkt­ raum;
y = aktuelle Position auf dem Ziel in mm.
Dann werden die Koeffizienten der Funktion dritter Ordnung im EEPROM 107, das in Fig. 5 dargestellt ist, im Sensor 10 abgespeichert und später bei der Initialisierung, oder der ersten Verwendung, des Sensors 10 in das Steuerungsmodul 60 geladen. Das Abspeichern der Kalibrierinformation im Sensor 10 selbst ermöglicht eine Austauschbarkeit von Sensoren mit einem einzelnen Steuerungsmodul 60. Zum Beispiel kann einer von mehreren verschiedenen Typen von Sensoren mit einem ein­ zelnen Steuerungsmodul 60 verbunden werden. Dieses einzelne Steuerungsmodul 60 kann aus zusätzlich im EEPROM 107 gespei­ cherter Information erkennen, welcher Typ von Sensor 10 vor­ handen ist.
Das Steuerungsmodul 60 ist vorzugsweise ein Steuerungsmodul Gen3 (GCM = Gen3 Steuerungsmodul), das eine ISA-Karte ist, die sich innerhalb des Hostprozessors 63 befindet. Das Steuerungsmodul 60 ist in einen ISA-Bus 62 des Hostprozes­ sors 63 eingesteckt und steht über eine interne Busstruktur mit dem Hostprozessor 63 in Kommunikation. Das Steuerungsmo­ dul 60 enthält einen Mikroprozessor 65, der den Betrieb des Sensors 10 steuert, eine Datenverarbeitung am Ausgangssignal des Detektors 20 ausführt und Kommunikationsvorgänge mit dem Hostprozessor 63 ausführt.
Die Struktur der Elektronik 120 des Steuerungsmoduls ist im Blockdiagramm der Fig. 8 dargestellt. Der Mikroprozessor 65 nutzt während seiner Betriebsabläufe in kommunikativer Weise einen SRAM 121. Der Mikroprozessor 65 ist auf kommunikative Weise mit einer Eingangs/Ausgangs-Steuerung 122, die Codier­ zähler 123 steuert, einer Interruptsteuerung 124, einer Sen­ sorspannungsversorgung 125 und einem Doppelportspeicher 126 verbunden. Die Eingangs/Ausgangs-Steuerung 122 betreibt auch LEDs 127, die den Betriebszustand des Steuerungsmoduls 60 anzeigen. Der Mikroprozessor 65 bildet eine Schnittstelle zu den Codierzählern 123, die mit der Interruptsteuerung 124 und einem Codiererjumper- und Signalvorverarbeitungsblock 128 verbunden ist.
Über einen Motorcodiererverbinder 129 wird ein Schritt- und Richtungs- oder Codierersignal geliefert. Der Codiererjum­ per- und Signalvorverarbeitungsblock 128 informiert die Ein­ gangs/Ausgangs-Steuerung 122 über den Codierertyp, und diese informiert ihrerseits den Mikroprozessor 65. Der Codierer­ jumper- und Signalverarbeitungsblock 128 verarbeitet das Co­ dierersignal und liefert es an den Codiererzähler 123. Ein Interrupt vom Codiererzähler 123 über die Interruptsteuerung 124 an den Mikroprozessor 65 zeigt an, dass der Sensor 10 eine Bereichsmessung vornehmen sollte. Dieser Auslösevorgang kann so konfiguriert sein, dass der Signalprozessor 10 an vorbestimmten oder regelmäßig beabstandeten Positionen Ab­ leswerte erfasst. Alternativ kann eine externe Auslösequel­ le, die über einen Triggerverbinder 129 mit der Elektronik 120 des Steuerungsmoduls verbunden ist, über die Interrupt­ steuerung 124 ein Interruptsignal dahingehend an den Mikro­ prozessor 65 liefern, dass der Sensor 10 eine Bereichsmes­ sung vornehmen sollte. Auf diese Weise verfügt das Steue­ rungsmodul 60 über die Fähigkeit des gleichzeitigen Überwa­ chens zweier Positionsanzeigeeinrichtungen. Außerdem kann das Steuerungsmodul 60 den Bereich rückliefern, und es kann durch einen externen Trigger ausgelöst werden, um bis zu vier Achsen zu überwachen.
Der Mikroprozessor 65 überträgt über den Doppelportspeicher 126 und den Datenpuffer 131 Daten an den Hostprozessor 65 sowie von diesem. Der Datenpuffer 131 liefert Daten an ein Adressenregister 132, das die vom Doppelportspeicher 126 an den Datenpuffer 131 übertragenen Daten steuert und statio­ niert. Der Datenpuffer 131 überträgt auch Daten über den ISA-Bus 62 an den Hostprozessor 63. Der Prozessor 63 kommu­ niziert über den ISA-Bus 62 und einen PLD-Decodierblock 133 und eine PnP-Schnittstelle 134 mit dem Steuerungsmodul 60.
Wie bereits angemerkt, ist der Detektor 20 des Sensors 10 ein lineares Array mit 256 Elementen. Jedes Element des De­ tektors 20 erzeugt infolge des auf die Elemente, oder Bild­ punkte, des Detektors 20 auffallenden Lichts eine Ladung. Diese Ladungen werden innerhalb des Detektors 20 in eine Spannung umgesetzt und unter Steuerung der Sensorelektronik 100 taktmäßig aus dem Detektor 20 ausgelesen. Dieser Strom analoger Daten wird dann verstärkt und durch einen 8-Bit- Analog/Digital-Wandler 106 digitalisiert. Das Digitalisie­ rungsergebnis ist ein Strom serieller Daten aus 256 Acht- Bit-Wörtern, die jeweils über das serielle Kabel 61 an das Steuerungsmodul 60 geliefert werden.
Das Steuerungsmodul 60 bearbeitet den Strom digitaler Daten mittels eines Daten-Nachverarbeitungsalgorithmus 65 zum Er­ zeugen eines Bereichsmesswerts, vorzugsweise in Millimetern, der dann an den Hostprozessor 63 mitgeteilt wird. In Fig. 8 ist ein Flussdiagramm für den Daten-Nachverarbeitungsalgo­ rithmus 65 dargestellt. Vorzugsweise liegt der gesamte Da­ ten-Nachverarbeitungsalgorithmus 65 in der Firmware des Steuerungsmoduls 60. Vor dem Einschalten des Lasers 16 wird die maximale Belichtungszeit eingestellt. Die Schaltung für automatische Belichtung stoppt den Belichtungsvorgang und beginnt mit dem Übertragen von Daten an das Steuerungsmodul 60, wenn genug Licht empfangen wurde. Wenn die Maximalbe­ lichtung erreicht ist, bevor ausreichend Licht empfangen wurde, beendet das Steuerungsmodul 60 den Belichtungsvor­ gang, und der Sensor 10 beginnt mit dem Übertragen von Daten an das Steuerungsmodul 60. Es unterliegt dem Benutzer zu er­ mitteln, ob aus "abgebrochenen" Belichtungsvorgängen resul­ tierende Daten verwendet werden sollen. Der maximale Belich­ tungswert wird vom Benutzer über die Benutzerschnittstelle 64 eingestellt.
Der Empfang der digitalen Daten 142 ist der erste im Daten- Nachverarbeitungsalgorithmus des Steuerungsmoduls 60 ausge­ führte Schritt. Die Schwellenwertfunktion 143 wird beim Emp­ fangen des Stroms digitaler Daten vom Sensor 10 ausgeführt. Während der Schwellenwertfunktion 143 wendet das Steuerungs­ modul 60 ein Schwellenwertfilter auf die Daten an. Die Schwellenwertbildung für die Daten erlaubt es dem Benutzer, Detektorstörsignale und unerwünschte Reflexionen aus den Da­ ten zu entfernen. Vom Benutzer wird ein Schwellenwert vor­ zugsweise über eine Software-Nutzerstelle 64 mittels des Hostprozessors 63 eingestellt. Jeder Bildpunkt in den Daten wird mit dem Schwellenwert verglichen, wie es durch einen Entscheidungsblock 144 angegeben ist. Wenn der Bildpunktwert dem Schwellenwert entspricht oder kleiner ist, wird der Bildpunktwert auf Null gesetzt, Block 145. Wenn der Bild­ punktwert über dem Schwellenwert liegt, wird der Bildpunkt­ wert beibehalten, Block 146. Der Schwellenwert wird vorzugs­ weise im Bereich von 0 bis 255 eingestellt. Es kann eine al­ ternative Schwellenwertfunktion ausgeführt werden, bei der der Bildpunktvergleich durch das Subtrahieren des Schwellen­ werts von jedem Bildpunktwert ersetzt ist, wobei dann alle sich ergebenden negativen Werte auf Null gesetzt werden.
Die Schwellenwertfunktion 143 kann beim Einfokussieren auf eine Fleckposition sehr nützlich sein, insbesondere im Fall von Sekundärreflexionen. Jeder Bildpunkt im Detektor 20 er­ zeugt eine Spannung, die proportional zum auf ihn fallenden Licht ist. Wenn der Schwerpunkt eines Flags beim Vorliegen von Sekundärreflexionen berechnet wird, besteht die Tendenz, dass die Messung durch diese Sekundärreflexionen verzerrt wird und nicht das wahre Zentrum des Flecks erzeugt. Unter Verwendung der Schwellenwertfunktion 143 kann die Sekundär­ reflexion aus der Berechnung beseitigt werden, was ein bes­ seres Maß für den Primärfleck erlaubt.
Vorzugsweise wird nach der Schwellenwertfunktion 144 eine Fensterfunktion 147 ausgeführt. Die Fensterfunktion 147 er­ laubt es dem Benutzer, die Fläche des Detektors 20, über die die Lichtfleckposition berechnet wird, durch Erkennen, wel­ che Bildpunkte sich im gewünschten Fenster befinden, zu be­ schränken. Dies ist ein künstliches Verfahren zum Verringern des effektiven Arbeitsbereichs des Detektors 20, und es ist dann von Nutzen, wenn mehrere Flecke auf dem Detektor 20 verfolgt werden. Die Vorgabefenstergröße entspricht vorzugs­ weise der gesamten Länge des Detektors 20, anders gesagt, 256 Bildpunkten, jedoch kann sie vorzugsweise durch Definie­ ren eines Start- und eines Endbildpunkts verringert werden.
Eine Randfunktion 148 gilt sowohl für den Detektorrand als auch den Fensterrand (wenn mehrere Fenster verwendet wer­ den), und sie ermittelt, ob die Randbildpunkte des Detektors 20, oder dessen Fenster, Daten enthalten. Wenn die Randbild­ punkte keine Daten enthalten, wird eine Fehlermeldung an den Hostprozessor 63 geliefert, und sie wird dazu verwendet, die zweckdienliche Maßnahme zu bestimmen, zu der es gehören kann, den Fehler nicht zu berücksichtigen oder erneut einen Messwert zu erfassen. Daten in den Randbildpunkten erzeugen bei der Bereichsmessung eine fehlerhafte Berechnung. Wenn die Randbildpunkte keine Daten enthalten, geht der Mikropro­ zessor des Steuerungsmoduls 60 zu einer Bereichsberechnungs­ funktion 150 weiter.
Die Bereichsberechnungsfunktion 150 wirkt so, dass sie das Zentrum des Lichtflecks auf dem Detektor 20 im vom Benutzer definierten Fenster unter Verwendung einer mathematischen Schwerpunktsberechnung der folgenden Form auffindet:
mit:
I = Intensität in Volt (durch den A/D-Wandler di­ gitalisiert) für ein Detektorelement;
P = Bildpunktzahl des Detektors.
Die Fleckposition im Bildpunktraum wird durch Aufsummieren der Gesamtsumme aller Intensitäten an den einzelnen Elemen­ ten des Detektors 20 (im Nenner der Gleichung (3) angegeben) und durch Teilen dieses Werts in die Summe der Intensitäten jedes Detektorelements mal der Bildpunktzahl (im Zähler der Gleichung (3) angegeben) bestimmt. Die Intensität und die Bildpunktwerte sind ganzzahlige Zahlen, und das Ergebnis dieser Berechnung ist eine reelle Zahl (ungeradzahlig). Da­ her kann das Zentrum der Fleckposition auf einem Bruchteil eines Bildpunkts, näherungsweise 1/10 eines Bildpunkts, lie­ gen.
Nach der Bereichsberechnungsfunktion 150 nutzt eine Be­ reichswandlungsfunktion 151 die Koeffizienten, wie sie wäh­ rend der Kalibrierung ermittelt wurden und im EEPROM 107 im Sensor 10 abgespeichert wurden, um die aus der Bereichsbe­ rechnungsfunktion 150 erhaltene Bildpunkt-Fleckposition in eine Bereichsposition in Millimetern umzuwandeln. Dann über­ trägt eine Datenübertragungsfunktion 152 die Bereichsposi­ tion in Millimetern über den internen Bus 62 an den Hostpro­ zessor 63.
Ein Mehrfleckalgorithmus 200 versorgt das Steuerungsmodul 60 mit der Fähigkeit, die Position mehrerer Flecke auf dem De­ tektor 20 zu bestimmen. Die Position jedes dieser Flecke kann bis auf einen Bruchteil eines Bildpunkts bestimmt wer­ den. Diese Fähigkeit ermöglicht es, eine Klasse von Messun­ gen auszuführen, die die Fähigkeiten anderer Triangulations­ sensoren überschreitet. Wenn z. B. der Sensor 10 dazu ver­ wendet wird, ein klares Stück Kunststoff zu messen, erschei­ nen auf dem Detektor 20 zwei Flecke. Ein Fleck wird an der ersten, oder oberen, Fläche des klaren Kunststoffziels re­ flektiert, während der andere Fleck an der zweiten, oder un­ teren, Fläche des klaren Kunststoffziels reflektiert wird. Die Intensitäten der Flecke unterscheiden sich aufgrund der Menge des Lichts, das von jeder Fläche reflektiert wird. Die Position jedes Flecks ist der Bereich für jede Fläche. Die Differenz zwischen den zwei Bereichen ist die Dicke des kla­ ren Kunststoffs (es ist zu beachten, dass der Brechungsindex und der Einfallswinkel berücksichtigt werden müssen und sie die Interpretation der Fleckdaten beeinflussen).
Um die Position jedes Flecks auf dem Detektor 20 zu bestim­ men, wird der Mehrfleckalgorithmus 200 verwendet. Das Fluss­ diagramm für den Mehrfleckalgorithmus ist in Fig. 10 darge­ stellt und umfasst die Fig. 10A und 10B.
Wie beim Daten-Nachverarbeitungsalgorithmus 65 ist der erste im Mehrfleckalgorithmus 100 ausgeführte Schritt der Empfang digitaler Daten vom Sensor 10, wie es in einem Block 202 an­ gegeben ist. Auf die Daten wird eine Videoschwellenwertfunk­ tion 204 angewandt. Diese Videoschwellenwertfunktion 204 entspricht einem Schwellenwert, der auf das gesamte Detek­ torarray einwirkt, um Störsignale zu verwerfen, wie sie durch Nebenreflexionen und/oder Mehrpfadreflexion verursacht sein können. Ohne Verwerfen der Störsignale wäre das berech­ nete Fleckzentrum verschoben und die Genauigkeit der Be­ reichsmessung wäre deutlich beeinflusst. Der Videoschwellen­ wert wird vom Benutzer über die Benutzerschnittstelle 64 eingestellt.
Dann wird vorzugsweise eine Fensterfunktion 210 angewandt. Die Fensterfunktion 210 erlaubt es dem Benutzer, den Bereich des Detektors 20 zu beschränken, über den die mehreren Lichtfleckpositionen berechnet werden.
Als Nächstes bestimmt eine Funktion 212 die Anzahl von Flecken. Die Anzahl von Flecken wird dadurch bestimmt, dass die erste Ableitung der vom Sensor 10 empfangenen digitalen Da­ ten gebildet wird und die Nulldurchgänge der Daten ermittelt werden. Auf diese Weise können die Spitzenwerte der Daten und damit die Anzahl der Flecke innerhalb der Fenster be­ stimmt werden.
Dann wird an den Nulldurchgangsdaten eine Spitzenwert- Schwellenwertfunktion 214 ausgeführt. Während der Spitzen­ wert-Schwellenwertfunktion 214 überprüft das Steuerungsmodul 60, ob die Bildpunktintensität an jedem Nulldurchgang größer als der Spitzenwert-Schwellenwert ist. Wenn die Bildpunktin­ tensität kleiner als der Spitzenwert-Schwellenwert ist, wird dieser Bildpunkt aus der Liste von Nulldurchgängen herausge­ nommen, Block 216. Wenn die Bildpunktintensität dem Spitzen­ wert-Schwellenwert entspricht oder größer ist, wird der Bildpunkt-Intensitätswert beibehalten, Block 218. Der Schwellenwert wird vorzugsweise im Bereich von 0 bis 255 eingestellt.
Als Nächstes wird die Anzahl der Flecke vom Benutzer einge­ stellt, Block 220, und vom Benutzer werden ein Primär- und ein Sekundärfleck über die Software-Schnittstelle 64 spezi­ fiziert, wie es im Block 221 angegeben ist. Der Primärfleck kann als Fleck eins bis fünf ausgewählt werden, während der Sekundärfleck als Fleck null bis fünf ausgewählt werden kann, wobei null anzeigt, dass kein Sekundärfleck ausgewählt ist.
Dann erfolgt durch die Firmware des Steuerungsmoduls 60 eine Überprüfung 222, um zu ermitteln, ob die Anzahl der Spitzen­ werte über dem Spitzenwert-Schwellenwert der vom Benutzer eingegebenen Fleckanzahl entspricht. Wenn die Anzahl der Spitzenwerte nicht mit der eingegebenen Fleckanzahl überein­ stimmt, wird eine Fehlermeldung 224 an den Hostprozessor 63 geliefert und entsprechend eingewirkt. Wenn die Anzahl der Spitzenwerte mit der eingegebenen Fleckanzahl übereinstimmt, führt das Steuerungsmodul 60 eine Spitzenwert-Fensterfunk­ tion 225 aus, um das Spitzenwertfenster für den Primärfleck zu bestimmen.
Die Spitzenwert-Fensterfunktion 225 bestimmt das Spitzen­ wertfenster durch eine Suche ausgehend vom Spitzenwert für den nächsten Ort unter dem Videoschwellenwert zu beiden Sei­ ten des Spitzenwerts, oder Nullorts. Wenn sich unter dem Vi­ deoschwellenwert keine Bildpunkte finden, bevor der Rand des Fensters oder der nächste Schwellenwert erreicht wird, wird eine Fehlermeldung 226 erzeugt und entsprechend eingewirkt. Wenn sich Bildpunkte unter dem Videoschwellenwert finden, werden die Grenzen des Spitzenwertfensters für den Primär­ fleck dadurch für eine Bereichsberechnungsfunktion 227 defi­ niert.
Die Bereichsberechnungsfunktion 227 wirkt so, dass sie den Schwerpunkt des Primärflecks innerhalb der Grenzen des Spit­ zenwertfensters für den Primärfleck berechnet. Es wird eine Gleichung ähnlich der obigen Gleichung 3 dazu verwendet, den Schwerpunkt zu bestimmen, mit der Ausnahme, dass i und j auf die Zahl von Bildpunkten im Spitzenwertfenster für den Pri­ märfleck begrenzt sind. Das Ausgangssignal der Bereichsbe­ rechnungsfunktion 227 bildet die Fleckposition in Bildpunk­ ten.
Nach der Bereichsberechnungsfunktion 227 verwendet eine Be­ reichswandlungsfunktion 228 die Koeffizienten, wie sie wäh­ rend der Kalibrierung bestimmt wurden und im EEPROM 107 des Sensors 10 abgespeichert wurden, um die Bildpunkt-Fleckposi­ tion des Primärflecks von der Bereichsberechnungsfunktion 226 in eine Bereichsposition in Millimetern umzuwandeln.
Dann erfolgt eine Prüfung 228 zum Ermitteln, ob tatsächlich ein Sekundärfleck ausgewählt wurde. Wenn kein ausgewählter Sekundärfleck existiert, wird die Bereichsposition für den Primärfleck in Millimetern zur Verwendung und/oder Anzeige an den Hostprozessor rückgeliefert, Block 232. Wenn ein Se­ kundärfleck ausgewählt würde, führt das Steuerungsmodul 60 eine Spitzenwert-Fensterfunktion 233 aus, um das Spitzen­ wertfenster für den Sekundärfleck zu bestimmen.
Die Spitzenwert-Fensterfunktion 233 bestimmt das Spitzen­ wertfenster für den Sekundärfleck durch eine Suche ausgehend vom Spitzenwert für den nächsten Ort unter dem Videoschwel­ lenwert zu beiden Seiten des Spitzenwert- oder Nullorts. Wenn sich keine Bildpunkte unter dem Videoschwellenwert fin­ den, bevor der Rand des Fensters oder der nächste Spitzen­ wert erreicht ist, wird eine Fehlermeldung 234 erzeugt und entsprechend eingewirkt. Wenn sich Bildpunkte unter dem Videoschwellenwert finden, sind dadurch die Grenzen des Spitzenwertfensters für den Sekundärfleck für eine Bereichs­ berechnungsfunktion 235 definiert.
Die Bereichsberechnungsfunktion 235 wirkt so, dass sie den Schwerpunkt des Sekundärflecks innerhalb der Grenzen des Spitzenwertfensters für den Sekundärfleck berechnet. Zum Be­ stimmen des Schwerpunkts des Sekundärflecks wird eine Glei­ chung ähnlich der obigen Gleichung (3) verwendet, mit der Ausnahme, dass i und j auf die Zahl der Bildpunkte im Spit­ zenwertfenster für den Sekundärfleck begrenzt sind. Das Aus­ gangssignal der Bereichsberechnungsfunktion 235 bildet die Fleckposition in Bildpunkten.
Nach der Bereichsberechnungsfunktion 235 verwendet eine Be­ reichswandlungsfunktion 236 die Koeffizienten, wie sie wäh­ rend der Kalibrierung bestimmt wurden und im EEPROM 107 des Sensors 10 abgespeichert wurden, um die Bildpunkt-Fleckposi­ tion des Sekundärflecks von der Bereichsberechnungsfunktion 236 in eine Bereichsposition in Millimetern umzuwandeln.
Wenn die Bereichspositionen des Primärflecks und des Sekun­ därflecks einmal bestimmt sind, wird die Differenz zwischen den Flecken berechnet, Block 238, und zur Verwendung und/oder Anzeige an den Hostprozessor 64 rückgeliefert, Block 240. Die einzelnen Bereichspositionen der Primär- und Sekun­ därflecke können ebenfalls zur Verwendung und/oder Anzeige an den Hostprozessor 64 rückgeliefert werden.
Der Mehrfleckalgorithmus 200 ermöglicht es dem Benutzer, ei­ nen oder zwei von fünf Flecken unter Verwendung der Fenster­ funktion zu isolieren und einen Spitzenwert-Schwellenwert zum Auswählen der zu verwendenden Flecke einzustellen. Die Mehrfleckroutine kann dann die Position jedes der fünf Flecke auf dem Detektor 20 bestimmen, und sie kann den Abstand zwischen beliebigen zwei Flecken, oder den Bereich jedes der Flecke, bestimmen.
Der oben beschriebene Sensor 10 und das Steuerungsmodul 60 bilden ein optisches Sensorsystem, das dadurch genaue Mess­ werte erzeugen kann, dass der Speckleeffekt durch eine Ein­ stellung der numerischen Apertur verringert ist, es verfügt über ein verbessertes Bereich/Auflösung-Verhältnis und ein verbessertes Bereich/Genauigkeit-Verhältnis, und es kann gleichzeitig mehrere Lichtflecke auf dem Detektor 20 bestim­ men.
Die Erfindung kann auf andere spezielle Formen realisiert werden, ohne vom Grundgedanken der wesentlichen Bestandteile derselben abzuweichen; daher ist das veranschaulichte Aus­ führungsbeispiel in jeder Hinsicht als veranschaulichend und nicht als beschränkend anzusehen, wobei auf die beigefügten Ansprüche statt auf die vorstehende Beschreibung Bezug zu nehmen ist, um den Schutzumfang der Erfindung anzuzeigen.

Claims (79)

1. Bereichssensor zum Bestimmen der Abmessungen eines Ziels, mit:
  • 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad zum Ziel;
  • 2. einem optischen Element innerhalb des Lichtpfads zum Fo­ kussieren des Lichts auf das Ziel;
  • 3. einem zweiten optischen Element zum Sammeln des am Ziel reflektierten Lichts, um das reflektierte Licht wesentlich zu fokussieren;
  • 4. einem Detektor mit einer Fläche zum Erfassen des Bilds des fokussierten, reflektierten Lichts, wobei das reflektierte Licht einen Einfallswinkel zur Oberfläche des Detektors bil­ det; und
  • 5. einem dritten optischen Element außerhalb der Bildebene des fokussierten, reflektierten Lichts, wobei dieses dritte optische Element angrenzend an die Fläche des Detektors liegt und es so konzipiert ist, dass es das reflektierte Licht empfängt, den Einfallswinkel verkleinert und das re­ flektierte Licht auf den Detektor lenkt.
2. Bereichssensor nach Anspruch 1, bei dem das dritte op­ tische Element ein Beugungselement enthält.
3. Bereichssensor nach Anspruch 2, bei dem das dritte op­ tische Element ein Prisma enthält.
4. Bereichssensor nach Anspruch 2, bei dem das dritte op­ tische Element ein Gitter enthält.
5. Bereichssensor nach Anspruch 3, bei das Prisma ungefähr ein 15-Grad-Prisma ist.
6. Bereichssensor nach Anspruch 1, bei dem das dritte op­ tische Element den Fleck des reflektierten Lichts mit unge­ fähr normalem Einfall auf den Detektor lenkt.
7. Bereichssensor nach Anspruch 1, bei dem das Bild des Flecks des reflektierten Lichts im Wesentlichen auf die Oberfläche des Detektors fokussiert ist.
8. Bereichssensor nach Anspruch 3, bei dem das Prisma eine im Wesentlichen ebene Stirnfläche aufweist.
9. Bereichssensor nach Anspruch 1, ferner mit einem Sen­ sorgehäuse zum Aufnehmen der Lichtquelle, des optischen Ele­ ments, des zweiten optischen Elements und des Detektors, wo­ bei das Sensorgehäuse mehrere Montagelöcher aufweist, um es genau und reproduzierbar montieren zu können.
10. Bereichssensor nach Anspruch 9, bei dem das Sensorge­ häuse so konzipiert ist, dass es sowohl wendbar als auch stapelbar ist.
11. Bereichssensor nach Anspruch 1, bei dem Kalibrierinfor­ mation für den Bereichssensor in ihm gespeichert ist.
12. Bereichssensor nach Anspruch 11, bei dem die Kalibrier­ information Nichtlinearitätsinformation zu ihm beinhaltet.
13. Bereichssensor nach Anspruch 1, bei dem der Detektor mehrere photoempfindliche Elemente aufweist.
14. Bereichssensor nach Anspruch 13, bei dem der Detektor ein lineares Metalloxid-Halbleiter-Array aufweist.
15. Bereichssensor nach Anspruch 1, der niedrige Energie­ verluste nicht über ungefähr 1,0 W aufweist.
16. Bereichssensor nach Anspruch 1, ferner mit einem se­ riellen Port zum kommunikativen Verbinden des Bereichssen­ sors mit einem Steuerungsmodul.
17. Bereichssensor nach Anspruch 1, der ein Bereich/Auflö­ sung-Verhältnis von ungefähr ≧ 2000 : 1 aufweist.
18. Bereichssensor nach Anspruch 1, der ein Bereich/Genau­ igkeit-Verhältnis von ungefähr ≧ 200 : 1 aufweist.
19. Bereichssensor zum Bestimmen der Abmessungen eines Ziels, mit:
  • 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad zum Ziel;
  • 2. einem optischen Element innerhalb des Lichtpfads zum Fo­ kussieren des Lichts auf das Ziel;
  • 3. einem zweiten optischen Element zum Sammeln des am Ziel reflektierten Lichts, um das reflektierte Licht wesentlich zu fokussieren;
  • 4. einem Detektor mit einer Fläche zum Erfassen des Bilds des fokussierten, reflektierten Lichts, wobei das reflektierte Licht einen Einfallswinkel zur Oberfläche des Detektors bil­ det, wobei das zweite optische Element so konzipiert ist, dass es das reflektierte Licht auf die Oberfläche des Detek­ tors fokussiert; und
  • 5. einem dritten optischen Element außerhalb der Bildebene des fokussierten, reflektierten Lichts, wobei dieses dritte optische Element angrenzend an die Fläche des Detektors liegt und das optische Element so konzipiert ist, dass es das reflektierte Licht empfängt, den Einfallswinkel verklei­ nert und das reflektierte Licht auf den Detektor lenkt.
20. Bereichssensor nach Anspruch 19, bei dem das dritte optische Element ein Beugungselement enthält.
21. Bereichssensor nach Anspruch 20, bei dem das dritte op­ tische Element ein Prisma enthält.
22. Bereichssensor nach Anspruch 20, bei dem das dritte op­ tische Element ein Gitter enthält.
23. Bereichssensor nach Anspruch 19, bei dem das dritte op­ tische Element den Fleck des reflektierten Lichts mit unge­ fähr normalem Einfall auf den Detektor lenkt.
24. Bereichssensor zum Bestimmen der Abmessungen eines Ziels, mit:
  • 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad zum Ziel;
  • 2. einem optischen Element innerhalb des Lichtpfads zum Fo­ kussieren des Lichts auf das Ziel;
  • 3. einem zweiten optischen Element zum Sammeln des am Ziel reflektierten Lichts, um das reflektierte Licht wesentlich zu fokussieren, wobei dieses zweite optische Element eine ziemlich große numerische Apertur aufweist;
  • 4. einem Detektor mit einer Fläche zum Erfassen des Bilds des fokussierten, reflektierten Lichts, wobei das reflektierte Licht einen Einfallswinkel zur Oberfläche des Detektors bil­ det; und
  • 5. einem dritten optischen Element außerhalb der Bildebene des fokussierten, reflektierten Lichts, wobei dieses dritte optische Element angrenzend an die Fläche des Detektors liegt und es so konzipiert ist, dass es das reflektierte Licht empfängt, den Einfallswinkel verkleinert und das re­ flektierte Licht auf den Detektor lenkt.
25. Bereichssensor nach Anspruch 24, bei dem das dritte op­ tische Element ein Beugungselement enthält.
26. Bereichssensor nach Anspruch 25, bei dem das dritte op­ tische Element ein Prisma enthält.
27. Bereichssensor nach Anspruch 25, bei dem das dritte op­ tische Element ein Gitter enthält.
28. Bereichssensor nach Anspruch 24, bei dem das dritte op­ tische Element den Fleck des reflektierten Lichts mit unge­ fähr normalem Einfall auf den Detektor lenkt.
29. Bereichssensor nach Anspruch 24, bei dem die ziemlich große numerische Apertur so wirkt, dass sie den Speckleef­ fekt an der Oberfläche des Detektors wesentlich verringert.
30. Bereichssensor nach Anspruch 24, bei dem die ziemlich große numerische Apertur so wirkt, dass sie Unbestimmtheiten bei Bereichsmessungen wesentlich verringert.
31. Bereichssensor nach Anspruch 24, bei dem die ziemlich große numerische Apertur 0,1 beträgt.
32. Bereichssensor nach Anspruch 31, bei dem die ziemlich große numerische Apertur 0,2 beträgt.
33. Bereichssensor zum Vornehmen von Bereichsmessungen und zum Bestimmen der Abmessungen eines Ziels, mit:
  • 1. einer Lichtquelle zum Lenken von Licht entlang einem Pfad auf das Ziel;
  • 2. einem Sender innerhalb des Lichtpfads zum Fokussieren des Lichts auf das Ziel;
  • 3. einem Empfänger zum Sammeln des am Ziel reflektierten Lichts und zum Fokussieren des reflektierten Lichts, wobei der Empfänger eine ziemlich große numerische Apertur auf­ weist; und
  • 4. einem Detektor mit einer Erfassungsfläche, die so konzi­ piert ist, dass sie das reflektierte Licht empfängt, wobei die ziemlich große numerische Apertur so wirkt, dass sie den Speckleeffekt an der Erfassungsfläche wesentlich verringert.
34. Bereichssensor nach Anspruch 33, bei dem die ziemlich große numerische Apertur so wirkt, dass sie Unbestimmtheiten bei Bereichsmessungen wesentlich verringert.
35. Bereichssensor nach Anspruch 33, bei dem die ziemlich große numerische Apertur ≧ 0,1 beträgt.
36. Bereichssensor nach Anspruch 35, bei dem die ziemlich große numerische Apertur 0,2 beträgt.
37. Bereichssensor nach Anspruch 33, bei dem der Detektor mehrere photoempfindliche Elemente aufweist.
38. Bereichssensor nach Anspruch 37, bei dem der Detektor ein lineares Metalloxid-Halbleiter-Array aufweist.
39. Bereichssensor nach Anspruch 33, der niedrige Energie­ verluste nicht über ungefähr 1,0 W aufweist.
40. Bereichssensor nach Anspruch 33, ferner mit einem se­ riellen Port zum kommunikativen Verbinden des Bereichssen­ sors mit einem Steuerungsmodul.
41. Bereichssensor nach Anspruch 33, bei dem das am Ziel reflektierte Licht entlang einem Pfad reflektiert wird, und bei dem der Empfänger ein Filter aufweist, das relativ zu diesem Pfad gekippt ist.
42. Bereichssensor nach Anspruch 33, bei dem das Filter ge­ kippt ist, um Aberrationen zu korrigieren.
43. Bereichssensor nach Anspruch 33, ferner mit einem Sen­ sorgehäuse zum Aufnehmen der Lichtquelle, des optischen Ele­ ments, des zweiten optischen Elements und des Detektors, wo­ bei das Sensorgehäuse mehrere Montagelöcher aufweist, um es genau und reproduzierbar montieren zu können.
44. Bereichssensor nach Anspruch 43, bei dem das Sensorge­ häuse so konzipiert ist, dass es sowohl wendbar als auch stapelbar ist.
45. Bereichssensor nach Anspruch 33, bei dem Kalibrierin­ formation für den Bereichssensor in ihm gespeichert ist.
46. Bereichssensor nach Anspruch 45, bei dem die Kalibrier­ information Nichtlinearitätsinformation zu ihm beinhaltet.
47. Bereichssensor nach Anspruch 33, der ein Bereich/Auflö­ sung-Verhältnis von ungefähr ≧ 2000 : 1 aufweist.
48. Bereichssensor nach Anspruch 33, der ein Bereich/Genau­ igkeit-Verhältnis von ungefähr ≧ 200 : 1 aufweist.
49. Bereichssensorsystem zum Bestimmen der Abmessungen ei­ nes Ziels, mit:
  • 1. einem Bereichssensor mit einem Detektor zum Erfassen von Licht, das an einem Ziel reflektiert wird, wobei der Sensor so konzipiert ist, dass er für das erfasste Licht repräsen­ tative digitale Daten erzeugt; und
  • 2. einem Steuerungsmodul, das kommunikativ mit dem Bereichs­ sensor verbunden ist und so konzipiert ist, dass es die di­ gitalen Daten empfängt und auf diese einwirkt, um einen nu­ merischen Abmessungs-Ablesewert zu erzeugen.
50. Bereichssensorsystem nach Anspruch 49, bei dem das Steuerungsmodul dadurch auf die digitalen Daten einwirkt, dass es eine Schwerpunktsberechnung ausführt, um einen nume­ rischen Abmessungs-Ablesewert zu erzeugen.
51. Bereichssensorsystem nach Anspruch 50, bei dem das Steuerungsmodul dadurch auf die digitalen Daten einwirkt, dass es einen Schwellenwert auf diese digitalen Daten anwen­ det, um einen numerischen Abmessungs-Ablesewert zu erzeugen.
52. Bereichssensorsystem nach Anspruch 49, bei dem das er­ fasste Licht mindestens zwei Spitzenwerte der Lichtintensi­ tät beinhaltet und bei dem das Steuerungsmodul so konzipiert ist, dass es einen numerischen Abmessungs-Messwert für die mindestens zwei Spitzenwerte der Lichtintensität erzeugt.
53. Bereichssensorsystem nach Anspruch 49, bei dem das er­ fasste Licht mindestens zwei Spitzenwerte der Lichtintensi­ tät enthält und bei dem das Steuerungsmodul so konzipiert ist, dass es für mindestens einen der zwei Spitzenwerte der Lichtintensität einen numerischen Abmessungs-Messwert er­ zeugt.
54. Bereichssensorsystem nach Anspruch 52, bei dem das Steuerungsmodul so konzipiert ist, dass es aus den mindes­ tens zwei Spitzenwerten der Lichtintensität einen numeri­ schen Dickenmesswert für das Ziel erzeugt.
55. Bereichssensorsystem nach Anspruch 49, ferner mit einem Hostprozessor, der kommunikativ mit dem Steuerungsmodul ver­ bunden ist.
56. Bereichssensorsystem nach Anspruch 55, bei dem der Hostprozessor kommunikativ über einen Bus dieses Hostprozes­ sors mit dem Steuerungsmodul verbunden ist.
57. Bereichssensorsystem nach Anspruch 49, bei dem Kali­ brierungsinformation des Bereichssensors in diesem gespei­ chert ist und bei dem das Steuerungsmodul so konzipiert ist, dass es diese Kalibrierungsinformation liest.
58. Bereichssensorsystem nach Anspruch 57, bei dem das Steuerungsmodul so konzipiert ist, dass es die Kalibrie­ rungsinformation dazu verwendet, die digitalen Daten vom Be­ reichssensor zu linearisieren.
59. Bereichssensorsystem nach Anspruch 49, bei dem das Steuerungsmodul kommunikativ über ein serielles Kabel mit dem Bereichssensor gekoppelt ist.
60. Bereichssensorsystem zum Bestimmen der Abmessungen ei­ nes Ziels, mit:
  • 1. einem Bereichssensor mit einem Detektor zum Erfassen von Licht, das an einem Ziel reflektiert wird, wobei das erfass­ te Licht mehrere Lichtintensitäts-Spitzenwerte enthält, und wobei der Bereichssensor so konzipiert ist, dass er für das erfasste Licht repräsentative Daten erzeugt; und
  • 2. einem Steuerungsmodul, das kommunikativ mit dem Bereichs­ sensor verbunden ist und so konzipiert ist, dass es die Da­ ten empfängt und auf diese Daten einwirkt, um für mindestens einen der mehreren Lichtintensitäts-Spitzenwerte einen nume­ rischen Abmessungs-Ablesewert zu erzeugen.
61. Bereichssensorsystem nach Anspruch 60, bei dem die Da­ ten digitale Daten sind.
62. Bereichssensorsystem nach Anspruch 60, bei dem das Steuerungsmodul dadurch auf die Daten einwirkt, dass es eine Schwerpunktsberechnung ausführt, um einen numerischen Abmes­ sungs-Ablesewert zu erzeugen.
63. Bereichssensorsystem nach Anspruch 62, bei dem das Steuerungsmodul dadurch auf die Daten einwirkt, dass es ei­ nen Schwellenwert auf diese digitalen Daten anwendet, um einen numerischen Abmessungs-Ablesewert zu erzeugen.
64. Bereichssensorsystem nach Anspruch 60, bei dem das er­ fasste Licht mindestens zwei Spitzenwerte der Lichtintensi­ tät beinhaltet und bei dem das Steuerungsmodul so konzipiert ist, dass es aus zwei Spitzenwerten der mehreren Lichtinten­ sitäts-Spitzenwerte einen numerischen Dickenmesswert für das Ziel erzeugt.
65. Bereichssensorsystem nach Anspruch 60, ferner mit einem Hostprozessor, der kommunikativ mit dem Steuerungsmodul ver­ bunden ist.
66. Bereichssensorsystem nach Anspruch 65, bei dem der Hostprozessor kommunikativ über einen Bus dieses Hostprozes­ sors mit dem Steuerungsmodul verbunden ist.
67. Bereichssensorsystem nach Anspruch 60, bei dem Kali­ brierungsinformation des Bereichssensors in diesem gespei­ chert ist und bei dem das Steuerungsmodul so konzipiert ist, dass es diese Kalibrierungsinformation liest.
68. Bereichssensorsystem nach Anspruch 67, bei dem das Steuerungsmodul so konzipiert ist, dass es die Kalibrie­ rungsinformation dazu verwendet, die digitalen Daten vom Be­ reichssensor zu linearisieren.
69. Bereichssensorsystem nach Anspruch 60, bei dem das Steuerungsmodul kommunikativ über ein serielles Kabel mit dem Bereichssensor gekoppelt ist.
70. Verfahren zum Bestimmen der Abmessungen eines Ziels, mit, der Reihe nach, den folgenden Schritten:
  • 1. Empfangen digitaler Daten von einem Bereichssensor, wobei die digitalen Daten für Licht repräsentativ sind, das von einem Detektor des Bereichssensors empfangen wird;
  • 2. Anwenden eines Schwellenwerts auf die digitalen Daten;
  • 3. Ausführen einer Schwerpunktsberechnung an den dem Schwel­ lenwert unterzogenen digitalen Daten; und
  • 4. Erzeugen eines numerischen Abmessungsmesswerts für das Ziel aus der Schwerpunktsberechnung.
71. Verfahren nach Anspruch 70, ferner mit dem Schritt des Linearisierens der Schwerpunktsberechnung.
72. Verfahren zum Bestimmen der Abmessungen eines Ziels, mit, der Reihe nach, den folgenden Schritten:
  • 1. Empfangen von Daten von einem Bereichssensor, wobei diese digitalen Daten für Licht repräsentativ sind, wie es von einem Detektor des Bereichssensors empfangen wird, und wobei das Licht mehrere Spitzenwert-Lichtintensitäten enthält;
  • 2. Anwenden eines Schwellenwerts auf die Daten mindestens einer der mehreren Spitzenwert-Lichtintensitäten;
  • 3. Ausführen einer Schwerpunktsberechnung an den Daten der mindestens einen der mehreren Spitzenwert-Lichtintensitäten; und
  • 4. Erzeugen mindestens eines numerischen Abmessungsmesswerts für das Ziel aus der Schwerpunktsberechnung.
73. Verfahren nach Anspruch 72, bei dem die Daten digitale Daten sind.
74. Verfahren nach Anspruch 72, ferner mit dem Anwenden ei­ nes Schwellenwerts auf die Daten mindestens zweier der meh­ reren Spitzenwert-Lichtintensitäten, und dem Ausführen einer Schwerpunktsberechnung an den Daten mindestens zweier der mehreren Spitzenwert-Lichtintensitäten.
75. Verfahren nach Anspruch 74, ferner mit dem Erzeugen mindestens zweier numerischer Abmessungsmesswerte für das Ziel aus der Schwerpunktsberechnung an den Daten mindestens zweier der mehreren Spitzenwert-Lichtintensitäten.
76. Verfahren nach Anspruch 74, ferner mit dem Schritt des Erzeugens eines Dickenmesswerts für das Ziel aus der Schwer­ punktsberechnung aus den Daten mindestens zweier der mehre­ ren Spitzenwert-Lichtintensitäten.
77. Verfahren nach Anspruch 72, ferner mit dem Schritt des Linearisierens der Schwerpunktsberechnung.
78. Verfahren nach Anspruch 74, ferner mit dem Schritt des Linearisierens der Schwerpunktsberechnung.
79. Verfahren zum Verringern des Einfallswinkels von an einem Ziel reflektiertem Licht, mit den folgenden Schritten:
  • 1. Lenken von Licht entlang einem Pfad auf ein Ziel;
  • 2. Fokussieren des Lichts auf das Ziel;
  • 3. Sammeln des Reflexionslichts vom Ziel, wobei das Licht un­ ter einem Einfallswinkel am Ziel reflektiert wird;
  • 4. wesentliches Fokussieren des gesammelten Reflexionslichts;
  • 5. Verringern des Einfallswinkels des gesammelten Reflexions­ lichts außerhalb einer Bildebene des fokussierten Refle­ xionslichts; und
  • 6. Erfassen des fokussierten Reflexionslichts unter dem ver­ ringerten Einfallswinkel.
DE19911419A 1998-03-16 1999-03-15 Digitales Bereichssensorsystem Withdrawn DE19911419A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US3981998A 1998-03-16 1998-03-16

Publications (1)

Publication Number Publication Date
DE19911419A1 true DE19911419A1 (de) 1999-10-14

Family

ID=21907508

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19911419A Withdrawn DE19911419A1 (de) 1998-03-16 1999-03-15 Digitales Bereichssensorsystem

Country Status (3)

Country Link
US (3) US6088110A (de)
JP (1) JPH11311504A (de)
DE (1) DE19911419A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10319182B4 (de) * 2003-04-29 2008-06-12 Carl Zeiss Jena Gmbh Verfahren und Anordnung zur Bestimmung der Fokusposition bei der Abbildung einer Probe
DE102007011902A1 (de) 2007-03-13 2008-07-24 Daimler Ag Laserschweißvorrichtung
DE10362244B4 (de) * 2003-04-29 2014-06-26 Carl Zeiss Microscopy Gmbh Verfahren zur Bestimmung der Fokusposition und der Verkippung der Fokusebene bei der Abbildung einer Probe
DE102007058505B4 (de) 2006-12-07 2022-03-17 Keyence Corporation Optischer Abstandssensor und optische Abstandsmesseinrichtung

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH695028A5 (de) * 1999-12-24 2005-11-15 Hera Rotterdam Bv Optoelektronischer Distanzsensor und Verfahren zur optoelektronischen Distanzmessung.
KR100399637B1 (ko) * 2000-12-21 2003-09-29 삼성전기주식회사 광학식 마우스
KR100399635B1 (ko) * 2000-12-21 2003-09-29 삼성전기주식회사 광학식 마우스
US20020140824A1 (en) * 2001-04-02 2002-10-03 Christoff Jordan C. System and method for processing low illumination image data
US7209779B2 (en) * 2001-07-17 2007-04-24 Accuimage Diagnostics Corp. Methods and software for retrospectively gating a set of images
US6778267B2 (en) * 2001-09-24 2004-08-17 Kla-Tencor Technologies Corp. Systems and methods for forming an image of a specimen at an oblique viewing angle
US7071460B2 (en) * 2002-06-07 2006-07-04 Christopher Rush Optical non-contact measuring probe
JP4185397B2 (ja) * 2002-12-25 2008-11-26 株式会社キーエンス 光学式検出器
JP4379056B2 (ja) * 2003-08-12 2009-12-09 富士ゼロックス株式会社 三次元画像撮像装置および方法
JP5226510B2 (ja) * 2005-06-30 2013-07-03 エイエムオー・ウェーブフロント・サイエンシーズ・リミテッド・ライアビリティ・カンパニー 光学表面の曲率を測定するシステムおよび方法
WO2007072044A1 (en) * 2005-12-23 2007-06-28 Ingenia Holdings (Uk) Limited Optical authentication
GB0612786D0 (en) * 2006-06-28 2006-08-09 Spiral Scratch Ltd Imaging with depth information
CA2597891A1 (en) * 2007-08-20 2009-02-20 Marc Miousset Multi-beam optical probe and system for dimensional measurement
US7808617B2 (en) 2007-09-17 2010-10-05 Quality Vision International, Inc. Dual resolution, dual range sensor system and method
US7791731B2 (en) * 2007-12-18 2010-09-07 Quality Vision International, Inc. Partial coherence interferometer with measurement ambiguity resolution
CN101561267B (zh) * 2008-04-16 2013-06-05 鸿富锦精密工业(深圳)有限公司 距离测量装置与方法
CN102639989B (zh) 2009-11-06 2014-12-10 赛博光学公司 具有自适应聚焦的高速光学检查系统
JP2011106896A (ja) * 2009-11-16 2011-06-02 Mitsutoyo Corp 非接触プローブ、及び測定機
US20140035812A1 (en) * 2011-05-05 2014-02-06 Maxim Integrated Products, Inc. Gesture sensing device
US8716649B2 (en) 2011-05-05 2014-05-06 Maxim Integrated Products, Inc. Optical gesture sensor using a single illumination source
US9229581B2 (en) 2011-05-05 2016-01-05 Maxim Integrated Products, Inc. Method for detecting gestures using a multi-segment photodiode and one or fewer illumination sources
US9555407B2 (en) 2013-03-14 2017-01-31 Protedyne Corporation Laser triangulation for pipette tip position
JP6381909B2 (ja) * 2013-12-27 2018-08-29 パナソニック デバイスSunx株式会社 変位センサ
FR3031183B1 (fr) * 2014-12-31 2018-01-26 Arianegroup Sas Procede et dispositif pour le controle laser de l'etat d'une surface
JP2021015100A (ja) * 2019-07-16 2021-02-12 パナソニックIpマネジメント株式会社 受光器、投光器、及び光電センサ
CN113917397A (zh) * 2021-09-17 2022-01-11 深圳市睿联技术股份有限公司 测距方法、装置、系统及计算机可读存储介质
CN114460594B (zh) * 2022-04-14 2022-06-14 宜科(天津)电子有限公司 一种基于三角测距的图像的去噪方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3497289A (en) * 1967-09-25 1970-02-24 Bausch & Lomb Prism variable anamorphic optical system
DE1673927A1 (de) * 1968-02-09 1971-08-12 Philips Patentverwaltung Verfahren und Anordnung zur Wiedererkennung eines Koerpers oder seiner Position und Orientierung im Raum
DE1673905A1 (de) * 1968-02-15 1971-09-30 Eltro Gmbh Mit einem Laser-Entfernungsmesser kombiniertes optisches Ziel-oder Beobachtungsgeraet
US3497259A (en) 1968-06-28 1970-02-24 William E Sherfey Head or back support for wheelchairs
US3799652A (en) * 1971-03-05 1974-03-26 Thomson Csf Optical deflection system with acousto optical cell and associated prisms
US4017160A (en) * 1975-09-19 1977-04-12 Minnesota Mining And Manufacturing Company Continuously variable anamorphic lens
US4084881A (en) * 1975-10-21 1978-04-18 Canon Kabushiki Kaisha Light beam scanning device
US4059343A (en) * 1976-02-26 1977-11-22 The United States Of America As Represented By The Secretary Of The Air Force Prismatic anamorphic system for optical correlators
US4170401A (en) * 1977-08-15 1979-10-09 The Perkin-Elmer Corporation Passive error compensating device for optical alignment
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
JPS5838880A (ja) * 1981-08-31 1983-03-07 Tokyo Optical Co Ltd 光波距離計
US4436260A (en) * 1981-12-21 1984-03-13 The United States Of America As Represented By The Secretary Of The Air Force Optical scanner for use in confined areas
JPS58113807A (ja) * 1981-12-28 1983-07-06 Canon Inc 距離測定装置
JPS58174874A (ja) * 1982-04-08 1983-10-13 Tokyo Optical Co Ltd 光波測距方法及びその装置
US4488813A (en) * 1982-04-29 1984-12-18 Mechanical Technology Incorporated Reflectivity compensating system for fiber optic sensor employing dual probes at a fixed gap differential
JPS59202010A (ja) * 1983-05-02 1984-11-15 Kubota Ltd 自動測距装置
JPS6020111A (ja) * 1983-07-14 1985-02-01 Fuji Electric Corp Res & Dev Ltd 距離測定装置
US4580879A (en) * 1983-09-06 1986-04-08 Storage Technology Partners Ii In-line optical anamorphic beam expander/contractor
DE3586008D1 (de) * 1984-03-09 1992-06-17 Hitachi Ltd Prismensystem und vorrichtung zur verarbeitung optischer informationen.
JPH0675131B2 (ja) * 1984-06-08 1994-09-21 ミノルタカメラ株式会社 ゾーンフォーカスカメラの測距装置
JPS61116611A (ja) * 1984-11-12 1986-06-04 Canon Inc 距離測定方法
JPS61183928A (ja) * 1985-02-12 1986-08-16 Nippon Kogaku Kk <Nikon> 投影光学装置
KR900002117B1 (ko) * 1985-03-28 1990-04-02 시부야 고오교오 가부시끼가이샤 레이저 광선을 이용한 거리측정방법과 장치
DE3536700C3 (de) * 1985-10-15 1994-07-07 Focus Mestechnik Gmbh & Co Kg Gerät zum Ermitteln des lokalen Abstandes einer Prüffläche von einer Referenzfläche, deren geometrische Lage in bezug auf das Gerät bekannt ist
US4733969A (en) * 1986-09-08 1988-03-29 Cyberoptics Corporation Laser probe for determining distance
US4891772A (en) * 1987-04-15 1990-01-02 Cyberoptics Corporation Point and line range sensors
US4872747A (en) * 1987-04-15 1989-10-10 Cyberoptics Corporation Use of prisms to obtain anamorphic magnification
CA1307051C (en) * 1988-02-26 1992-09-01 Paolo Cielo Method and apparatus for monitoring the surface profile of a moving workpiece
JP2681649B2 (ja) * 1988-04-01 1997-11-26 株式会社トプコン 面位置検出装置
US5218415A (en) * 1988-05-31 1993-06-08 Canon Kabushiki Kaisha Device for optically detecting inclination of a surface
JPH0652707B2 (ja) * 1988-10-11 1994-07-06 キヤノン株式会社 面位置検出方法
CA1298380C (en) * 1988-10-19 1992-03-31 National Research Council Of Canada Method and system for increasing the effective dynamic range of a photosensor
GB8826224D0 (en) * 1988-11-09 1988-12-14 Gersan Anstalt Sensing shape of object
JPH04166786A (ja) * 1990-10-30 1992-06-12 Topcon Corp 投光受光光学装置
US5272501A (en) * 1991-08-28 1993-12-21 Nikon Corporation Projection exposure apparatus
JP3204406B2 (ja) * 1991-10-30 2001-09-04 株式会社ニコン 面位置検出方法及び装置、半導体露光装置、並びに前記方法を用いた露光方法
CA2115859C (en) * 1994-02-23 1995-12-26 Brian Dewan Method and apparatus for optimizing sub-pixel resolution in a triangulation based distance measuring device
US5530548A (en) * 1994-11-07 1996-06-25 Automotive Systems Laboratory, Inc. Calibratable optical distance sensing system and method
US5806020A (en) * 1995-08-29 1998-09-08 Laser Technology, Inc. Laser based speed and accident reconstruction measuring apparatus and method
JP3209667B2 (ja) * 1995-10-09 2001-09-17 三菱電機株式会社 車両用光レーダ装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10319182B4 (de) * 2003-04-29 2008-06-12 Carl Zeiss Jena Gmbh Verfahren und Anordnung zur Bestimmung der Fokusposition bei der Abbildung einer Probe
DE10362244B4 (de) * 2003-04-29 2014-06-26 Carl Zeiss Microscopy Gmbh Verfahren zur Bestimmung der Fokusposition und der Verkippung der Fokusebene bei der Abbildung einer Probe
DE102007058505B4 (de) 2006-12-07 2022-03-17 Keyence Corporation Optischer Abstandssensor und optische Abstandsmesseinrichtung
DE102007011902A1 (de) 2007-03-13 2008-07-24 Daimler Ag Laserschweißvorrichtung

Also Published As

Publication number Publication date
JPH11311504A (ja) 1999-11-09
US6088110A (en) 2000-07-11
US6353478B1 (en) 2002-03-05
US6288786B1 (en) 2001-09-11

Similar Documents

Publication Publication Date Title
DE19911419A1 (de) Digitales Bereichssensorsystem
DE69312403T2 (de) Messung der Wanddicke eines transparenten Gefässes
DE69925582T2 (de) Vorrichtung und verfahren zum optischen messen der oberflächenkontur eines objekts
EP0048489B1 (de) Vorrichtung zum Untersuchen eines Fingerreliefs
DE3687568T2 (de) Eingabeschnittstelle fuer rechner.
DE3926349C2 (de)
DE2823060A1 (de) Vorrichtung und verfahren zum messen der wellenlaenge eines lichtstrahls
CH654914A5 (de) Optoelektronisches messverfahren und einrichtung zum bestimmen der oberflaechenguete streuend reflektierender oder transparenter oberflaechen.
DE4211875A1 (de) Optischer Abstandssensor
DE19727226A1 (de) Meßanordnung und Verfahren zum berührungslosen Erfassen der 3-dimensionalen Raumform einer Brillenfassungsnut
DE3719422C2 (de)
EP3899424B1 (de) Vorrichtung und verfahren zur optischen vermessung einer innenkontur einer brillenfassung
DE112013001142T5 (de) Verfahren zum Identifizieren abnormaler Spektralprofile, die von einem chromatischen konfokalen Entfernungssensor gemessen werden
DE3784231T2 (de) Verfahren und vorrichtung zur beruehrungslosen automatischen fokussierung.
DE4235832A1 (de) Dachoberflaechenmessvorrichtung
WO2020225125A1 (de) Erfassungsvorrichtung mit zumindest einer sensoreinrichtung, einer auswerteeinrichtung, einer lichtquelle sowie einem trägermedium
DE69404226T2 (de) Kontaktloser zweistufiger Detektionspositionierungsapparat
DE69830323T2 (de) Vorrichtung und verfahren zur bestimmung der optischen verzerrung eines transparenten substrats
DE3732149C2 (de) Verfahren und Vorrichtung zum Charakterisieren einer Genauigkeitseigenschaft einer optischen Linse
DE102007027553A1 (de) Zeigevorrichtung
DE4105509C2 (de) Streulichtmeßanordnung zur Untersuchung der Oberflächenrauheit
DE4135959C2 (de) Verfahren zur Messung der Neigungen von Grenzflächen in einem optischen System
DE102018211913A1 (de) Vorrichtung und Verfahren zum Erfassen einer Objektoberfläche mittels elektromagnetischer Strahlung
EP0961930B1 (de) Lichtabtastvorrichtung
DE102015115615A1 (de) Vorrichtung und Verfahren zur chromatisch-konfokalen Untersuchung einer Probe

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: QUALITY VISION INTERNATIONAL, ROCHESTER, N.Y., US

8127 New person/name/address of the applicant

Owner name: QUALITY VISION INTERNATIONAL,INC., ROCHESTER, N.Y.

8139 Disposal/non-payment of the annual fee