[go: up one dir, main page]

DE602004003957T2 - Neigungswinkel-detektionseinrichtung und neigungswinkel-detektionsverfahren - Google Patents

Neigungswinkel-detektionseinrichtung und neigungswinkel-detektionsverfahren Download PDF

Info

Publication number
DE602004003957T2
DE602004003957T2 DE602004003957T DE602004003957T DE602004003957T2 DE 602004003957 T2 DE602004003957 T2 DE 602004003957T2 DE 602004003957 T DE602004003957 T DE 602004003957T DE 602004003957 T DE602004003957 T DE 602004003957T DE 602004003957 T2 DE602004003957 T2 DE 602004003957T2
Authority
DE
Germany
Prior art keywords
diagrams
sensor
light
patterns
sequential
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE602004003957T
Other languages
English (en)
Other versions
DE602004003957D1 (de
Inventor
Hideaki Musashimurayama-shi INOUE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of DE602004003957D1 publication Critical patent/DE602004003957D1/de
Application granted granted Critical
Publication of DE602004003957T2 publication Critical patent/DE602004003957T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Projection Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Neigungswinkel-Erfassungsvorrichtung und ein Neigungswinkel-Erfassungsverfahren.
  • Hintergrundtechnik
  • Eine Autofokuskamera etc. umfasst einen Entfernungsmessungssensor zum Messen der Entfernung zu einem Fotoobjekt. Bezüglich dieser Art von Entfernungsmessungssensor gibt es einen Entfernungsmessungssensor mit einem passiven Verfahren, wie er in der nicht geprüften japanischen Patentveröffentlichung KOKAI Veröffentlichung Nr. 2003-57531 (Seite 2, Seite 3 und 3) offengelegt ist. Wie in 22 gezeigt, umfasst diese Art von Entfernungsmessungssensor mit einem passiven Verfahren ein Paar von Linsen 51a und 51b und Lichtsensoranordnungen 52a und 52b.
  • Die Linsen 51a und 51b sind mit einem Abstand b angeordnet. C1 und C2 sind Mittellinien der Linsen 51a und 51b. Die Mittellinien C1 und C2 stimmen mit dem Lichtstrahl von einem Fotoobjekt 53 überein, das bei einer Position auftritt, welche unendlich bezüglich der Linsen 51a und 51b ist und sie sind parallel zueinander. Die Lichtsensoranordnungen 52a und 52b sind so angeordnet, dass sie jeweils vertikal zu den Mittellinien C1 und C2 sind.
  • Bilddatenfolgen L0 und R0 des Fotoobjekts 53 werden bei jeder der Lichtsensoranordnungen 52a und 52b ausgebildet. Bei dieser Art von Entfernungsmessungssensor wird die Entfernung von den Linsen 51a und 51b zu dem Fotoobjekt 53 durch Gleichung 1 erhalten.
  • [Gleichung 1]
    Figure 00020001
  • Wenn das Fotoobjekt 53 bei einer Position platziert ist, die näher als die Unendlich-Position bezüglich der Linsen 51a und 51b liegt, tritt eine Phasendifferenz (x1 + x2) auf.
  • Der Entfernungsmessungssensor ermittelt den Korrelationsfunktionswert mit einer Datenfolge L1 und einer Datenfolge R1 der Lichtsensoranordnung 51a, während er zum Beispiel die Datenfolge R1 auf Lichtsensor 51b verschiebt. Der Versatz (Verschiebungs)-Betrag von den Mittellinien C1 und C2, wo der Korrelationswert sein lokales Maximum besitzt, wird dann zu der Phasendifferenz (x1 + x2).
  • Der Neigungswinkel des Schirms als die Projektionsfläche, auf welche das Projektionslicht von dem Projektor projiziert wird, kann erhalten werden durch Anwendung von dieser Art von Entfernungsmessungssensor auf den Projektor. Mit dem Projektor wird das Projektionsbild, welches auf dem Schirm wiedergegeben wird deformiert auf Grund des Neigungswinkels des Schirms. Deshalb wird der Neigungswinkel des Schirms in Richtung der optischen Achse des Projektionslichts des Projektors unumgänglich, wenn man das Projektionsbild anpasst.
  • Um den Neigungswinkel dieser Art von Schirm zu erhalten, ist der Projektor so eingerichtet, dass der Projektor einen Entfernungsmessungssensor umfasst. Dann projiziert der Projektor als erstes Lichtdiagramme, wo hell/dunkel-Abschnitte in Linien gezeichnet sind auf den Schirm und der Entfernungsmessungssensor empfängt das Reflexionslicht von zwei Entfernungsmessfenstern der Diagramme, welche projiziert werden. Als Nächstes misst der Projektor jeweils die Phasendifferenz für Fälle, bei denen Reflexionsschlicht von den beiden Entfernungsmessfenstern empfangen wird und misst den Abstand zu einer Vielzahl von Entfernungsmesspunkten auf dem Schirm, basierend auf der jeweils erhaltenen Phasendifferenz. Wenn Entfernungsmessdaten bezüglich einer Vielzahl von Entfernungsmesspunkten auf dem Schirm erhalten werden können, kann der Neigungswinkel des Schirms basierend auf den Entfernungsmessdaten erhalten werden.
  • Jedoch können, mit einer Neigungswinkel-Erfassungsvorrichtung, welche diese Art von Entfernungsmessungssensor verwendet, auch wenn die Entfernungen bezüglich der Vielzahl von Entfernungsmesspunkten auf dem Schirm gemessen werden, sich die ermittelten Entfernungen verändern, wenn die Projektionsposition der Diagramme leicht versetzt ist. Deshalb kann, auch wenn der Neigungswinkel der Schirmoberfläche durch die ermittelte Entfernung erhalten wird, der Neigungswinkel nicht mit großer Genauigkeit erhalten werden.
  • Das Dokument JP 2003 204495 A legt eine Neigungswinkel-Erfassungsvorrichtung offen, die eine Diagrammzeicheneinheit, welche ein Musterdiagramm zeichnet durch sequenzielle Projektion des Projektionslichts des Musterdiagramms auf eine Projektionsfläche unter Verschiebung der Muster, Sensoreinheiten, welche eine Vielzahl von Lichtempfangseinheiten umfassen, die so angeordnet sind, dass sie vorgegebene Abstände zueinander besitzen, die eine Mittellinie als das Zentrum festsetzen und sequenziell das Reflexionslicht von den Musterdiagrammen empfängt, die auf die Projektionsfläche bei der Vielzahl von Lichtempfangseinheiten gezeichnet werden und eine Neigungswinkel-Ermittlungseinheit umfasst, wobei die Sensoreinheiten sequenziell die mittlere Entfernung zwischen dem Projektionspunkt des Projektionslichts und den Musterdiagrammen erhalten, und den Neigungswinkel der Projektionsfläche basierend auf der erhaltenen mittleren Entfernung ermitteln.
  • Offenlegung der Erfindung
  • Die vorliegende Erfindung wurde unter Betrachtung des Obigen gemacht und ein Ziel der vorliegenden Erfindung ist es eine Neigungswinkel-Erfassungsvorrichtung und ein Neigungswinkel-Erfassungsverfahren zu liefern, die genau den Neigungswinkel der Projektionsfläche ermitteln können.
  • Um das obige Ziel zu erreichen umfasst eine Neigungswinkel-Erfassungsvorrichtung in Übereinstimmung mit einem ersten Gesichtspunkt der vorliegenden Erfindung:
    eine Diagrammzeicheneinheit (23), die Diagramme sequenzieller Muster gleichen Abstandes zeichnet, die Muster haben, bei denen helle Abschnitte sequenziell in gleichen Abständen angeordnet werden, indem die Diagramme sequenzieller Muster gleichen Abstandes sequenziell auf eine Projektionsfläche projiziert werden, wobei die Muster verschoben werden;
    Sensoreinheiten (31A, 31B), die eine Vielzahl von Lichtempfangseinheiten umfassen, die so angeordnet sind, dass sie vorgegebene Abstände zueinander haben, wobei eine Mittellinie als die Mitte festgelegt wird, und die sequenziell das Reflexionslicht der Diagramme sequenzieller Muster gleichen Abstandes, die auf die Projektionsfläche gezeichnet werden, an der Vielzahl von Lichtempfangseinheiten empfangen; und
    Neigungswinkel-Ermittlungseinheiten (12A, 12B), wobei die Sensoreinheiten (31A, 31B) sequenziell den mittleren Abstand zu einem Punkt der Projektionsfläche, auf die Diagramme sequenzieller Muster gleichen Abstandessequenziell projiziert werden, auf Basis einer Vielzahl von Phasendifferenzen zu der Zeit ermitteln, zu der das Reflexionslicht der Diagramme sequenzieller Muster gleichen Abstandes empfangen wird, wobei die Summe jedes Versatzmaßes zwischen der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit ein paralleles Licht empfängt, und der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit das Reflexionslicht des Diagramms von Muster gleichen Abstandes empfängt, als die Phasendifferenz festgelegt wird, und sie den Neigungswinkel der Projektionsfläche auf Basis des ermittelten durchschnittlichen Abstandes ermitteln.
  • Ein Neigungswinkel-Erfassungsverfahren in Übereinstimmung mit einem zweiten Gesichtspunkt der vorliegenden Erfindung umfasst:
    einen Zeichenschritt des Zeichnens eines Diagramms sequenzieller Muster gleichen Abstandes, das Muster besitzt, bei denen helle Abschnitte sequenziell in gleichen Abständen angeordnet sind, indem das Projektionslicht der Diagramme sequenzieller Muster gleichen Abstandes sequenziell auf eine Projektionsfläche projiziert wird und gleichzeitig die Muster verschoben werden;
    einen Lichtempfangsschritt des sequenziellen Empfangens von Reflexionslicht von den Diagrammen sequenzieller Muster gleichen Abstandes, die auf die Projektionsfläche ge zeichnet werden, an Empfangseinheiten die mit vorgegebenen Abständen zueinander angeordnet sind; und
    einen Neigungs-Ermittlungsschritt des sequenziellen Ermittelns des durchschnittlichen Abstandes zwischen dem Projektionspunkt des Projektionslichts und der Diagramme sequenzieller Muster gleichen Abstandes, auf Basis einer Vielzahl von Phasendifferenzen zu der Zeit, zu der das Reflexionslicht des Diagramms sequenzieller Muster gleichen Abstandes empfangen wird, wobei die Summe jedes Versatzmaßes zwischen der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit ein paralleles Licht empfängt, und der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit das Reflexionslicht des Diagramms sequenzieller Muster gleichen Abstandes empfängt, als die Phasendifferenz eingestellt wird und des Ermittelns des Neigungswinkels der Projektionsfläche auf Basis des ermittelten durchschnittlichen Abstandes.
  • In Übereinstimmung mit der vorliegenden Erfindung können eine Neigungswinkel-Erfassungsvorrichtung und ein Neigungswinkel-Erfassungsverfahren geliefert werden, die genau den Neigungswinkel der Projektionsfläche ermitteln können.
  • Kurze Beschreibung der Zeichnungen
  • Dieses Ziel und andere Ziele und Vorteile der vorliegenden Erfindung werden deutlicher werden nach dem Lesen der folgenden detaillierten Beschreibung und der beiliegenden Zeichnungen, bei denen:
  • 1 ein Blockdiagramm ist, welches eine Struktur eines Projektors in Übereinstimmung mit der ersten Ausführung der vorliegenden Erfindung zeigt;
  • 2 ein Diagramm ist, das die Funktion einer Trapezkorrektureinheit zeigt, die in 1 gezeigt ist, wobei (1) ein Eingabebild anzeigt, (2) ein Projektionsbild anzeigt und (3) ein invers transformiertes Bild anzeigt;
  • 3 ein Diagramm ist, welches horizontale Diagramme zeigt, welche eine Erzeugungseinheit für horizontale Diagramme erzeugt, die in 1 gezeigt ist;
  • 4 ein Diagramm ist, das Fehlerbereiche zeigt für einen Fall, bei dem eine in 1 gezeigte Sensorsteuerung eine durchschnittliche Phasendifferenz ermittelt;
  • 5 ein Diagramm ist, welches eine Positionsbeziehung des Projektors und des Schirms zeigt, die in 1 gezeigt sind;
  • 6 ein Diagramm ist, das eine Anbringungsposition des Projektors und des Entfernungsmesssensors zeigt, die in 1 gezeigt sind, wobei (1) eine Vorderseitenansicht des Projektors ist und (2) eine Seitenansicht des Projektors ist;
  • 7 ein Flussdiagramm ist, welches die Funktion eines in 1 gezeigten Phasendifferenzwinkelsensors zeigt;
  • 8 ein Diagramm ist, das Fehlerbereiche in einem Fall zeigt, bei dem die in 1 gezeigte Sensorsteuerung, welche den Versatzbetrag der in 3 gezeigten Diagramme verändert die durchschnittliche Phasendifferenz ermittelt;
  • 9 ein Diagramm ist, das Fehlerbereiche in einem Fall zeigt, bei dem die in 1 gezeigte Sensorsteuerung, welche den Versatzbetrag der in 3 gezeigten Diagramme verändert die durchschnittliche Phasendifferenz ermittelt;
  • 10 ein Diagramm zur Beschreibung der Beziehung zwischen der Entfernung, die zu messen ist und der Phasendifferenz ist;
  • 11 ein Diagramm zur Beschreibung einer fehlerhaften Entfernungsmessung ist, in einem Fall, bei dem eine Voraus-Entfernungsmessung nicht ausgeführt würde bei der zweiten Ausführung der vorliegenden Erfindung;
  • 12 ein Diagramm ist, welches drei nicht sequenzielle Diagramme zeigt, die bei der Voraus-Entfernungsmessung verwendet werden;
  • 13 ein Diagramm ist, das einen lokalen Maximalwert der Korrelationsfunktion zeigt, in einem Fall, bei dem die Voraus-Entfernungsmessung ausgeführt wird;
  • 14 ein Flussdiagramm ist, das die Funktion des Projektors in Übereinstimmung mit der zweiten Ausführung der vorliegenden Erfindung zeigt;
  • 15 ein Diagramm ist, das die Beziehung zwischen dem lokalen Maximalwert der Korrelationsfunktion und dem Suchbereich zeigt, in dem Fall, bei dem die Voraus-Entfernungsmessung ausgeführt wird;
  • 16 ein Diagramm ist, das die Beziehung zwischen dem lokalen Maximalwert der Korrelationsfunktion und dem Suchbereich zeigt, in dem Fall, bei dem die Voraus-Entfernungsmessung ausgeführt wird;
  • 17 ein Diagramm ist zur Beschreibung einer Anwendung der zweiten Ausführung;
  • 18 ein Diagramm ist, das die Diagramme sequenziell gestreifter Muster gleichen Abstandes die zweimal geteilt sind zeigt, welche bei einer Voraus-Entfernungsmessung verwendet werden;
  • 19 ein Diagramm ist, das die Beziehung zwischen dem lokalen Maximalwert der Korrelationsfunktion und dem Suchbereich zeigt, in einem Fall, bei dem die Voraus-Entfernungsmessung ausgeführt wird unter Verwendung des in 18 gezeigten Diagramms;
  • 20 ein Diagramm ist, das Diagramme des Projektors in Übereinstimmung mit der dritten Ausführung zeigt;
  • 21 ein Diagramm ist, das die Beziehung zwischen dem lokalen Maximalwert der Korrelationsfunktion, der ein gemessenes Ergebnis ist und dem Suchbereich zeigt, bei dem in 20 gezeigten Projektor, und
  • 22 ein Diagramm zur Beschreibung der Funktion des Entfernungsmesssensors ist
  • Beste Art und Weise zur Ausführung der Erfindung
  • (Erste Ausführung)
  • Eine Struktur eines Projektors in Übereinstimmung mit einer ersten Ausführung der vorliegenden Erfindung ist in 1 gezeigt. Ein Projektor 1 in Übereinstimmung mit der ersten Ausführung der vorliegenden Erfindung umfasst eine Projektorzeicheneinheit 11, Phasendifferenzwinkelsensoren 12A und 12B und eine Projektorsteuereinheit 13.
  • Die Projektorzeicheneinheit 11 dient zur Projektion eines Projektionsbildes basierend auf einem Diagramm oder einem Eingabebildsignal auf einen Schirm 2 und wird aufgebaut, indem es einen Festwertmultiplikator 21, eine Trapezkorrektureinheit 22, eine Signalauswahleinheit 23, eine Projektionslicht-Umwandlungseinheit 24, eine Einheit mit einem optischen Mechanismus 25, eine Einheit 26, die ein horizontales Diagramm erzeugt und eine Einheit 27, die ein vertikales Diagramm erzeugt umfasst.
  • Der Festwertmultiplikator 21 passt die Auflösung des Eingabebildsignals an.
  • Die Trapezkorrektureinheit 22 führt eine Trapezkorrektur bezüglich des Bildsignals durch, dessen Auflösung der Festwertmultiplikator 21 angepasst hat.
  • Die Trapezkorrektureinheit 22 setzt auf eine innere Seite eines Projektionsbildes, das auf den Schirm 2 projiziert wird bevor es angepasst wird, eine Position und eine Form des Projektionsbildes, nachdem es angepasst wurde basierend auf den Neigungswinkeln θH und θV des Schirms 2. Dann führt die Trapezkorrektureinheit 22 eine Trapezkorrektur durch projizierende Umwandlung des Bildsignals zeitsequenziell durch. Der Neigungswinkel θH ist ein Neigungswinkel in einer horizontalen Richtung des Schirms 2 in Richtung der optischen Achse des Projektionslichts und der Neigungswinkel θV ist ein Neigungswinkel in einer vertikalen Richtung des Schirms 2.
  • Die Trapezkorrektur, die durch die Trapezkorrektureinheit 22 ausgeführt wird, wird nun beschrieben.
  • Man nimmt an, dass ein Bildsignal eines Bildes von einem Viereck abcd, wie es in 2(1) gezeigt ist geliefert wird und weil der Schirm 2 mit Neigungswinkel θH und θV in der Richtung der optischen Achse des Projektionslichts geneigt ist, wird das Projekti onsbild auf dem Schirm 2 ein Viereck a'b'c'd', wie in 2(2) gezeigt ist. Die Trapezkorrektureinheit 22 schneidet ein Viereck p'q'r's' so aus, dass es im Inneren des Vierecks a'b'c'd' platziert ist. Die Trapezkorrektureinheit 22 transformiert das Viereck p'q'r's' invers und erzeugt ein invers transformiertes Bild pqrs, wie es in 2(3) gezeigt ist. Durch Projektion des invers transformierten Bildes pqrs auf den Schirm 2 wird ein Projektionsbild ohne Verzerrung auf dem Schirm 2 dargestellt.
  • Die Signalauswahleinheit 23 wählt und gibt ein horizontales Diagramm, welches die Einheit 26, die das horizontale Diagramm erzeugt herstellt oder das vertikale Diagramm, welches die Einheit 27, die ein vertikales Diagramm erzeugt herstellt und das Projektionsbild, welches die Trapezkorrektureinheit 22 erzeugt aus.
  • Die Projektionslicht-Umwandlungsvorrichtung 24 wandelt das Bildsignal, welches die Signalauswahleinheit 23 auswählt und ausgibt zu einem Projektionslicht um.
  • Der optische Mechanismus 25 führt eine Fokussierungssteuerung durch, so dass ein Bild auf dem Schirm 2 abgebildet wird und projiziert das Projektionslicht, welches die Projektionslicht-Umwandlungsvorrichtung 24 umwandelt auf dem Schirm 2.
  • Die Erzeugungseinheit 26 für ein horizontales Diagramm erzeugt die Diagramme #0 bis #7, die auf den Schirm 2 projiziert werden, wie in 3 gezeigt ist.
  • Diese horizontalen Diagramme werden projiziert, wenn man den Abstand zu einer Vielzahl von Abstandsmesspunkten misst, die sich in einer horizontalen Richtung zu einer Horizontfläche befinden.
  • In 3 repräsentieren in jedem Diagramm die weißen Vierecke die hellen Abschnitte der Diagramme und die schraffierten Abschnitte repräsentieren den Hintergrund und die dunklen Abschnitte der Diagramme. Der Abstand zwischen dem Zentrum des hellen Abschnitts jedes Diagramms zu dem Zentrum des hellen Abschnitts, der diesem hellen Abschnitt am nächsten liegt beträgt eine Teilung. Diese Diagrammteilung wird festgelegt basierend auf der Größe der Diagramme #0 bis #7, die auf den Schirm 2 projiziert werden und der Auflösung etc. von einem Entfernungsmessungssensor 31A. Die beiden Entfernungsmessungsfenster, die in einem Rahmen in 3 gezeigt sind, zeigen das Gebiet an, in dem der Phasendifferenzwinkelsensor 12A eine Entfernungsmessung in einer Richtung von links nach rechts bei dem Projektionsbild durchführt.
  • Die Muster von jedem Diagramm #0 bis #7 werden in kleinen Stufen verschoben. Diese Arten von Diagrammen #0 bis #7 werden sequenziell auf den Schirm 2 projiziert, um die Fehlerbereichkomponenten der Diagramme aufzuheben, und die Genauigkeit der Neigungswinkel θA und θH zu erhöhen.
  • Der Grund dafür wird beschrieben.
  • Der Versatzbetrag (Verschiebungsbetrag) von jedem Diagramm kann ausgedrückt werden durch die Diagrammteilung (Iterationsintervall). Wenn eine Teilung von jedem Diagramm 360 Grad beträgt und die Anzahl an Diagrammen acht beträgt, wie in 3 gezeigt ist, ist der Versatzbetrag von jedem Diagramm #0 bis #7 360/8 = 45 Grad bei einer gleichmäßigen Teilung.
  • Wenn man den Versatz von jedem Diagramm durch ein Maß ausdrückt, wobei man Diagramm #0 als einen Standard setzt, so ist das Maß jedes Versatzes der Diagramme #0 bis #7 0 Grad, 45 Grad, 90 Grad, 135 Grad, 180 Grad, 225 Grad, 270 Grad und 315 Grad.
  • Die in 4(1) gezeigte Fehlerbereichkomponente zerfällt genähert in die Fehlerbereichkomponente A aus 4(2) und die Fehlerbereichkomponente B, die in 4(3) gezeigt ist. Dieses Ergebnis wird als ein Ergebnis eines Experimentes erhalten.
  • Eine Phasendifferenz-Fehlerbereichkomponente e wird nämlich durch Formel 2 ausgedrückt.
  • [Formel 2]
    • e = a·sin(θ + ϑ01) + b·sin(ϑ + θ02)
  • Der erste Term repräsentiert jedoch die Fehlerbereichkomponente A und der zweite Term repräsentiert die Fehlerbereichkomponente B, θ ist ein Ausmaß an Versatz mit Diagramm #0 als einem Standard, θ01 und θ02 sind Anfangsversetzungen des Diagramms #0 und a und b sind konstante Zahlen, die durch die Diagrammteilung und optischen Eigenschaften etc. bestimmt werden.
  • Wenn das Diagramm so ausgewählt wird, dass die Formelbeziehung, welche in Formel 3 gezeigt ist gilt, kann der Fehlerbereich kleiner gemacht werden.
  • [Formel 3]
    Figure 00110001
  • In dieser Hinsicht ist n die Anzahl an Diagrammen und ein Vielfaches der Zahl 2, gleich oder größer als 4, k ist die Diagrammzahl 0 bis n – 1 und θk ist das Ausmaß an Versatz, wenn Diagramm #0 von Diagramm #k der Standard ist.
  • Durch eine Auswahl des Diagramm auf diese Weise werden die Fehlerbereiche der Diagramme #0 bis #7 aufgehoben durch Mittlung sowohl der Fehlerbereich, der in dem gleichen Zyklus wie dem Zyklus des Versatzes auftritt als auch der Fehlerbereich, der bei dem halben Zyklus des Versatzes auftritt. Wenn der Fehlerbereich der Diagramme #0 bis #7 kleiner wird, wird die Genauigkeit der Neigungswinkel θH und θV größer.
  • Kehrt man zu 1 zurück, erzeugt die Einheit 27, die ein vertikales Diagramm erzeugt acht vertikale Diagramme, die auf den Schirm 2 projiziert werden, wie in 3 gezeigt ist.
  • Diese vertikalen Diagramme werden projiziert, wenn man den Abstand zu einer Vielzahl von Entfernungsmesspunkten misst, die sich in einer vertikalen Richtung bezüglich der Horizontfläche befinden.
  • Jeder der Phasendifferenzwinkelsensoren 12A und 12B misst den Abstand zu einer Vielzahl von Entfernungsmesspunkten, die sich in einer vertikalen Richtung und in einer horizontalen Richtung bezüglich einer Maßlinie auf dem Schirm 2 befinden und ermittelt die Neigungswinkel θA und θB auf dem Schirm 2 basierend auf der gemessenen Entfernung. Wie 5 gezeigt sind die Neigungswinkel θA und θB die Neigungswinkel eines idealen Schirms, die eine Zentrallinie CO (eine Linie, welche die Punkte gleichen Abstandes von jedem Zentrum einer Linse 51a und einer Linse 51b, gezeigt in 22 verbindet) in einer Richtung des Schirms 2 der Phasendifferenzwinkelsensoren 12A und 12B (Entfernungsmessungssensoren 31A und 31B) und der aktuelle Schirm 2 (Linie, welche die Messpunkte P1 und P2 auf dem Schirm 2 verbindet) bilden.
  • Der Phasendifferenzwinkelsensor 12A umfasst einen Entfernungsmessungssensor 31A und eine Sensorsteuerung 32A. Der Phasendifferenzwinkelsensor 12B umfasst einen Entfernungsmessungssensor 31B und eine Sensorsteuerung 32B.
  • Die Entfernungsmessungssensoren 31A und 31B empfangen das Reflexionslicht von den Entfernungsmessfenstern von Schirm 2 und werden üblicherweise, wie in 22 gezeigt für eine Messung der Entfernung zu den Entfernungsmessungspunkten auf dem Schirm 2 verwendet. Diese Entfernungsmessungssensoren 31A und 31B sind Sensoren eines Phasendifferenzformats, das Mehrfachentfernungs-Messfunktionen besitzt, die Entfernungen eine Vielzahl von Richtungen messen können.
  • In dem Fall, bei dem die Signalauswahleinheit 23 ein horizontales Diagramm, wie in 5 gezeigt auswählt, empfangen die Entfernungsmessungssensoren 31A und 31B Reflexionslicht von den Mittelpunkten P1 und P2 von zwei Entfernungsmessungsfenstern auf dem Schirm 2, die rechts und links mit einem Winkel θw in Richtung der Zentrallinie CO der Entfernungsmessungssensoren 31A und 31B positioniert sind.
  • In 5 ist die mit S1 bezeichnete Fläche eine ideale Schirmfläche welche die Mittellinie CO der Entfernungsmessungssensoren 31A und 31B vertikal durchdringt und θs ist der Neigungswinkel des Schirms 2 zu der idealen Schirmfläche. R und L zeigen jeweils den Abstand zwischen dem Projektor 1 und den Entfernungsmessungspunkten P1 und P2 in dem Entfernungsmessungsfenster an. Winkel θw zeigt den Winkel zwischen der Mittellinie CO der Entfernungsmessungssensoren 31A und 31B und jedem der Entfernungsmessungspunkte P1 und P2 an und θN zeigt den Winkel entsprechend der Breite von jedem Entfernungsmessungsfenster, das in 3 gezeigt ist an.
  • Betrachtet man den Entfernungsmessungssensor 31A wird, wenn der Entfernungsmessungssensor 31A Reflexionslicht von dem Mittelpunkt P1 des rechten Entfernungsmessungsfenster auf Schirm 2 empfängt, das Bild des Diagramms in dem rechten Entfernungsmessungsfenster, das in 3 gezeigt wird auf den Lichtsensoranordnungen 52a und 52b, die in 22 gezeigt sind ausgebildet.
  • Wie in 6(1) gezeigt, sind die Entfernungsmessungssensoren 31A und 31B nahe einer Projektionslinse 28 platziert, so dass die Mittellinien Ca und Cb (Linien, welche die Mittelpunkte der beiden Lichtsensoranordnungen 52a und 52b verbinden) senkrecht aufeinander stehen.
  • Wie in 6(2) gezeigt, wird ein Elevationswinkel in Richtung einer optischen Achse des Projektionslichts des Projektors 1 der Entfernungsmessungssensoren 31A und 31B als θp angenommenen. Der Elevationswinkel θp ist nicht auf einen positiven Wert beschränkt und kann auch ein negativer Wert oder 0 sein.
  • In einem Fall, bei dem der Elevationswinkel θp gleich Null ist, stimmen die optische Ach se der Projektionslinse 28 und die Mittellinie CO der Entfernungsmessungssensoren 31A und 31B überein und die in 5 gezeigte S1 wird eine ideale Schirmfläche, die vertikal zu der Mittellinie der Projektionslinse 28 ist In dem Fall jedoch, bei dem der Ele vationswinkel θp nicht gleich Null ist, stimmen die ideale Schirmfläche der Projektions linse 28 und die ideale Schirmfläche der Entfernungsmessungssensoren 31A und 31B nicht überein.
  • Jeder der Entfernungsmessungssensoren 31A und 31B liefert das empfangene Licht an die Sensorsteuerungen und 32A und 32B als Sensordaten.
  • Die Sensorsteuerung 32A steuert die Einheit 26, die ein horizontales Diagramm erzeugt, die Signalauswahleinheit 23 und den Entfernungsmessungssensor 31A, um den Neigungswinkel θA zu ermitteln. Die Sensorsteuerung 32B steuert die Einheit 27, die ein vertikales Diagramm erzeugt, die Signalauswahleinheit 23 und den Entfernungsmessungssensor 31B, um den Neigungswinkel θB zu ermitteln.
  • In dem Fall, bei dem die Sensorsteuerung 32A den Neigungswinkel θA ermittelt, gibt die Sensorsteuerung 32A sequenziell horizontale Diagramme #0 bis #7 als horizontale Diagrammzeicheninstruktionen zum Zeichnen der horizontalen Diagramme an die Signalauswahleinheit 23 aus. Dann gibt die Sensorsteuerung 32A ein Sensorsteuersignal an den Entfernungsmessungssensor 31A aus, damit der Entfernungsmessungssensor 31A eine Sensoroperation ausführt und erhält acht Sensordaten von dem Entfernungsmessungssensor 31A, in einem Fall, bei dem Reflexionslicht von den Diagrammen #0 bis #7 empfangen wird.
  • Die Sensorsteuerung 32A ermittelt den Korrelationswert von zwei Datenfolgen der linken und rechten Lichtsensoranordnungen 52a und 52b des Entfernungsmessungssensors 31A, wie in 22 gezeigt ist, und erhält jede Phasendifferenz durch Ermittlung des lokalen Maximalwerts. Die Sensorsteuerung 32A ermittelt die mittlere Phasendifferenz durch Mittlung der acht Phasendifferenzen und ermittelt den mittleren Abstand zu den Punkten P1 und P2 basierend auf der erhaltenen mittleren Phasendifferenz.
  • Die Entfernung zu den Entfernungsmesspunkten wird durch die mittlere Phasendifferenz unter Verwendung von Formel 4 erhalten.
  • [Formel 4]
    • L = f1(AL) = K1/(AL + K2)
    • R = f2(AR) = K3/(AR + K4)
  • Hinsichtlich dieser Formel:
    K1, K2, K3 und K4 sind konstante Werte;
    L ist eine Entfernung zu Punkt P2 des linksseitigen Entfernungsmessungsfensters;
    R ist eine Entfernung zu Punkt P1 des rechtsseitigen Entfernungsmessungsfensters;
    AL ist die mittlere Phasendifferenz (linke Seite); und
    AR ist die mittlere Phasendifferenz (rechte Seite).
  • Ferner, wie in 5 gezeigt, ermittelt die Sensorsteuerung 32A den Winkel θs der idealen Schirmfläche und des aktuellen Schirms 2 durch Verwendung von Formel 5.
  • [Formel 5]
    Figure 00150001
  • Die Sensorsteuerung 32A liefert den erhaltenen Winkel θs als den Neigungswinkel θA an die Projektorsteuereinheit 13.
  • Auf die gleiche Weise wie die Sensorsteuerung 32A gibt, für den Fall, bei dem die Sensorsteuerung 32B den Neigungswinkel θB ermittelt, die Sensorsteuerung 32B sequenziell vertikale Diagramme #0 bis #7 als vertikale Diagrammzeicheninstruktionen zum Zeichnen der horizontalen Diagramme an die Signalauswahleinheit 23 aus. Dann erhält die Sensorsteuerung 32B acht Sensordaten von dem Entfernungsmessungssensor 31B und ermittelt auf die gleiche Weise wie die Sensorsteuerung 32A den Winkel 8s. Die Sensorsteuerung 32B liefert den erhaltenen Winkel θs als den Neigungswinkel θB an die Projektorsteuereinheit 13.
  • Die Projektorsteuereinheit 13 steuert den Projektor 1 und ermittelt die Neigungswinkel θH und θV basierend auf den Neigungswinkeln θA und θB, die jeweils von den Sensorsteuerungen 32A und 32B geliefert werden. In einem Fall, bei dem die Projektorsteuereinheit 13 die Neigungswinkel θH und θV ermittelt, gibt die Projektorsteuereinheit 13 eine Sensoroperations-Startanweisung jeweils an die Sensorsteuerungen 32A und 32B aus.
  • Die Neigungswinkel θH und θV können erhalten werden durch ein Ersetzen der Neigungswinkel θH und θV durch die Neigungswinkel θA und θB, basierend auf der Bezugsformel, welche in Formel 6 gezeigt ist
  • [Formel 6]
    • θH = arctan(tanθA·cosθB)
    • θV = θB – θp
  • Dann liefert die Projektorsteuereinheit 13 die erhaltenen Neigungswinkel θH und θV des Schirms 2 an die Trapezkorrektureinheit 22.
  • Als Nächstes wird die Funktion des Projektors 1 in Übereinstimmung mit der ersten Ausführung beschrieben.
  • In dem Fall, bei dem die Projektorsteuereinheit 13 die Neigungswinkel θH und θV des Schirms 2 erhält, sendet die Projektorsteuereinheit 13 eine Sensoroperations-Startanweisung zu jeder Sensorsteuerung 32A und 32B.
  • Wenn die Sensorsteuerungen 32A und 32B die Sensoroperations-Startanweisung von der Projektorsteuereinheit 13 empfangen, führt jeder der Phasendifferenzwinkelsensoren 12A und 12B eine Verarbeitung zur Ermittlung der Neigungswinkel θA und θB durch.
  • Als erstes ermittelt die Sensorsteuerung 32A den Neigungswinkel θA basierend auf dem in 7 gezeigten Flussdiagramm. Die Phasendifferenz wird jeweils, wenn man die Abstände zu den Punkten P2 und P1 misst als BL und BR gesetzt und die Sensorsteuerung 32A setzt die Gesamtwerte SL und SR der Phasendifferenzen BL und BR auf Null (Schritt S11).
  • Die Sensorsteuerung 32A setzt die Zählnummer n auf Null (Schritt S12). Die Zählnummer n zeigt an, wie oft die Entfernung zu dem Diagramm auf dem Schirm 2 gemessen wird.
  • Die Sensorsteuerung 32A gibt eine Zeichenanweisung für horizontal Diagramme an die Signalauswahleinheit 23 aus, um das Diagramm #n zu projizieren (Schritt S13). Die Signalauswahleinheit 23 empfängt die Anweisung von der Sensorsteuerung 32A und wählt das Diagramm #n aus, welches die Einheit 26, die ein horizontales Diagramm erzeugt erstellt und gibt es aus.
  • Die Projektionslicht-Umwandlungsvorrichtung 24 wandelt das Diagramm #n, welches die Signalauswahleinheit 23 auswählt und ausgibt in ein Diagrammprojektionslicht um.
  • Die Einheit 25 des optischen Mechanismus führt eine Brennweitensteuerung etc. durch. Das Diagrammprojektionslicht des Diagramms #n, welches die Projektionslicht-Umwandlungsvorrichtung 24 umwandelt wird in Richtung des Schirms 2 projiziert.
  • Die Sensorsteuerung 32A steuert den Entfernungsmessungssensor 31A, um eine Entfernungsmessung auszuführen (Schritt S14). Der Entfernungsmessungssensor 31A misst die Entfernungen L, R zu den gemessenen Entfernungsmesspunkten P2 und P1 und liefert die Sensordaten an die Sensorsteuerung 32A.
  • Die Sensorsteuerung 32A erhält die Entfernungen L und R von dem Entfernungsmessungssensor 31A (Schritt S15).
  • Die Sensorsteuerung 32A ermittelt die Phasendifferenzen BL und BR basierend auf den erhaltenen Entfernungen L und R (Schritt S16).
  • Die Sensorsteuerung 32A addiert die Phasendifferenzen BL und BR zu den Phasendifferenz-Gesamtwerten SL und SR und erhält die addierten Werte wiederum als neue Phasendifferenz-Gesamtwerte SL und SR (Schritt S17).
  • Die Sensorsteuerung 32A erhöht die Zählnummer n um 1 (Schritt S18).
  • Die Sensorsteuerung 32A ermittelt, ob die Zählnummer n kleiner als 8 ist (n < 8) (Schritt S19).
  • In dem Fall, bei dem ermittelt wird, dass die Zählnummer n kleiner als 8 ist, (Schritt S19, Ja) führt die Sensorsteuerung 32A noch einmal die Verarbeitung der Schritte S13 bis S18 aus.
  • Dadurch, dass die Sensorsteuerung 32A sequenziell die Verarbeitung der Schritte S13 bis S18 durchführt, bestimmt die Sensorsteuerung 32A, dass die Zählnummer nicht kleiner als 8 ist, wenn die Zählnummer n 8 wird (Schritt S19, Nein).
  • In dem Fall, bei dem ermittelt wird, dass die Zählnummer n nicht kleiner als 8 ist, teilt die Sensorsteuerung 32A jeweils die Phasendifferenzwerte SL und SR durch acht und erhält die mittleren Phasendifferenzen AL und AR als die Quotienten davon (Schritt S20).
  • Die Sensorsteuerung 32A ermittelt die Entfernungen L und R in Übereinstimmung mit Formel 4 (Schritt S21).
  • Die Sensorsteuerung 32A ermittelt den Winkel θs in Übereinstimmung mit Formel 5 (Schritt S22).
  • Die Sensorsteuerung 32A liefert den erhaltenen Winkel θs als den Neigungswinkel θA an die Projektorsteuereinheit 13 und beendet diese Verarbeitung.
  • Die Sensorsteuerung 32B führt die selbe Verarbeitung wie die Sensorsteuerung 32A aus. Die Sensorsteuerung 32B nämlich steuert die Signalauswahleinheit 23, steuert den Entfernungsmessungssensor 31B und ermittelt den Winkel θs basierend auf den Sensordaten, die sie von dem Entfernungsmessungssensor 31B erhalten hat. Dann liefert die Sensorsteuerung 32B θs als den Neigungswinkel θB an die Projektorsteuereinheit 13.
  • Die Projektorsteuereinheit 13 ersetzt die Neigungswinkel θA und θB die jeweils von den Sensorsteuerungen 32A und 32B geliefert werden durch die Neigungswinkel θH und θV in Übereinstimmung mit der Bezugsformel 6.
  • Weil die Neigungswinkel θH und θV, die durch die Projektorsteuereinheit 13 erhalten werden Werte sind, die basierend auf mittleren Phasendifferenzen ermittelt werden indem man die Entfernungen zu den Diagrammen #0 bis #7 misst wird der Mittelwert des Fehlerbereichs e näherungsweise Null. Deshalb wird die Genauigkeit der Neigungswinkel θH und θV größer.
  • Die Projektorsteuereinheit 13 liefert die Neigungswinkel θN und θV des Schirms 2 zu der Trapezkorrektureinheit 22 der Projektorzeicheneinheit 11.
  • Die Trapezkorrektureinheit 22 führt eine Trapezkorrektur aus basierend auf den Neigungswinkeln θH und θV des Schirms 2. In dem Fall, bei dem die Signalauswahleinheit 23 das Ausgabesignal der Trapezkorrektureinheit 22 auswählt, wandelt die Projektionslicht-Umwandlungseinheit 24 das durch die Trapezkorrektureinheit 22 angepasste Bildsignal in einem Projektionslicht um und projiziert das Projektionslicht auf den Schirm 2 über die Einheit 25 des optischen Mechanismus. Ein Projektionsbild, das genau angepasst ist, wird auf dem Schirm 2 abgebildet.
  • Wie oben beschrieben projiziert, in Übereinstimmung mit der ersten Ausführung der vorliegenden Erfindung in einem Fall, bei dem die Neigungswinkel θH und θV des Schirms 2 ermittelt werden sollen die Projektionslicht-Umwandlungsvorrichtung 24 jeweils die acht Diagramme, welche die Einheit 26, die ein horizontales Diagramm erzeugt und die Einheit 27, die ein vertikales Diagramm erzeugt erstellen auf den Schirm 2. Die Sensorsteuerungen 32A und 32B ermitteln die mittlere Phasendifferenz, basierend auf den Sensordaten der Entfernungsmessungssensoren 31A und 31B und ermitteln die Entfernung zu den Entfernungsmesspunkten P1 und P2 von den Entfernungsmessungsfenstern auf dem Schirm 2 basierend auf der ermittelten mittleren Phasendifferenz.
  • Deshalb wird die Phasendifferenz-Fehlerbereichkomponente der ermittelten mittleren Phasendifferenz gleich Null, dadurch dass sie aufgehoben wird, und die Entfernung zu den Entfernungsmesspunkten P1 und P2 kann genau gemessen werden. Basierend auf den durch diese Weise ermittelten Entfernungen können hochgenaue Neigungswinkel θH und θV des Schirms 2 erhalten werden.
  • Weil das tatsächliche Diagramm durch den Projektor 1 projiziert wird, gibt es Fälle, bei denen eine Auswahl des Versatzes von jedem Diagramm, wobei das Diagramm #0 der Standard ist, einer Einschränkung unterworfen ist. Bei einem digitalen Projektor nämlich, der einen LCD oder DMD (Digital Micromirror Device; Handelsname) verwendet, gibt es Fälle, bei denen die Diagramme nicht um 45 Grad versetzt werden können, weil die Diagramme nur in Pixeleinheiten angezeigt werden können.
  • In diesem Fall macht man, statt einer Verwendung von acht Werten, die um 45 Grad in jedem Diagramm versetzt sind die Neigungswinkel θH und θV genauer, indem man zwei Sätze von vier Werten geteilt durch 90 Grad auswählt.
  • Zum Beispiel wird der Versatzbetrag von jedem Diagramm #0 bis #7, wobei das Diagramm #0 der Standard ist auf (Grad, 30 Grad, 90 Grad, 120 Grad, 180 Grad, 210 Grad, 270 Grad und 300 Grad gesetzt.
  • Indem man den Versatzbetrag der Diagramme auf diese Weise festsetzt bedeutet dies, dass ein Satz von 0 Grad, 90 Grad, 180 Grad und 210 Grad und ein Satz von 30 Grad, 120 Grad, 210 Grad und 300 Grad geliefert wird.
  • Die Anzahl an Diagrammen kann sechs sein. In einem Fall, bei dem die Anzahl an Diagrammen sechs ist, wird der Versatzbetrag von jedem Diagramm auf 0 Grad, 60 Grad, 120 Grad, 180 Grad, 240 Grad um 1300 Grad als die Diagramme #0 bis #5 gesetzt, wobei Diagramm #0 der Standard ist.
  • Wenn nämlich Formel 4 verallgemeinert wird, kann der Fehlerbereich ek durch Formel 7 ausgedrückt werden.
  • [Formel 7]
    • ek = α·sin(θk + θ01) + b·sin(θk + θ02)
  • Wenn der Versatzbetrag der Diagramme #0 bis #n – 1 so gesetzt wird, dass der Fehlerbereich ek die in Formel 3 gezeigte Beziehung erfüllt, wird der mittlere Phasendifferenz-Fehlerbereich E gleich Null, wie in Formel 8 gezeigt ist.
  • Durch Mittlung des Fehlerbereichs ek wird der Fehlerbereich nämlich aufgehoben.
  • [Formel 8]
    Figure 00200001
  • 8 ist ein Diagramm, das die Fehlerbereichkomponente in einem Fall anzeigt, bei dem der Versatzbetrag der Diagramme #0 bis #7 jeweils auf 0 Grad, 30 Grad, 90 Grad, 120 Grad, 180 Grad, 210 Grad, 270 Grad und 300 Grad gesetzt ist. Wie in 8 gezeigt wird auch in diesem Fall, bei dem der Versatzbetrag von jedem Diagramm auf diese Weise festgesetzt wird der Fehlerbereich aufgehoben.
  • 9 ist ein Diagramm, welches eine Fehlerbereichkomponente anzeigt in einem Fall, bei dem der Versatzbetrag der Diagramme #0 bis #5 jeweils auf 0 Grad, 60 Grad, 120 Grad, 180 Grad, 240 Grad und 300 Grad festgesetzt ist. Man kann sehen, dass der Fehlerbereich E Null wird indem man den Fehlerbereich ek mittelt. Auch wenn in einem Fall, bei dem die Anzahl an Diagrammen sechs ist die Genauigkeit etwas geringer ist als in dem Fall, bei dem die Anzahl an Diagrammen acht ist, so kann doch eine sehr genaue Entfernung gemessen werden.
  • In dem Fall, bei dem der Projektor 1 einen Zoommechanismus besitzt und der Zoomvariationsbereich groß ist, muss die Fluktuation der Diagrammteilung, die dadurch erzeugt wird klein gehalten werden. Weil die Diagramme durch das Projektionslicht projiziert werden, verändert sich die Teilung beeinflusst durch das Zoomen, aber weil die Entfernungsmessungssensoren 31A und 31B von dem optischen System des Projektors 1 unabhängig sind, werden sie nicht durch das Zoomen beeinflusst. Zu diesem Zeitpunkt wird die Genauigkeit ebenfalls größer durch die Auswahl von zwei Sätzen von vier Werten geteilt durch 90 Grad.
  • (Zweite Ausführung)
  • Ein Projektor in Übereinstimmung mit der zweiten Ausführung der vorliegenden Efindung führt eine Voraus-Entfernungsmessung durch, um eine fehlerhafte Enffernungsmessung zu verhindern, die sich aus den Diagrammen sequenziell gestreifter Muster gleichen Abstandes ergibt Als erstes wird das Auftreten einer fehlerhaften Entfernungsmessung beschrieben.
  • Es wird zum Beispiel angenommen, dass die Phasendifferenz und die Entfernung der Ergebnisse, die durch die Entfernungsmessungssensoren 31A und 31B gemessen werden in einer entsprechenden Beziehung stehen, wie in 10 gezeigt ist.
  • In einem Fall, bei dem der Entfernungsmessbereich zwischen 0,6 bis 6 Meter liegt, wird der Suchbereich der Phasendifferenz 16 bis 30 Bit, wenn der Entfernungsmessungsbereich dem Suchbereich der Phasendifferenz entspricht.
  • Wenn die Entfernungsmessungssensoren 31A und 31B eine Datenfolge R1 auf der Lichtsensoranordnung 51b, die in 22 gezeigt ist verschieben und den Korrelationswert der Datenfolge L1 der Lichtsensoranordnung 51a und die Datenfolge R1 wie in 11(1) gezeigt ermitteln, besitzt der Korrelationsfunktionswert, den die Entfernungsmessungssensoren 31A und 31B ermitteln lokale Maximalwerte in den gleichen Abständen wie die Teilung von jedem Diagramm. Der Korrelationsfunktionswert ist ein Wert, der von jedem der Entfernungsmessungssensoren 31A und 31B ermittelt wird, welche die Korrelation von Datenfolgen der beiden Lichtsensoranordnungen 52a und 52b ermitteln, welche die Entfernungsmessungssensoren 31A und 31B umfassen. Die lokalen Maximalwerte treten periodisch auf, weil die Diagramme #0 bis #7, welche die Entfernungsmessungssensoren 31A und 31B empfangen sequenziell gestreifte Muster gleichen Abstandes besitzen.
  • F ist eine linksseitige Grenze der Phasendifferenz von den Entfernungsmessungssensoren 31A oder 31B und beträgt 16 Bit und N ist eine rechtsseitige Grenze der Phasendifferenz von den Entfernungsmessungssensoren 31A oder 31B und beträgt 30 Bit. Die Phasendifferenz bei welcher der Korrelationsfunktionswert zu einem lokalen Maximum wird, wird in diesem Phasendifferenz-Suchbereich gesucht.
  • Wie oben beschrieben wird jede Teilung der Diagramme #0 bis #7, die in 3 gezeigt sind, festgesetzt durch die Größe der Diagramme #0 bis #7, die auf den Schirm 2 projiziert werden und das Verhältnis etc. mit der Auflösung der Entfernungsmessungssensoren 31A und 31B. In dem Fall, bei dem eine Messung ausgeführt wird unter Verwendung von einem Diagramm mit sequenziell gestreiften Mustern gleichen Abstandes, bei dem eine Teilung eine Sensorpixelkonvertierung von 10 Bit Breite ist, tritt der lokale Maximalwert des Korrelationsfunktionswerts alle 10 Bit auf.
  • Wie Figur in 11(1) gezeigt, gibt es bei einem Bereich von 16 bis 30 Bit als einem Suchbereich, auch wenn ein lokaler Maximalwert A eines Korrelationsfunktionswerts bei einer Phasendifferenz von 18 Bit auftritt einen Fall, bei dem ein lokaler Maximalwert B einer Korrelationsfunktion auch bei einer Phasendifferenz von 28 Bit auftritt, was 10 Bit entfernt ist. In diesem Fall legen die Sensorsteuerungen 32A und 32B fest, dass die Phasendifferenz, welche dem größeren lokalen Maximalwert entweder des lokalen Maximalwerts A oder des lokalen Maximalwerts B entspricht der richtige Wert ist. Die Größenbeziehung des lokalen Maximalwerts A und des lokalen Maximalwerts B ist durch das kleine Positionsverhältnis der Pixel zwischen den Diagrammen und den Entfernungsmessungssensoren 31A und 31B bestimmt und entspricht nicht immer der tatsächlichen Entfernung.
  • Auf diese Weise kann dies, bei einem Fall, bei dem ein lokaler Maximalwert A und ein lokaler Maximalwert B in dem Suchbereich auftreten eine fehlerhafte Entfernungsmessung verursachen. Wenn zum Beispiel, wie in 11(2) gezeigt der lokale Maximalwert A geringfügig größer ist als der lokale Maximalwert 8, gibt es einen Fall, bei dem die Sensorsteuerungen 32A und 32B bestimmen, dass die Entfernung 2,53 Meter beträgt, auch wenn die tatsächliche Entfernung 0,64 Meter beträgt.
  • Ebenfalls gibt es, wie in 11(3) gezeigt, wenn der lokale Maximalwert B größer ist als der lokale Maximalwert A einen Fall, bei dem die Sensorsteuerungen 32A und 32B bestimmen, dass die Entfernung 0,64 Meter beträgt, auch wenn die tatsächliche Entfernung 2,53 Meter beträgt. Um diese Arten von fehlerhaften Entfernungsmessung zu verhindern, führt der Projektor 1 in Übereinstimmung mit der zweiten Ausführung eine Voraus-Entfernungsmessung aus durch einmalige Anzeige der nicht sequenziellen Diagramme, bevor er die tatsächliche Entfernungsmessung, die in der ersten Ausführung beschrieben wird ausführt.
  • Die Einheit 26, die ein horizontales Diagramm erzeugt des Projektors 1 in Übereinstimmung mit der zweiten Ausführung erzeugt nämlich 3 Diagramme, wie sie in 12 gezeigt sind. Diese drei Diagramme sind nicht sequenzielle Diagramme in einer Richtung von links nach rechts, die jeweils aus drei hellen Abschnitten bestehen. Die Einheit 27, die ein vertikales Diagramm erzeugt erstellt ebenfalls die gleiche Art von drei Diagrammen als Voraus-Entfernungsmessungsdiagramme.
  • Die Projektionslicht-Umwandlungsvorrichtung 24 projiziert die drei Diagramme, welche die Einheit 26, die ein horizontales Diagramm erzeugt erstellt auf den Schirm 2 und die Entfernungsmessungssensoren 31A und 31B empfangen das Reflexionslicht der Diagramme. In einem Fall, bei dem diese Art von Voraus-Entfernungsmessung durchgeführt wird, gibt es nur einen lokalen Maximalwert des Korrelationsfunktionswerts, wie in 13 gezeigt ist.
  • Die Sensorsteuerung 32A übernimmt die Phasendifferenz, welche durch die Voraus-Entfernungsmessung ermittelt wird als einen Referenzwert zu der Zeit der tatsächlichen Entfernungsmessung. Die Sensorsteuerung 32A nämlich setzt einen Suchbereich, bei dem der lokale Maximalwert des Korrelationsfunktionswerts nur ein einziger wird und der lokale Maximalwert kann genau erhalten werden, auch wenn ein Fehlerbereich zu der Zeit der Voraus-Entfernungsmessung basierend auf der Phasendifferenz auftritt. Die Sensorsteuerung 32A führt die tatsächliche Entfernungsmessung durch und ermittelt den Neigungswinkel θA durch Ermittlung der Phasendifferenz, bei welcher die Korrelationsfunktion in dem Suchbereich, der auf diese Weise festgesetzt ist ein lokales Maximum wird.
  • Auf die gleiche Weise wie die Sensorsteuerung 32A führt die Sensorsteuerung 32B die Voraus-Entfernungsmessung einer vertikalen Richtung aus und setzt einen Suchbereich basierend auf der Phasendifferenz fest, welche durch die Voraus-Entfernungsmessung erhalten wird. Dann ermittelt, wenn man die tatsächliche Entfernungsmessung durchführt die Sensorsteuerung 32B den Neigungswinkel θB durch Ermittlung der Phasendifferenz, bei welcher die Korrelationsfunktion in dem Suchbereich, der auf diese Weise festgesetzt ist ein lokales Maximum wird.
  • Als Nächstes wird die Funktion des Projektors 1 in Übereinstimmung mit der zweiten Ausführung beschrieben.
  • Wenn die Projektorsteuereinheit 13 eine Startanweisung für einen Sensorbetrieb an jede der Sensorsteuerungen 32A und 32B sendet, führen die Sensorsteuerungen 32A und 32B eine Entfernungsmessungssteuerung aus. Als erstes führt die Sensorsteuerung 32A eine Entfernungsmessungsteuerung in Übereinstimmung mit dem in 14 gezeigten Flussdiagramm aus.
  • Die Sensorsteuerung 32A führt Anweisungen zum Zeichnen bezüglich der Einheit 26, die ein horizontales Diagramm erzeugt und der Signalauswahleinheit 23 durch und instruiert den Entfernungsmessungssensor 31A dahingehend, die Voraus-Entfernungsmessung auszuführen (Schritt S31).
  • In Übereinstimmung mit Anweisungen zum Zeichnen des horizontalen Diagramms erstellt die Einheit 26, die ein horizontales Diagramm erzeugt drei Diagramme zur Voraus-Entfernungsmessung, wie in 12 gezeigt wird. In Übereinstimmung mit dieser Anweisung wählt die Signalauswahleinheit 23 drei Diagramme aus, welche die Einheit 26, die ein horizontales Diagramm erzeugt erstellt, und gibt sie aus.
  • Die Projektionslicht-Umwandlungsvorrichtung 24 projiziert das Projektionslicht von den drei Diagrammen auf den Schirm 2 und der Entfernungsmessungssensor 31A empfängt davon das Reflexionslicht.
  • Die Sensorsteuerung 32A erhält die Sensordaten des Ergebnisses der Entfernungsmessung, welche der Entfernungsmessungssensor 31A ausführt und berechnet die Phasendifferenz, wenn sie die Voraus-Entfernungsmessung durchführt, durch Ermittlung des Korrelationsfunktionswerts basierend auf den erhaltenen Sensordaten (Schritt S32).
  • Basierend auf der berechneten Phasendifferenz setzt die Sensorsteuerung 32A einen Suchbereich fest in einem Fall, bei dem die tatsächliche Entfernungsmessung ausgeführt wird (Schritt S33).
  • Wenn der Suchbereich so festgesetzt ist, ermittelt die Sensorsteuerung 32A auf dieselbe Weise wie die ersten Ausführung die mittlere Phasendifferenz durch Ausführung einer tatsächlichen Entfernungsmessung (Schritt S34 bis 43) und erhält die Entfernungen L und R basierend auf der erhaltenen mittleren Phasendifferenz (Schritt S44). Dann ermittelt die Sensorsteuerung 32A den Winkel θs basierend auf den erhaltenen Entfernungen L und R (Schritt S45).
  • Die Sensorsteuerung 32B führt auch eine Entfernungsmessungsteuerung durch auf die gleiche Weise wie die Sensorsteuerung 32A und ermittelt den Winkel 8s.
  • Die Funktion des Projektors 1 wird weiterhin konkret beschrieben.
  • Dadurch, dass der Projektor 1 eine Voraus-Entfernungsmessung wie in 15(1) gezeigt durchführt, tritt der lokale Maximalwert des Korrelationsfunktionswerts nur auf, wenn die Phasendifferenz 18 Bit ist. Wie oben beschrieben, gibt es in dem Fall der Voraus-Entfernungsmessung nur einen lokalen Maximalwert, was eintritt, wenn die Phasendifferenz 18 Bit beträgt.
  • Die Sensorsteuerungen 32A und 32B setzen den Suchbereich fest, indem sie die Phasendifferenz von 18 Bit, bei welcher der Korrelationsfunktionswert ein lokales Maximum wird als eine Zentralphasendifferenz G festsetzt. Der Suchbereich wird so festgesetzt, dass nur ein lokaler Maximalwert vorliegt in einem Fall, bei dem eine tatsächliche Entfernungsmessung ausgeführt wird und der lokale Maximalwert kann genau erhalten werden, auch wenn ein Fehlerbereich zu der Zeit der Voraus-Entfernungsmessung auftritt und der Suchbereich wird kleiner als in dem Fall, bei dem die Voraus-Entfernungsmessung nicht durchgeführt wird. Die Sensorsteuerung 32A setzt den Suchbereich auf zum Beispiel G ± 4, wie in 15(2) gezeigt ist (Verarbeitung von Schritt S33).
  • Als ein Ergebnis davon, dass der Projektor 1 eine tatsächliche Entfernungsmessung ausführt, wird bei einem Festsetzen des Suchbereichs auf diese Weise angenommen, dass der Korrelationsfunktionswert ein lokales Maximum bei einer Phasendifferenz von 18 Bit innerhalb dieses Suchbereichs wird. In diesem Fall bestimmt, auch wenn der lokale Maximalwert B größer ist als der lokale Maximalwert A die Sensorsteuerung 32A, dass die Entfernung 2,53 Meter, wenn die Phasendifferenz 18 Bit ist, das korrekte Messergebnis ist.
  • Andererseits wird, wie in 16(1) gezeigt, angenommen, dass durch eine Ausführung der Voraus-Entfernungsmessung durch den Projektor 1 der lokale Maximalwert des Korrelationsfunktionswerts auftritt, wenn die Phasendifferenz 28 Bit beträgt. Der lokale Maximalwert in dem Fall der Voraus-Entfernungsmessung wird nur ein einziger, wenn die Phasendifferenz 28 Bit beträgt.
  • Die Sensorsteuerung 32A setzt den Suchbereich auf zum Beispiel G ± 4, indem sie die Phasendifferenz von 28 Bit, bei welcher der Korrelationsfunktionswert ein lokales Maximum wird als die Zentralphasendifferenz G festsetzt (Verarbeitung von Schritt S33).
  • Als ein Ergebnis davon, dass der Projektor 1 eine tatsächliche Entfernungsmessung ausführt wird bei einem Festsetzen des Suchbereichs auf diese Weise angenommen, dass der Korrelationsfunktionswert ein lokales Maximum bei einer Phasendifferenz von 28 Bit innerhalb dieses Suchbereichs wird. In diesem Fall bestimmt, auch wenn der lokale Maximalwert A größer ist als der lokale Maximalwert B die Sensorsteuerung 32A, dass die Entfernung 0,64 Meter, wenn die Phasendifferenz 28 Bit ist, das korrekte Messergebnis ist.
  • Auf diese Weise kann in einem Fall, bei dem der Projektor 1 eine tatsächliche Entfernungsmessung unter Verwendung von Diagrammen mit sequenziell gestreiften Mustern gleichen Abstandes ausführt eine fehlerhafte Entfernungsmessung verhindert werden durch Festsetzen des Suchbereichs basierend auf den Messergebnissen der Voraus-Entfernungsmessung, auch wenn lokale Maximumpunkte des Korrelationsfunktionswerts bei 18 Bit und bei 28 Bit auftreten.
  • Wie oben beschrieben führt der Projektor 1 in Übereinstimmung mit der zweiten Ausführung eine Voraus-Entfernungsmessung unter Verwendung von drei Diagrammen aus bevor die tatsächliche Entfernungsmessung die Diagramme #0 bis #7 verwendet und der Suchbereich wird so festgesetzt, dass es nur einen einzigen lokalen Maximumpunkt gibt, basierend auf den Sensordaten, die als ein Ergebnis der Entfernungsmessung erhalten wurden. Deshalb wird der Suchbereich kleiner als in einem Fall, bei dem die Voraus-Entfernungsmessung nicht ausgeführt wird und eine fehlerhafte Entfernungsmessung kann verhindert werden.
  • Wie 17(1) und (2) gezeigt kann das logische Produkt des Suchbereichs G ± 4 Bit und der Suchbereich 16 bis 30 Bit, der bestimmt wird durch den Entfernungsmessungs-Leistungsbereich von 0,6 bis 6 Meter, was als notwendig erachtet wird, als der Phasen differenz-Suchbereich festgesetzt werden. Indem man so verfährt, kann der Suchbereich weiter verkleinert werden und eine fehlerhafte Entfernungsmessung kann zuverlässiger verhindert werden.
  • Statt nicht sequenzielle Diagramme wie diese drei Diagramme zu verwenden, kann die vorliegende Erfindung eingerichtet werden, um eine Voraus-Entfernungsmessung unter Verwendung von Diagrammen mit sequenziell gestreiften Mustern gleichen Abstandes auszuführen, wie in 18 gezeigt, welche die doppelte Teilung der Diagramme mit sequenziell gestreiften Mustern gleichen Abstandes, die in 3 gezeigt sind besitzen.
  • In diesem Fall gibt es eine Bedingung, dass sich der Wert aus der Addition der Sensorpixel der doppelten Teilung zu der primären Phasendifferenz oder ein Wert aus der Subtraktion der Sensorpixel der doppelten Teilung von der primären Phasendifferenz nicht in dem Suchbereich befindet. Wie 19(1) und (2) gezeigt, ist, weil die Diagrammteilung zu der doppelten Diagrammteilung der in 3 gezeigten Diagramme #0 bis #7 wird mit der Sensorpixelumwandlung die Diagrammteilung 20 Punkte. Deshalb tritt der lokale Maximumpunkt des Korrelationsfunktionswerts alle 20 Punkte auf.
  • Wie in 19(1) gezeigt setzen, wenn der Korrelationsfunktionswert bei 18 Bit zu einem lokalen Maximum wird die Sensorsteuerungen 32A und 32B den Suchbereich eines Bereiches von zum Beispiel G ± 4 fest, indem sie G = 18 als das Zentrum festsetzen.
  • Wie in 19(2) gezeigt, setzen, wenn der Korrelationsfunktionswert bei 28 Bit zu einem lokalen Maximum wird die Sensorsteuerungen 32A und 32B den Suchbereich eines Bereiches von zum Beispiel G ± 4 fest, indem sie G = 28 als das Zentrum festsetzen.
  • Auf diese Weise kann, weil nur ein lokaler Maximumpunkt in dem Suchbereich auftritt, der durch die Voraus-Entfernungsmessung festgesetzt wird eine fehlerhafte Entfernungsmessung verhindert werden. Deshalb kann, auf die gleiche Weise wie bei dem Fall der nicht sequenziellen Diagramme der Suchbereich verkleinert werden im Vergleich zum dem Fall, bei dem keine Voraus-Entfernungsmessung durchgeführt wird.
  • (Dritte Ausführung)
  • Ein Projektor in Übereinstimmung mit einer dritten Ausführung der vorliegenden Efindung verhindert eine fehlerhafte Entfernungsmessung durch Anpassung der Helligkeit von hell/dunkel Abschnitten von sequenziellen Diagrammen gleichen Abstandes, ohne eine Voraus-Entfernungsmessung durchzuführen.
  • Die Einheit 26, die ein horizontales Diagramm erzeugt des Projektors 1 in Übereinstimmung mit der dritten Ausführung erzeugt Diagramme #0 bis #7, wie sie in 20 gezeigt sind. Diese Diagramme #0 bis #7 besitzen sequenziell gestreifte Muster gleichen Abstandes. Auf die gleiche Weise wie die Einheit 26, die ein horizontales Diagramm erzeugt erstellt auch die Einheit 27, die ein vertikales Diagramm erzeugt diese Arten von Diagramme mit sequenziell gestreiften Mustern gleichen Abstandes.
  • Die in 20 gezeigten sequenziellen Diagramme gleichen Abstandes werden gebildet durch Anpassung der Helligkeit von den weißen Vierecken, die mit durchgehenden Linien gezeichnet sind und weißen Vierecken, die mit gestrichelten Linien gezeichnet sind. Zum Beispiel wird von der Helligkeit der weißen Vierecke, die mit durchgehenden Linien gezeichnet sind angenommen, dass sie 100% beträgt und von der Helligkeit der weißen Vierecke, die mit gestrichelten Linien gezeichnet sind wird angenommen, dass sie 80% beträgt.
  • Die in 20 gezeigten Diagramme #0 bis #7 sind so ausgebildet, dass sich der Wert aus der Addition der Sensorpixel der doppelten Teilung zu der primären Phasendifferenz oder ein Wert aus der Subtraktion der Sensorpixel der doppelten Teilung von der primären Phasendifferenz nicht in dem Suchbereich befindet. Ansonsten ist die Struktur der Diagramme die gleiche wie die der in 3 gezeigten Diagramme.
  • Die Korrelationsfunktionswerte bei einem Fall, bei dem diese Arten von Diagrammen verwendet werden sind in 21 gezeigt. Ein lokaler Maximalwert, der sich in der Größe unterscheidet tritt in dem Suchbereich von jedem der Diagramme #0 bis #7 auf. Der lokale Maximalwert der Korrelationsfunktion, der durch die hellen Abschnitte, bei denen sich die Helligkeit unterscheidet erhalten wird, wird kleiner. Deshalb kann durch einen Vergleich einer Vielzahl von lokalen Maximalwerten und unter Vernachlässigung der kleineren Werte daraus eine korrekte Phasendifferenz ermittelt werden.
  • In einem Fall einer in 21(1) gezeigten Beziehung ist der lokale Maximalwert B kleiner als der lokale Maximalwert A. Deshalb wird bestimmt, dass der lokale Maximalwert B ein lokaler Maximalwert der Korrelationsfunktion ist, welche durch helle Abschnitte, bei denen sich die Helligkeit unterscheidet erhalten wird. Die Sensorsteuerungen 32A und 32B lassen den lokalen Maximalwert B außer Betracht und bestimmen, dass 18 Bit die korrekte Phasendifferenz ist.
  • Andererseits ist bei einem Fall einer in 21(2) gezeigten Beziehung der lokale Maximalwert A kleiner als der lokale Maximalwert B. Deshalb lassen die Sensorsteuerungen 32A und 32B den lokalen Maximalwert A außer Betracht und bestimmen, dass 28 Bit die korrekte Phasendifferenz ist.
  • Auf diese Weise kann eine fehlerhafte Entfernungsmessung verhindert werden. Ebenso kann in Übereinstimmung mit der dritten Ausführung die gesamte Messzeit verkürzt werden, weil es nicht notwendig ist eine Voraus-Entfernungsmessung durchzuführen.
  • Die vorliegende Erfindung ist nicht auf die obigen Ausführungen begrenzt und unterschiedliche Ausführungen können in Betracht gezogen werden.
  • Zum Beispiel wird bei den obigen Ausführungen die mittlere Phasendifferenz, bei welcher der Fehlerbereich klein ist, erhalten durch Mittlung der Phasendifferenzen, die eine Vielzahl von Fehlerbereichen einschließen und die Entfernung wird aus der erhaltenen mittleren Phasendifferenz ermittelt. Der gleiche Effekt die oben kann jedoch erzielt werden durch eine jeweilige Berechnung der Entfernung, die eine Vielzahl von Fehlerbereichen einschließt aus der Phasendifferenz, die eine Vielzahl von Fehlerbereichen einschließt und durch Erhalt der mittleren Entfernung mit einem kleinen Fehlerbereich durch Mittlung der Entfernungen, die eine Vielzahl von Fehlerbereichen einschließen.
  • Bei den obigen Ausführungen wird ein Fall beschrieben, bei dem die Neigungswinkel-Erfassungsvorrichtung auf einen Projektor angewandt wird. Die Neigungswinkel-Erfassungsvorrichtung kann jedoch in einem Fall angewandt werden, bei dem zum Beispiel die Neigung von Wänden etc. von Gebäuden zu ermitteln ist. In diesem Fall wird der Neigungswinkel der Wand ermittelt durch Projektion von Projektionslicht in Richtung der Wand, wobei die Wand des Gebäudes als die Projektionsfläche festgesetzt wird.
  • Verschiedene Ausführung und Veränderungen können außerdem gemacht werden ohne von dem Rahmen der Erfindung abzuweichen. Die oben beschriebenen Ausführungen sollen die vorliegende Erfindung veranschaulichen und nicht den Rahmen der vorliegenden Erfindung begrenzen. Der Rahmen der vorliegenden Erfindung wird vielmehr durch die beiliegenden Patentansprüche dargelegt als durch die Ausführungen. Verschiedene Veränderungen, die im Rahmen des Sinns der Patentansprüche getroffen werden, sind als in den Rahmen der vorliegenden Erfindung gehörend zu betrachten.

Claims (9)

  1. Neigungswinkel-Erfassungsvorrichtung, die umfasst: eine Diagrammzeicheneinheit (23), die Diagramme sequenzieller Muster gleichen Abstandes zeichnet, die Muster haben, bei denen helle Abschnitte sequenziell in gleichen Abständen angeordnet werden, indem die Diagramme sequenzieller Muster gleichen Abstandes sequenziell auf eine Projektionsfläche projiziert werden, wobei die Muster verschoben werden; Sensoreinheiten (31A, 31B), die eine Vielzahl von Lichtempfangseinheiten umfassen, die so angeordnet sind, dass sie vorgegebene Abstände zueinander haben, wobei eine Mittellinie als die Mitte festgelegt wird, und die sequenziell das Reflektionslicht der Diagramme sequenzieller Muster gleichen Abstandes, die auf die Projektionsfläche gezeichnet werden, an der Vielzahl von Lichtempfangseinheiten empfangen; und Neigungswinkel-Ermittlungseinheiten (12A, 12B), wobei die Sensoreinheiten (31A, 31B) sequenziell den durchschnittlichen Abstand zu einem Punkt der Projektionsfläche, auf die Diagramme sequenzieller Muster gleichen Abstandes sequenziell projiziert werden, auf Basis einer Vielzahl von Phasendifferenzen zu der Zeit ermitteln, zu der das Reflektionslicht der Diagramme sequenzieller Muster gleichen Abstandes empfangen wird, wobei die Summe jedes Versatzmaßes zwischen der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit ein paralleles Licht empfängt, und der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit das Reflektionslicht des Diagramms von Mustern gleichen Abstandes empfängt, als die Phasendifferenz festgelegt wird, und sie den Neigungswinkel der Projektionsfläche auf Basis des ermittelten durchschnittlichen Abstandes ermitteln.
  2. Neigungswinkel-Erfassungsvorrichtung nach Anspruch 1, wobei die Neigungswinkel-Ermittlungseinheit (12A, 12B) die durchschnittliche Phasendifferenz auf Basis der Vielzahl von Phasendifferenzen zu der Zeit ermittelt, zu der die Sensoreinheit (31A, 31B) sequenziell das Reflektionslicht der Diagramme sequenzieller Muster gleichen Abstandes empfängt, und den durchschnittlichen Abstand zu dem Punkt der Projektionsfläche, auf die Diagramme sequenzieller Muster gleichen Abstandes sequenziell projiziert werden, auf Basis der ermittelten durchschnittlichen Phasendifferenz ermittelt.
  3. Neigungswinkel-Erfassungsvorrichtung nach Anspruch 1, wobei die Neigungswinkel-Ermittlungseinheiten (12A, 12B) so aufgebaut sind, dass ein Neigungswinkel θs der Projektionsfläche durch Berechnen von Gleichung 9 auf Basis des durchschnittlichen Abstandes L und des durchschnittlichen Abstandes R zu einem ersten und einem zweiten Punkt auf der Projektionsfläche, die von links nach rechts mit einem Winkel θw zu der Mittellinie der Sensoreinheiten (31A, 31B) angeordnet sind, ermittelt wird. [Gleichung 9]
    Figure 00330001
  4. Neigungswinkel-Erfassungsvorrichtung nach Anspruch 1, wobei die Diagrammzeicheneinheit (23) so aufgebaut ist, dass sie die Diagramme zeichnet, indem sie die Muster der Diagramme verschiebt, wobei die Anzahl von Diagrammen 4 oder mehr beträgt und ein Vielfaches von 2 ist, und die Muster sequenziell auf die Projektionsfläche projiziert.
  5. Neigungswinkel-Erfassungsvorrichtung nach Anspruch 1, wobei die Diagrammzeicheneinheit (23) so aufgebaut ist, dass sie die Diagramme zeichnet, indem sie wenigstens zwei Sätze von Sätzen von vier Werten, die um 90 Grad verschoben sind, als den zu verschiebenden Winkel auswählt, die Teilung des Hell-/Dunkelabschnitts auf 360 Grad festlegt und die Muster des Projektionslichtes der Diagramme sequenziell auf die Projektionsfläche projiziert und die Muster des Projektionslichtes der Diagramme um die vorgegebenen Winkel verschiebt.
  6. Neigungswinkel-Erfassungsvorrichtung nach Anspruch 2, wobei: die Diagrammzeicheneinheit (23) nicht sequenzielle Diagramme, bei denen die Hell-/Dunkelabschnitte nur in einem vorgegebenen Bereich angeordnet sind, so dass nur ein lokaler Maximalwert einer Korrelationsfunktion vorhanden ist, die die Korrelation der Sensordaten anzeigt, die jede Lichtempfangseinheit empfängt, auf die Projektionsfläche projiziert, bevor sie die Diagramme sequenzieller Muster gleichen Abstandes auf die Projektionsfläche projiziert; und die Neigungswinkel-Ermittlungseinheiten (12A, 12B) so aufgebaut sind, dass sie den lokalen Maximalwert der Korrelationsfunktion ermitteln, in dem sie Sensordaten zu der Zeit ermitteln, zu der Reflektionslicht von den nicht sequenziellen Diagrammen von den Sensoreinheiten (31A, 31B) empfangen wird, und die durchschnittliche Phasendifferenz ermitteln, indem sie einen Suchbereich der durchschnittlichen Phasendifferenz so einstellen, dass die durchschnittliche Phasendifferenz zu der Zeit, zu der die Sensoreinheiten das Reflektionslicht der sequenziellen Diagramme gleichen Abstandes empfangen, auf Basis des ermittelten lokalen Maximalwertes spezifiziert wird.
  7. Neigungswinkel-Erfassungsvorrichtung nach Anspruch 2, wobei: die Diagrammzeicheneinheit (23) zweifach geteilte Diagramme sequenzieller Muster gleichen Abstandes, bei denen die Abstände der Hell-/Dunkelabschnitte so eingestellt sind, dass der lokale Maximalwert einer Korrelationsfunktion, die die Korrelation der Sensordaten anzeigt, die jede Lichtempfangseinheit der Sensoreinheiten (31A, 31B) empfängt, wenigstens das Doppelte des lokalen Maximalwertes der Korrelationsfunktion zu der Zeit beträgt, zu der die Sensoreinheiten (31A, 31B) das Reflektionslicht des sequenziellen Diagramms gleicher Abstände empfangen, auf die Projektionsfläche projiziert, bevor sie die Diagramme sequenzieller Muster gleicher Abstände auf die Projektionsfläche projiziert; und die Neigungswinkel-Ermittlungseinheiten (12A, 12B) so aufgebaut sind, dass sie den lokalen Maximalwert der Korrelationsfunktion ermitteln, indem sie Sensordaten zu der Zeit ermitteln, zu der Reflektionslicht von den zweifach geteilten Diagrammen sequenzieller Muster gleichen Abstandes von den Sensoreinheiten (31A, 31B) empfangen wird, und die durchschnittliche Phasendifferenz ermitteln, indem sie einen Suchbereich der durchschnittlichen Phasendifferenz so einstellen, dass die durchschnittliche Phasendifferenz zu der Zeit, zu der die Sensoreinheiten das Reflektionslicht der Diagramme von Sequenzen gleichen Abstandes empfangen, auf Basis des ermittelten lokalen Maximalwerts spezifiziert wird.
  8. Neigungswinkel-Erfassungsvorrichtung nach Anspruch 1, wobei die Diagrammzeicheneinheit (23) die Diagramme sequenzieller Muster gleichen Abstandes zeich net, indem sie die Diagramme sequenzieller Muster gleichen Abstandes, bei denen die Helligkeit der Hell-/Dunkel-Abschnitte reguliert ist, auf die Projektionsfläche projiziert und gleichzeitig das Muster verschiebt.
  9. Neigungswinkel-Erfassungsverfahren, das umfasst: einen Zeichenschritt des Zeichnens von Diagrammen sequenzieller Muster gleichen Abstandes, die Muster haben, bei denen helle Abschnitte sequenziell in gleichen Abständen angeordnet sind, indem die Diagramme sequenzieller Muster gleichen Abstandes sequenziell auf eine Projektionsfläche projiziert werden und gleichzeitig die Muster verschoben werden; einen Lichtempfangsschritt des sequenziellen Empfangens von Reflektionslicht von den Diagrammen sequenzieller Muster gleichen Abstandes, die auf die Projektionsfläche gezeichnet werden, an Empfangseinheiten, die mit vorgegebenen Abständen zueinander angeordnet sind; und einen Neigungs-Ermittlungsschritt des sequenziellen Ermittelns des durchschnittlichen Abstandes zu einem Punkt der Projektionsfläche, auf die Diagramme sequenzieller Muster gleichen Abstandes sequenziell projiziert werden, auf Basis einer Vielzahl von Phasendifferenzen zu der Zeit, zu der das Reflektionslicht des Diagramms sequenzieller Muster gleichen Abstandes empfangen wird, wobei die Summe jedes Versatzmaßes zwischen der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit ein paralleles Licht empfängt, und der Abbildungsposition auf der Lichtempfangseinheit, wenn die Sensoreinheit das Reflektionslicht des Diagramms von Mustern gleichen Abstandes empfängt, als die Phasendifferenz eingestellt wird und der Neigungswinkel der Projektionsfläche auf Basis des ermittelten durchschnittlichen Abstandes ermittelt wird.
DE602004003957T 2003-08-08 2004-08-09 Neigungswinkel-detektionseinrichtung und neigungswinkel-detektionsverfahren Expired - Lifetime DE602004003957T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003290751A JP4131214B2 (ja) 2003-08-08 2003-08-08 傾斜角度検出装置及び傾斜角度検出方法
JP2003290751 2003-08-08
PCT/JP2004/011710 WO2005015123A2 (en) 2003-08-08 2004-08-09 Inclination angle detection device and inclination angle detection method

Publications (2)

Publication Number Publication Date
DE602004003957D1 DE602004003957D1 (de) 2007-02-08
DE602004003957T2 true DE602004003957T2 (de) 2007-04-12

Family

ID=34114138

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004003957T Expired - Lifetime DE602004003957T2 (de) 2003-08-08 2004-08-09 Neigungswinkel-detektionseinrichtung und neigungswinkel-detektionsverfahren

Country Status (8)

Country Link
US (1) US7209225B2 (de)
EP (1) EP1654515B1 (de)
JP (1) JP4131214B2 (de)
KR (1) KR100792123B1 (de)
CN (1) CN100381780C (de)
DE (1) DE602004003957T2 (de)
TW (1) TWI258565B (de)
WO (1) WO2005015123A2 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100579497C (zh) 2004-12-28 2010-01-13 奥林巴斯株式会社 胶囊型医疗装置用导入辅助装置
JP4380557B2 (ja) * 2005-02-15 2009-12-09 カシオ計算機株式会社 プロジェクタ、チャート画像の表示方法及びプログラム
JP4967250B2 (ja) * 2005-04-27 2012-07-04 カシオ計算機株式会社 距離測定装置及びその距離測定方法、及び距離測定装置を備えたプロジェクタ又はカメラ
JP4454543B2 (ja) * 2005-06-23 2010-04-21 Necディスプレイソリューションズ株式会社 歪み補正手段を備えたプロジェクタ
JP2007078821A (ja) * 2005-09-12 2007-03-29 Casio Comput Co Ltd 投影装置、投影方法及びプログラム
JP4169026B2 (ja) 2005-09-27 2008-10-22 カシオ計算機株式会社 測距装置及び測距方法
JP4169027B2 (ja) 2005-09-27 2008-10-22 カシオ計算機株式会社 測距装置及び測距方法
US8011112B2 (en) * 2006-12-07 2011-09-06 Leica Geosystems Ag Method and apparatus for determining positions
JP2010243921A (ja) * 2009-04-08 2010-10-28 Sanyo Electric Co Ltd 投写型映像表示装置
JP2011039014A (ja) * 2009-08-06 2011-02-24 Toshiba It & Control Systems Corp 電池検査装置
KR20120080573A (ko) * 2009-09-18 2012-07-17 톰슨 라이센싱 3d 투영에 대한 광학 배열을 위한 방법 및 시스템
AT509929B1 (de) 2010-05-21 2014-01-15 Isiqiri Interface Tech Gmbh Projektionsvorrichtung, sowie ein verfahren für den betrieb dieser projektionsvorrichtung
CN103884281B (zh) * 2014-03-18 2015-10-21 北京控制工程研究所 一种基于主动结构光的巡视器障碍探测方法
EP2980526B1 (de) 2014-07-30 2019-01-16 Leica Geosystems AG Koordinatenmessgerät und Verfahren zum Messen von Koordinaten
CN104697488B (zh) * 2015-04-02 2017-06-13 北京天源科创风电技术有限责任公司 一种平面法线方位角测量方法及其应用
EP3446066B1 (de) * 2016-04-19 2024-07-03 ABB Schweiz AG Neigungsdetektionsvorrichtung und verfahren dafür
JP2020118641A (ja) * 2019-01-28 2020-08-06 一般財団法人電力中央研究所 マルチコプター
CN110132544B (zh) * 2019-04-19 2022-03-29 奥比中光科技集团股份有限公司 一种光学测试设备
JP7160018B2 (ja) * 2019-11-07 2022-10-25 カシオ計算機株式会社 投影装置、設置状態検知方法、および設置状態検知プログラム
CN111025330B (zh) * 2019-12-16 2022-04-26 奥比中光科技集团股份有限公司 一种基于深度图的目标倾斜角检测方法及设备
KR102803131B1 (ko) * 2020-04-02 2025-05-07 삼성전자주식회사 영상 투사 장치 및 영상 투사 장치의 제어 방법
CN114719784B (zh) * 2022-04-11 2023-08-18 沈阳理工大学 一种圆柱形称重传感器倾斜角度检测装置和方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2967525D1 (en) * 1978-12-19 1985-11-07 Toshiba Kk Encoder for length or angle measuring devices with high accuracy
JPH0727857B2 (ja) * 1985-09-09 1995-03-29 株式会社ニコン 投影光学装置
JP3353865B2 (ja) * 1995-06-09 2002-12-03 株式会社リコー 測距装置
KR0170979B1 (ko) * 1995-11-29 1999-03-20 배순훈 투사형 프로젝터의 투사각검출장치
US6677565B1 (en) * 1998-08-18 2004-01-13 Veeco Tucson Inc. High speed autofocus and tilt for an optical imaging system
JP2000241874A (ja) 1999-02-19 2000-09-08 Nec Corp プロジェクタの自動画面位置調整方法及び装置
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
KR100778100B1 (ko) 2001-08-09 2007-11-22 삼성전자주식회사 기준패턴의 각도보상을 수행하는 프로젝션 텔레비젼의컨버젼스 제어장치 및 제어방법
JP4817552B2 (ja) 2001-08-10 2011-11-16 セイコープレシジョン株式会社 位相差検出方法、位相差検出装置、測距装置および撮像装置
JP2003204495A (ja) 2002-01-04 2003-07-18 Canon Inc 画像投影装置
JP2004093275A (ja) * 2002-08-30 2004-03-25 Seiko Precision Inc 角度検出装置およびそれを備えたプロジェクタ
JP2008001003A (ja) * 2006-06-23 2008-01-10 Konica Minolta Holdings Inc インクジェット画像記録方法

Also Published As

Publication number Publication date
US7209225B2 (en) 2007-04-24
WO2005015123A2 (en) 2005-02-17
CN1833156A (zh) 2006-09-13
EP1654515B1 (de) 2006-12-27
US20050030523A1 (en) 2005-02-10
CN100381780C (zh) 2008-04-16
JP4131214B2 (ja) 2008-08-13
TWI258565B (en) 2006-07-21
KR20060032216A (ko) 2006-04-14
JP2005061925A (ja) 2005-03-10
DE602004003957D1 (de) 2007-02-08
TW200517635A (en) 2005-06-01
KR100792123B1 (ko) 2008-01-04
WO2005015123A3 (en) 2005-05-26
EP1654515A2 (de) 2006-05-10

Similar Documents

Publication Publication Date Title
DE602004003957T2 (de) Neigungswinkel-detektionseinrichtung und neigungswinkel-detektionsverfahren
DE112006003735B4 (de) Bildprojektionsverfahren und -Projektor
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
US6727864B1 (en) Method and apparatus for an optical function generator for seamless tiled displays
DE3874366T2 (de) Automatisches konvergenzabgleichsystem fuer farbfernseh-wiedergabegeraete.
DE60306593T2 (de) Winkeldetektor-Apparat und damit ausgerüstete Projektor zur automatischen Korrektur des Trapezoidalbildfehlers
DE69407101T2 (de) Abbildende Vorrichtung
DE102013211899A1 (de) Optische Messvorrichtung
DE112017001464B4 (de) Abstandsmessvorrichtung und Abstandsmessverfahren
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
DE102013207754A1 (de) Kodiervorrichtung und Gerät, das diese verwendet
WO2019096339A1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE69107288T2 (de) Abstandsmessgerät.
EP1668315A1 (de) Optisches verfahren und vorrichtung zum bestimmen der struktur einer oberfl che
DE102019003871A1 (de) Abstandsmessvorrichtung mit Polarisationsfilter
DE102009015204A1 (de) Optischer Sensor
EP4049445A1 (de) Verfahren zur erzeugung eines ausgabesignals eines pdaf-bildpunkts
DE3518043A1 (de) Vorrichtung zur automatischen bestimmung der abweichung zwischen den strukturen einer vorlage und denen eines vergleichsobjektes
DE102021111602A1 (de) Computerimplementiertes Verfahren zur Korrektur von Artefakten in Messdaten, die von einem Time-of-Flight 3D-Sensor erzeugt werden, ein entsprechendes Computerprogramm, ein entsprechendes computerlesbares Medium und ein PMD-Detektor
DE102017115021A1 (de) Digitale Bestimmung der Fokusposition
DE102014117498B4 (de) Optische Vermessungsvorrichtung und Verfahren zur optischen Vermessung
DE19850846A1 (de) Vorrichtung und Verfahren zur Entfernungsmessung
DE102019110329A1 (de) Lichtlaufzeitkamera
DE112022006794T5 (de) Gerät zur Abstandsmessung
DE112021004600T5 (de) Dreidimensionale messvorrichtung und dreidimensionales messverfahren

Legal Events

Date Code Title Description
8364 No opposition during term of opposition