[go: up one dir, main page]

DE69215760T2 - Kreuzkorrelationsausrichtsystem für einen Bildsensor - Google Patents

Kreuzkorrelationsausrichtsystem für einen Bildsensor

Info

Publication number
DE69215760T2
DE69215760T2 DE69215760T DE69215760T DE69215760T2 DE 69215760 T2 DE69215760 T2 DE 69215760T2 DE 69215760 T DE69215760 T DE 69215760T DE 69215760 T DE69215760 T DE 69215760T DE 69215760 T2 DE69215760 T2 DE 69215760T2
Authority
DE
Germany
Prior art keywords
alignment
correlation
sensors
cross
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69215760T
Other languages
English (en)
Other versions
DE69215760D1 (de
Inventor
Martin Alan Parker
Kenneth A Parulski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Application granted granted Critical
Publication of DE69215760D1 publication Critical patent/DE69215760D1/de
Publication of DE69215760T2 publication Critical patent/DE69215760T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/15Image signal generation with circuitry for avoiding or correcting image misregistration

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Description

  • Die Erfindung bezieht sich auf ein System, das automatisch zwei oder mehrere Sensoren ausrichtet, und zwar unter Verwendung der Kreuzkorrelation der durch die Sensoren abgefühlten Bilder, wobei das System sodann elektronisch räumlich sich ändernde Fehlausrichtungssfehler korrigiert. Insbesondere bezieht sich die Erfindung auf ein System, das die Subpixelausrichtung erreicht, und zwar durch Verwendung einer mathematischen Rotationskreuzkorrelation mit Interpolation oder "Spitzen"-Jagen, um die Position der höchsten Korrelation zu finden, wodurch die Fehlausrichtung bestimmt wird, und um ferner die Sensoren an ihren Platz zu bewegen, und zwar basierend auf der Position der höchsten Korrelation, um sodann regional angeordnete sich räumlich verändernde Fehlausrichtungsfehler zu korrigieren, und zwar verursacht durch chromatische Aberrationen in einem Linsensystem, das das Bild für die Sensoren vorsieht.
  • In Mehrfachband- oder Mehrfachfarb-Abbildsystemen, in denen zwei oder mehrere Sensoren hinter einem optischen Strahlenteiler angeordnet sind, müssen die Sensoren bezüglich einander in der Bildebene derart ausgerichtet sein, daß sie das Bild an der richtigen oder der gleichen Stelle tasten (sample). Normalerweise ist ein als der Bezugs- oder Referenzsensor bezeichnete Sensor in der Bildebene befestigt und andere sind mit ihm ausgerichtet. Zwei Möglichkeiten werden typischerweise eingesetzt, um solche Mehrfachsensor-Abbildsysteme auszurichten. Bei der ersten, optischen Möglichkeit verwendet ein Benutzer eine spezielle Vergrößerungsoptik, um in die Eintrittsstirnfläche des Strahlenteilers zu schauen und Bezugs- oder Referenzausrichtungsmarkierungen, Verbindungsflächen oder andere geeignete Merkmale an den Sensoren mit denjenigen an der Referenz auszurichten. Eine zweite aktive Möglichkeit besteht darin, das System zu betreiben und eine Testszene, die Ausrichtungsmarkierungen enthält, abzubilden. Während ein Monitor oder eine andere visuelle Anzeige beobachtet wird, wird der auszurichtende Sensor durch einen Benutzer eingestellt, bis die Bilder in die richtige Ausrichtung gebracht sind oder Wellenformen die richtigen Qualitäten besitzen. Diese beiden Möglichkeiten können in einem gewissen Ausmaß automatisiert werden.
  • EP-A-0115780 zeigt ein System zum automatischen Einstellen einer Farbfernsehkamera. In diesem System wird ein Ausrichtfehler dadurch detektiert, daß man die Zeiten des Auftretens von Pegelübergängen in zwei Videosignalen in Korrelation bringt, und ein unipolarer Impuls wird ansprechend auf einen Pegelübergang in dem anderen der Videosignale vorgesehen, wobei die zwei Impulssignale multipliziert werden und das Produkt integriert wird, um ein Signal zu erzeugen, dessen Amplitude und Polarität sich mit dem Ausrichtfehler verändert. Ein Mikroprozessorsteuersystem detektiert Größen und Zentrier-Fehler durch Messen von Ausrichtfehlern an unterschiedlichen Punkten am Raster. Bevor ein Einstellfehler korrigiert wird, bestimmt der Mikroprozessor, daß es adequate Pegelübergänge in der abgebildeten Szene gibt, und zwar geschieht dies durch methodisches Einstellen der Einstellsteuerungen über einen Bereich von Werten hinweg und die entsprechende Feststellung, ob die gemessenen Ausricht- oder Größen-Fehler sich dementsprechend ändern.
  • Zusammenfassung der Erfindung.
  • Es ist ein Ziel der vorliegenden Erfindung, eine automatische Sensorausrichtung zu erzeugen, und zwar unter Verwendung einer mathematischen Kreuzkorrelation zwischen den durch zwei oder mehrere Sensor erzeugten Bildern.
  • Ein weiteres Ziel der Erfindung ist es, eine automatische Subpixelausrichtung der Sensoren vorzusehen.
  • Es ist ferner ein Ziel der Erfindung, eine Dreh- oder Rotationsausrichtung der Sensoren automatisch anzugeben.
  • Ein weiteres Ziel der Erfindung besteht darin, räumlich sich ändernde Ausrichtfehler zwischen ausgerichteten Sensoren zu korrigieren.
  • Gemäß der vorliegenden Erfindung wird ein Bildsensorausrichtsystem bzw. ein Verfahren nach Anspruch 1 bzw. 6 vorgesehen. Bevorzugte Ausführungsbeispiele der Erfindung sind in den abhängigen Ansprüchen offenbart.
  • Die obigen Ziele können mit einem System erreicht werden, welches ein Zufallsrauschtestmuster verwendet, um die Sensoren auszurichten, und zwar durch Ausführungen von mathematischen Kreuzkorrelationen zwischen durch die Sensoren erzeugten gedrehten oder rotierten Bilder. Die Rotations- oder Dreh-Kreuzkorrelation wird dazu verwendet, um Größen der Translations- und Rotationsbewegung eines der Sensoren zu bestimmen, die notwendig ist, um die Sensoren auszurichten. Sobald die Sensoren ausgerichtet sind und fest in einem Platz sich befinden, berechnet das System die Kreuzkorrelation von regionalen Segmenten des Bildes, um die Verzögerungs- und Interpolationsfilterkoeffizientenwerte zu bestimmen. Die Koeffizienten werden dazu verwendet, die sich regional oder räumlich verändernden Ausrichtfehler zu korrigieren.
  • Diese Ziele zusammen mit weiteren Zielen und Vorteilen ergeben sich aus den Einzelheiten des Aufbaus und des Betriebes, was im folgenden näher beschrieben und beansprucht wird, wobei hier Bezug genommen wird auf die beigefügten Zeichnungen, in denen gleiche Bezugszeichen gleiche Teile bezeichnen.
  • Kurze Beschreibung der Zeichnung
  • Fig. 1 zeigt ein Abbildsystem mit Sensoren 10, 12 und 14, die gemäß der Erfindung ausgerichtet werden müssen, und zwar unter Verwendung eines Test- oder Zieltargets 16;
  • Fig. 2 zeigt eine Kreuzkorrelationsoperation, ausgeführt gemäß der Erfindung;
  • Fig. 3 veranschaulicht ein Sensorausrichtziel 16 gemäß der Erfindung;
  • Fig. 4 veranschaulicht die Komponenten in einem Ausrichtsystem 48 gemäß der Erfindung;
  • Fig. 5 ist ein Flußdiagramm des durch den Computer 58 in Fig. 4 ausgeführten Prozesses;
  • Fig. 6 veranschaulicht ein System 118, welches räumlich sich ändernde Fehlausrichtungsfehler korrigiert;
  • Fig. 7 ist ein Flußdiagramm des durch den Computer 58 in dem System der Fig. 65 ausgeführten Prozesses;
  • Fig. 8A und 8B zeigen Einzelheiten einer Korrekturschaltung 122 der Fig. 6;
  • Fig. 9a und 9B veranschaulichen die räumlich sich ändernde Fehlausrichtungsfehlerkorrektur;
  • Fig. 10 veranschaulicht ein 4x4-Filter; und
  • Fig. 11-13 veranschaulichen Filterkoeffizientenbinning (binning bedeutet speichern in einem "bin" oder Speicher).
  • Es seien nunmehr bevorzugte Ausführungsbeispiele der Erfindung beschrieben.
  • Bei der vorliegenden Erfindung handelt es sich um ein System, bei dem Sensoren automatisch in situ mit einem hohen Genauigkeitsgrad ausgerichtet werden. Das System projeziert ein Bild eines speziell konstruierten Testziels oder Testtargets auf die auszurichtenden Sensoren, und zwar durch die Optikmittel, die durch das Abbildsystem verwendet werden. Das Target ist leicht herzustellen, erfordert keine Präzisionsmerkmale und wird auf einem geeigneten Testtargetmedium gebildet, wie beispielsweise Papier. Das System berechnet sodann eine Kreuzkorrelation der Bilddaten aus dem am Platz fixierten Sensor, die als Referenz- oder Bezugssensor bezeichnet wird und der Sensor wird mit dem Bezugssensor ausgerichtet. Die Lage der Spitze in der Kreuzkorrelationsfunktion sieht zwei-dimensionale Information vor, und zwar betreffend die Translationsausrichtung des Sensors, der relativ zum Bezugssensor ausgerichtet ist. Die Dreh- oder Rotationsfehlausrichtung wird dadurch bestimmt, daß man eine Reihe solcher Kreuzkorrelationen berechnet, in denen ein Bild mathematisch in definierten Inkrementen durch die angenommene Ausrichtpositionen verdreht wird. Die Kreuzkorrelation mit der höchsten Spitze liegt am nächsten zu der korrekten Rotationsposition. Eine genauere (d. h. Subpixel)-Ausrichtung kann entweder durch Interpolation der Kreuzkorrelationsfunktionsausgangsgrößen oder durch einen Spitzenverfolgungs- oder Jageprozeß erhalten werden. Sobald der Sensor fest an seinem Platz ist, können basierend auf der höchsten Kreuzkorrelationsfunktionsspitze weitere Kreuzkorrelationsfunktionen für kleine Regionen oder Zonen des in Ausrichtung befindlichen Sensorbildes berechnet werden, um räumlich sich verändernde Fehlausrichtungen oder durch optische Aberrationen im Linsensystem des Abbildsystems hervorgerufene Fehler zu bestimmen. Die Ergebnisse der regionalen Kreuzkorrelation werden dazu verwendet, um Koeffizienten zu erzeugen, und zwar zur Verzögerung und zur zwei-dimensionalen Interpolation der Sensorsignalausgangsgrößen zum Reduzieren von räumlich sich verändernden Fehlausrichtungsfehlern.
  • Die Fig. 1 veranschaulicht ein Einstelltestbett 8, welches zum Ausrichten von roten 10, grünen 12 und blauen 14 Sensoren und deren Befestigung am Platz verwendet wird. In dieser Figur ist angenommen, daß der grüne Sensor 12 der feste oder Bezugssensor ist, obwohl alternativ auch der rote 10 oder blaue 14 Sensor als die Referenz oder Bezugsgröße verwendet werden könnte. Das System weist ein spezielles Ausrichttarget 16 auf, wobei das Bild davon durch eine Linse 18 und ein Strahlenteiler 20 läuft, wobei es sich hier um die Optik für die endgültige Vorrichtung, wie beispielsweise eine Kamera, handeln könnte. Die Sensoren 10, 12 und 14 sind an den drei Austrittsstirnflächen des Strahlenteilers 20 derart positioniert, daß sie in der gleichen Bildebene liegen. Da die Brennweiten (Focus) der Sensoren in der gleichen Ebene des Bildes liegen und keine Kippung besitzen (die Kippung ist vor der Ausrichtung entfernt) sind die verbleibenden Freiheitsgrade für die Sensorfehlausrichtung X und Y (Translation) und φ (Rotation) . Nach dem der Bezugssensor, beispielsweise der grüne Sensor 12, in Position festgelegt ist, beispielsweise dadurch, daß man ihn an dem Strahlenteiler 20 klebt, müssen die anderen beiden Sensoren 10 und 14 genau ausgerichtet werden, so daß sie die gleichen Stellen des Targets 16 tasten oder aber das sich ergebende Farbbild wird als fehlausgerichtet erscheinen. Die Einstellungen der Positionen der Sensoren und 14 werden durch eine Bewegung des Steuersystems ausgeführt, was im einzelnen unter Bezugnahme auf Fig. 2 erläutert wird, und welches Motoren 22 für alle drei Freiheitsgrade einsetzt, die dazu verwendet werden, um die Sensoren in eine Position zu bewegen, welche die Fehlausrichtungsfehler minimiert.
  • Die vorliegende Erfindung basiert auf der Erkenntnis der Erfinder, daß die diskrete mathematische Kreuzkorrelationsfunktion der Bilddaten des Bezugssensors 12 und des in Ausrichtung befindlichen Sensors (10 oder 14) eine genaue Ausrichtzustands-Metrik vorsieht. Die diskrete, 2-dimensionale Kreuzkorrelation der zwei stationären Signale f(x, y) und g(x,y) wird wie folgt definiert:
  • Wenn f(x,y)=g(x,y) dann ist c(x,y) als die Autokorrelationsfunktion bekannt. Wenn ferner c(x,y)=0 für x,y ≠ 0, dann ist f(x,y) das weiße Rauschen mit Nullmittelwert und c(x,y) = Iδ(x,y), wobei I eine Konstante ist, die mit dem Wert des Leistungsspektrums f(x,y) bei allen Frequenzen in Beziehung steht.
  • Da in der Praxis eine begrenzte Pixelzahl in einem Sensor ist, wird die periodische Kreuzkorrelation berechnet. Für zwei gegebene Sensorbilder f(x,y) und g(x,y), jedes der Größe K,L mit zwei Null-erweitererten (padding) Sequenzen gebildet, f (x,y) und g (x,y), jede der Größen M = 2K-1 N=2L-1,
  • wobei M = 2K-1, N=2L-1, wobei sodann gilt:
  • Die periodische Kreuzkorrelation wird wie folgt definiert: c (x,y)=f (x,y)og (x,y) =
  • Die Erweiterung mit Null der Sensordatensequenzen stellt sicher, daß kein Verschiebungsfehler in c (x,y) assoziiert mit der Periodizität der Funktion auftritt. Wenn f(x,y)=g(x,y) und g(x,y) eine Nullmittelwert-Weißrauschsequenz ist, dann würde c (x,y) nicht notwendigerweise O sein für x,y = O, sondern c (0,0), würde der Maximalwert von c (x,y) sein und c (x,y) würde für große K und L Iδ(m,n) annähern. Wenn f(x,y) und g(x,y) Pixelwerte von zwei Idealflächenbildsensoren sind, und jeder Sensor exakt an den gleichen Stellen eines Weiß-Rausch-Bildes tastet ohne Verlust optischer oder elektrische Bandbreite, dann hat die Kreuzkorrelation c (x,y) einen Spitzenwert x=y und nähert sich für große K und L Iδ(x,y). Wenn die zwei Sensoren relativ zueinander einer Translationsbewegung ausgesetzt werden, dann würde die Spitze von c (x,y) eine Translationsbewegung ähnlich der Sensoren ausführen. Somit kann die Spitze der Kreuzkorrelationsfunktion, wenn das geeignete Bild Target oder Ziel gegeben ist, zur Identifikation der relativen Translation zwischen den Bildsensoren verwendet werden.
  • Wenn die zwei Sensoren beide bezüglich einander verdreht oder rotiert und einer Translation unterzogen werden, dann würde die Spitze der Kreuzkorrelationfunktion nicht nur einer Translation unterzogen, sondern in ihrer Amplitude verringert und verbreitert, da die Drehung oder Rotation den Effekt des Ent-korrelierens der Signale haben würde, und insbesondere an Punkten, die von der Drehachse wegliegen. Wenn jedoch eines der Bilder automatisch vorrotiert wird, und zwar in Inkrementen, die das resultierende Bild durch den Punkt der Null-Rotation bezüglich des anderen bringen, und wenn die Kreuzkorrelation zwischen den Referenz- und vorrotierten Bildern für jedes Winkelinkrement ausgeführt wird, dann würde durch die Sequenz die Amplitude der Kreuzkorrelationsspitze ansteigen, ein Maximum in der Nähe perfekter Rotationsausrichtung erreichen und wieder verschwinden. Diese Sequenz ist in Fig. 2 als ein drei-dimensionaler Raum dargestellt. Fig. 2 zeigt die zwei-dimensionalen Kreuzkorrelationsamplitudenwerte für sechs Rotationsinkremente, das heiß, sechs Scheiben 24-34, durch die Rotationskreuzkorrelation. Jede Scheibe zeigt gleiche Amplitudenkonturen der Translationsquerkorrelation. Beispielsweise zeigt die Scheibe 24 drei gleiche Amplitudenkonturen 36-40. Wenn die Rotationskorrelation fortschreitet, zu annähernd der vierten Scheibe 30, so bewegen sich die Konturen dichter zusammen, so daß die Neigung der Kreuzkorrelationsfunktion zu einer Spitze oder Impulskurve fortschreitet und der Maximalwert der Scheibe steigt an. Das Globalmaximum der Rotationskreuzkorrelationen ist der Punkt der Rotation und Translation, das erforderlich ist, um die Sensoren mit dem geringsten Fehlerausrichtungsfehler auszurichten. Mit dieser Sequenz oder Folge von Verarbeitungsschritten wird ein Vektor berechnet, der das Ausmaß der Drehung und Translation der zwei Sensoren bezüglich einander anzeigt, das notwendig für die beste Ausrichtung ist. Wenn die wahre Drehachse der Sensoren nicht die gleiche ist, wie die der mathematischen Rotation, dann müßte der Vektor aus den mathematischen x,y,θ-Koordinaten in die Sensorkoordinaten x',y' und θ transformiert werden.
  • Wenn die Sensoren in einem Ausrichtsystem angebracht sind, in dem die Translation und Rotation der Sensoren relativ zueinander mit einem hohen Ausmaß an Genauigkeit erreicht werden kann, wie dies unter Bezugnahme auf Fig. 4 diskutiert wird, so wird der Vektor verwendet, um die exakte Position zu bestimmen, in der die Sensoren in Ausrichtung sind und das Ausrichtsystem wird dementsprechend betrieben. Um Subpixelgenauigkeit beim Positionsvektor zu erreichen, wird die Interpolation der Kreuzkorrelationsfunktion in der Nähe des globalen Maximums verwendet, um die wahre Spitzenlage abzuschätzen und der Sensor, der ausgerichtet wird, wird in Subpixelinkrementen bewegt. Um Kanteneffekte im rotierten Bild zu vermeiden, wird das rotierte Bild einer Fensterbehandlung unterworfen, derart daß die Kanten außerhalb der Fenstergrenzen sind.
  • Wenn die numerische Genauigkeit der Rotationsberechnungen nicht ausreicht, können kleine Rotationsfehlerausrichtungen schwer durch dieses Verfahren detektiert werden und die Interpolation in der Dreh(θ)-Achse kann gegenüber Rauschen empfindlich sein. Wenn dies für einen bestimmten Sensor der Fall ist, kann dann, sobald die grobe Rotationsfehlerausrichtung korrigiert ist, ein alternatives Verfahren verwendet werden, wo die Kreuzkorrelationsfunktion an Punkten in der Nachbarschaft der Spitze berechnet wird, wobei der in Ausrichtung befindliche Sensor etwas (in einem Subpixelinkrement) gedreht oder rotiert wird, eine neue Kreuzkorrelationfunktion berechnet wird und der Prozeß so lange wiederholt wird, bis das globale Maximum gefunden ist. In bestimmten Situationen ist es auch möglich, eine solche Spitzenjagd oder Verfolgungsoperation auszuführen, bei der der Sensor tatsächlich körperlich bewegt wird, und zwar an Stelle der mathematischen in Fig. 2 veranschaulichten Rotationssequenz. Das bevorzugte mathematische Verfahren der Rotationart wird im einzelnen unter Bezugnahme auf Fig. 5 diskutiert.
  • Das Verhalten der Kreuzkorrelationsfunktion hängt von dem Targetbildinhalt ab. Eine wohl definierte einzige Spitze schmaler Breite in der Autokorrelationsfunktion des Sensorsignals zeigt an, daß benachbarte Tastungen im Bild relativ unkorrigiert sind und die Kreuzkorrelationsfunktion wird sehr empflindlich sein gegenüber unterschiedlichen Taststellen in der Bildebene für die zwei Sensoren. Somit ist ein wichtiges Merkmal der Erfindung die Art des zu verwendenden Targets oder Ziels 16. Ein ideales Target 16 hat die folgenden Qualitäten: 1) Eine zwei-dimensionale Verteilung von reflektierenden (oder durchlässigen) Gebieten oder Flächen im Target ist entweder an regulären Intervallen oder an Zufallsstellen. 2) Für jedes reflektierte (oder durchlässige) Gebiet im Target oder Ziel existiert eine vorbestimmte Wahrscheinlichkeit, daß eine Reflektivität (oder Durchlässigkeit) vorliegt zwischen der minimalen oder maximalen Reflektivität oder Durchlässigkeit, die mit dem Medium erhaltbar ist. 3) Die Eigenschaft, daß die periodische Autokorrelationsfunktion der Targetbilddaten einen idealen Sensor bilden, und zwar in der Bildebene für jeden Sensor Kippwinkel θ, Horizontal position x und Vertikalposition y, 4) Das Spektralansprechen jedes reflektierenden oder durchlässigen Gebietes über den Bereich der durch die Sensoren zu detektierenden Wellenlängen steht in Beziehung mit dem Spektralansprechen irgendeines anderen Gebietes durch einen Skalar. 5) Das durch die Sensoren abgefühlte Target besitzt Subpixelmerkmale, die dadurch erreicht werden können, daß man das Target mit einem geeigneten Abstand vor der Linse anordnet. Ein derartiges Target ist in Fig. 3 dargestellt.
  • Das Target der Fig. 3, welches alle die oben genannten Eigenschaften besitzt, wird, wenn das Target mit einem entsprechenden Abstand vor der Linse angeordnet ist, folgendes fördern: 1) Die zwei-dimensionale Autokorrelationsfunktion jeder Sensorausgangsgröße oder der Kreuzkorrelation der Ausgangsgrößen von zwei perfekt ausgerichteten Sensoren werden so nahe zu einem Impuls sein wie möglich mit einem prominenten globalen Maximum. 2) Die Signale, die durch zwei irgendwelche perfekt ausgerichtete gegenüber unterschiedlichen Wellenlängen empfindliche Sensoren erzeugt sind, werden linear in Beziehung stehen. Das Target der Fig. 3 besitzt die Qualität, daß die reflektierenden Gebiete eine 50%-Wahrscheinlichkeit besitzen, daß sie entweder maximal oder minimal reflektierend sind. Es können jedoch auch andere Wahrscheinlichkeitsdichtefunktionen, wie beispielsweise die gleichförmigen oder Gaus'schen-Verteilungen verwendet werden.
  • Um ein derartiges Target zu erzeugen, wird ein eine Zufallszahlsequenz erzeugendes Computerprogramm verwendet. Die Zahlsequenz wird mit der gewünschten Verteilung (gleichförmig, Gaus'sisch usw.) erzeugt. Sobald die Zahlen erzeugt sind, werden sie in Pixelwerte umgewandelt und in einer Anordnung angeordnet, und zwar durch Füllen der Zahlen der Anordnung mit der Sequenz der Zahlen in der erzeugten Ordnung oder Reihenfolge. Die Pixelwerte werden sodann auf das entsprechende Medium durch einen konventionellen Drucker gedruckt. Das Target in Fig. 3 wurde auf einem konventionellen Laserdrucker gedruckt. Ein Bild eines Fernsehschirmes, das ein Bild auf einem nicht benutzten Kanal erzeugt, oder ein Billd von photographischen Filmkorn könnte auch einige der erwünschten Charakteristika erfüllen.
  • Wie in Fig. 4 gezeigt, umfaßt das Ausrichtsystem 48 der Erfindung konventionelle Signalverarbeitungsvorrichtungen 50 und 52, die das durch die Sensoren 10, 12 und 14 erzeugte Signal konditionieren, beispielsweise durch Ausführung bekannter Verstärkung, korrelierter Doppeltastung und Weißausgleich. Die Ausgangsgröße der Signalprozessoren 50 und 52 wird in digitale Proben (samples) von beispielsweise 8 Bits jeweils durch analoge Digitalumwandler 54 und 56 umgewandelt und an eine Kreuzkorrelationsrecheneinheit 58 geliefert, die vorzugsweise ein Computer, wie beispielsweise eine Sun 4 -Serie Workstation ist. Der Computer berechnet, wie zuvor erwähnt, einen Translations- und Rotationsvektor, der in das Koordinatensystem des auszurichtenden Sensors 10-14 umgewandelt wird und verwendet wird zur Steuerung einer Motorantriebssteuereinheit 60, die bewirkt, daß die Motoren 62, 64 und 66 in einer Ausrichtanordnung oder einem Rahmen den Sensors 10/14 zur gewünschten Stelle bewegen, wo der Fehlausrichtungsfehler am meisten reduziert wird. Eine geeignete Motorantriebssteuerschaltung 60 und Motoren 62, 64 und 66, die in der Lage sind, Bewegungsinkremente (1/10 Mikron) vorzusehen, sind von der Firma Kilinger Scientific of Gareden City, New york, USA, erhältlich. Es ist auch möglich, eine Anzeige 68 vorzusehen, die dazu verwendet werden kann, um eine Ausgangsgröße zu liefern, ähnlich den Drehscheiben der Fig. 2, die graphisch den Ausrichtspunkt zwischen durch die Sensoren erzeugte0n Bildern produzieren würden.
  • Ein Computer 58 des Ausrichtsystems 48 der Fig. 4 startet, wie in Fig. 5 gezeigt, durch Erfassen 82 und 84 der Bilder vom Referenzsensor 12 und vom Sensor 10/14 unter Ausrichtung. Das System initialisiert dann eine Rotationsvariable. Für einen Mega-Pixelsensor, wie beispielsweise den KAI-1000-Sensor der Firma Eastman Kodak Company, Rochester, New York, ist ein Rotationswinkel (θ) von 2º in Inkrementen von 0,10 geeignet. Andere Sensoren können unterschiedliche Winkel und Inkremente erforderlich machen, um die adequate Rotationsstastung zu erhalten. Sodann tritt das System in eine Schleife ein, in der die Kreuzkorrelation für jedes Rotationsinkrement ausgeführt wird. Das Bild vom Sensor, der ausgerichtet wird, wird gedreht, und zwar zur geeigneten Position durch Translation des Bildes ausreichend, um die gewünschte Rotation zu erreichen. Als nächstes berechnet das System die Kreuzkorrelation zwischen dem in Ausrichtung befindlichen Sensor und dem Referenzmotor. Dieser Schritt ist rechnermäßig sehr intensiv, wie man aus Gleichung 4 oben erkennen kann. Eine Berechnung mit "brutaler" Kraft der Gleichung 4 umfaßt, wie ein Fachmann erkennt, eine Schleife innerhalb einer Schleife, während welcher das Bild um ein Pixel in der X-Richtung verschoben wird und das Produkt entsprechender Pixel wird akkumuliert und gespeichert. Dieses gespeicherte Resultat sieht einen Punkt in der zwei-dimensionalen Kreuzkorrelationsfunktion oder Ausgangsgröße vor. Diese Schleife wird fortgesetzt, bis das Bild verschoben ist und Punkte der Funktion, beispielsweise in X-Richtung, über den die Gleichung 4 erforderlichen Bereich gespeichert sind. Sodann wird das Bild um ein Pixel in der äußeren Schleife in orthogonaler Richtung verschoben, beispielsweise der Y-Richtung. Das System tritt ein in die X-Pixelverschiebung und Akkumulationsschleife und berechnet eine weitere Serie von Punkten der Funktion. Die Ausgangsgröße ist eine Serie von Korrelationswerten, die sowohl X- als auch Y-Koordinaten assoziiert damit besitzen. Wenn diese Werte in einer Anordnung gespeichert werden, in der die Zeilen und Spalten der Anordnung den X- und Y-Positionen der Pixel in dem Bezugsbild entsprechen, dann sind die Zeilen- und Spaltenindices des Maximalwertes die Spitze in Korrelation zwischen dem Bezugssensor und dem in Ausrichtung befindlichen Sensor.
  • Sobald die zwei-dimensionale Kreuzkorrelation zwischen den verdrehten Bildern erhalten ist, werden die gespeicherten Ergebnisse (der Anordnung) abgetastet 92, um die Spitze in der Funktion zu detektieren und die Translationsposition und die Rotationsposition der Spitze wird aufgezeichnet. Eine drei-dimensionale Nachbarschaft von Kreuzkorrelationswerten zentriert an der Spitze werden für die spätere Interpolation gespeichert 93. Die gleiche Nachbarschaft wird für darauffolgende Iterationen verwendet. Das System inkrementiert 94 dann die Rotationsvariable. Sodann bestimmt das System, ob die Rotationsvariable anzeigt, daß eine volle Rotationsspanne vollendet ist. Wenn nicht, wird die Schleife wiederum ausgeführt. Wenn die volle Rotationsspanne vollendet ist, werden die gespeicherten Spitzenresultate der Rotationen abgetastet 98, um das globale Maximum in der Spitze zu bestimmen, die ein ganzzahliger Wert von Anordnungzeilen und -spalten und ein Realwert des Rotationswinkels ist. Das System führt dann eine konventionelle Linearinterpolation aus, und zwar mit Korrelationswerten in der drei-dimensionalen Nachbarschaft der Spitze und bestimmt die wahre Spitze. Die Anzahl der auf jeder Seite der Spitze gespeicherten Punkte hängt von der Natur der verwendeten Interpolation ab und mindestens eine Interpolation sollte verwendet werden. Dieser Schritt erzeugt die Subpixelausrichtung.
  • Sobald eine wahre Spitze bestimmt ist, wird die Verschiebung des Sensors als ein Verschiebungsvektor berechnet. Dieser Schritt umfaßt die Verwendung der realen oder teilweisen Zeilen- und Spaltenstelle der interpolierten Spitze zur Berechnung der X- und Y-Bewegungsabstände zur Mitte des Bildsensors und den Bewegungabstand notwendig zur Ausführung der gewünschen Rotation. Der Verschiebevektor wird dazu verwendet, die Treibersignalwerte für die Motoren 62, 64 und 66 zu bestimmen. Die Treibersignalwerte werden an die Steuereinheit 60 angelegt, um den Sensor in Ausrichtung zu bewegen. Der nächste Schritt 106 ist ein wahlweiser Schritt, während welcher die Schritte 82-100 ausgeführt werden können, wiederum zur Prüfung der Ausrichtbewegung. Alternativ kann ein konventioneller Spitzenjage- oder-verfolgungsvorgang verwendet werden, um die Ausrichtung fein abzustimmen. Sobald der Sensor in seine endgültige Position bewegt wird, ist er an seinem Platz beispielsweise durch Kleben des Sensors an den Strahlenteiler fixiert.
  • Die obige Beschreibung der vorliegenden Erfindung beschrieb die Berechnung des Kreuzkorrelationsschrittes 90 unter Verwendung einer einfachen Berechnung mit "brutaler Kraft", bei der einzelne Bildpixel von den Sensoren multipliziert und dann summiert werden. Dieser direkte Multiplikationsrechnungsvorgang ist der rechnermäßig am wenigsten effiziente für Bilder, wie beispielsweise das bevorzugte Testtarget, da ein M mal N-Bild M² Nn² Multiplikationen erforderlich machen würde. Ein rechnermäßig effizienterer Lösungsvorschlag besteht darin, eine diskrete Fourier-Transformation jedes erzeugten Bildes vorzusehen, wobei die transformierten Bilder multipliziert werden und sodann die inverse Transformation des Produkts erzeugt wird. Dies erfordert annährend mn(1+1,5 log&sub2;(MN))-Komplexmultiplikationen, was eine signifikante Reduktion gegenüber der Lösung mit "roher Kraft" ist. Eine rechnermäßig noch effizientere und bevorzugte Lösungsmöglichkeit besteht darin, daß man eine differentiale Kreuzkorrelation der folgenden Formel ausführt:
  • c=ΣΣ f-g (5)
  • Diese Lösungsmöglichkeit erfordert keine Multiplikationen. Anstelle einer Spitze würde dieses System jedoch ein Minimum erzeugen, wenn die Korrelation die größte ist.
  • Die obige Diskussion umfaßte die Berechnung der Korrelation für das gesamte Bild mit Nullerweiterung (Null-padding) um das Bild herum. In vielen Fällen könnte die anfängliche Fehlausrichtung auf eine relativ kleine Region eingeschränkt werden, und zwar entsprechend zur Mitte der Kreuzkorrelationsmatrix. Beispielsweise könnte die Ausrichtungseinspannvorrichtung eine Anfangsfehlausrichtung von nur +/- 10 Pixel sowohl horizontal als auch vertikal zulassen. In einer solchen Situation ist es nicht notwendig, die Korrelationsfunktion irgendwo außerhalb eines 20x20-Fensters zentriert am Ursprung der Korrelationsfunktion zu berechnen. Wenn eine solche Situation beständig existiert, können die Zahl der für eine Korrelation notwendigen Berechnungen wesentlich reduziert werden.
  • Wegen der lateralen chromatischen Aberrationen echter Kameralinsen und Strahlteiler ist es unmöglich, die Bilder für Mehrfachsensoren 10, 12 und 14 über das gesamte Feld des Bildes perfekt auszurichten. Das hier beschriebene Sensorausrichtverfahren minimiert die Gesamtgröße der Bildfehlausrichtung und liefert typischerweise gute Ausrichtung in der Mitte des Feldes. Die Ecken des Feldes könnten jedoch signifikante Fehlausrichtung zeigen. Ein Verfahren zur Reduzierung der Fehlausrichtung in den Ekken des Feldes oder Bildes wird im einzelnen unter Bezugnahme auf die Fig. 6-8 beschrieben. Bei diesem Verfahren wird das Bild in viele kleine Regionen gleicher bzw. ähnlicher Größe unterteilt und die zuvor (ohne Rotation) beschriebene Kreukorrelationsfunktion wird für jede der Regionen berechnet. Die Resultate der Korrelationsfunktion zeigen die relative Fehlausrichtung der zwei Sensoren in der für die Berechnung verwendeten Region. Diese Information wird sodann dazu verwendet, geeignete Verzögerungen und Filterkoeffizienten zu berechnen, und zwar für eine zwei-dimensionale Interpolationsschaltung, die Bildpixel des zweiten Sensors in der Region des Bildes örtlich oder regional verschiebt, um die Fehlausrichtungsfehler zwi schen den zwei Bildern weiter zu reduzieren.
  • Fig. 6 veranschaulicht ein System 118, welches eine modifizierte Version des Systems 58 der Fig. 4 ist, welches sobald der in Ausrichtung befindliche Sensor am Platz fixiert ist, regionale oder räumlich sich ändernde Fehlausrichtungsfehler korrigiert. Die Kreuzkorrelationsrecheneinheit 58 dieses Ausführungsbeispiels führt regionale oder örtliche Korrelationen aus, und zwar zwischen den durch den Bezugssensor 12 und die ausgerichteten Sensoren 10-14 erzeugten Bilder. Die regionalen Kreuzkorrelationsmaxima werden dazu verwendet, um Verzögerungswerte und Interpolationskoeffizientenwerte zu berechnen, die in einer Korrekturwertspeichereinheit 120 gespeichert sind, die vorzugsweise eine permanente Speichervorrichtung, wie beispielsweise ein ROM ist. Nachdem die Korrekturwerte bestimmt sind, und wenn das Abbildsystem in eine Vorrichtung, wie beispielsweise eine Kamera, eingebaut ist, so ist die Kreuzkorrelationsrecheneinheit 58 entfernt und die Werte im Speicher 120 werden dazu verwendet, um Korrekturwerte für eine Fehlausrichtungskorrekturschaltung 122 vorzusehen, die in Assoziation mit einer festen Verzögerungseinheit 124 eine Realzeitinterpolation der Ausgangsgrößen von den ausgerichteten Sensoren 10-14 ausführt, wenn das Bild in der Vorrichtung, wie beispielsweise einer Kamera, getastet wird.
  • Der durch die Kreuzkorrelationsrecheneinheit 58 in der Fig. 6 ausgeführte Prozeß ist in Fig. 7 dargestellt. Die Schritte 132 und 134 sind identisch mit den Schritten 82 und 84 in Fig. 5. Sobald die Bilder von den Sensoren erhalten sind, wird das Bild in einer Anzahl K-Blöcke unterteilt, wobei jeder Block beispielsweise 16x16 Pixel haben kann. Die Dimensionen der Blockes müssen basierend auf den Optikmitteln des Systems derart gewählt sein, daß die Aberrationen nicht signifikant innerhalb des Blockes variieren oder isotrop innerhalb der Region des Bildes innerhalb jedes Blockes sind. Diese Blöäcke können benachbart zueinander lokalisiert sein und von gleichförmiger Größe sein. Es ist auch möglich, überlappende Blökke oder Blöcke unterschiedlicher Größe in unterschiedlichen Regionen des Bildes zu verwenden, beispielsweise in der Mitte und in den Eckregionen. Der gesamte Sensor könnte auch in Blöcken vorgesehen sein. Für jeden der Blöcke wird die Kreuzkorrelation berechnet 136, und zwar in einer Art und Weise, ähnlich oder gleich den Schritten 88-96 der Fig. 5. Als nächstes bestimmt 138 das System, die Spitzen der Kreuzkorrelationsfunktion für jeden der Blöcke durch Ausführen der Schritte 98 und 100 der Fig. 5. Sodann berechnet das System einen Verzögerungswert und Interpolationsfilterkoeffizienten für jeden der Blöcke von Pixeln und speichert 142 diese Werte in Korrekturwertspeichereinheit 120. Die durch die Einheit 124 vorgesehene feste Verzögerung wird auf eine Verzögerung eingestellt gleich dem Maximum des erwarteten Fehlausrichtungswertes für irgendeinen der K-Blöcke.
  • Fig. 8 (einschließlich der Fig. 8A und 8B) veranschaulichen die Komponenten der Fehlausrichtungskorrekturschaltung 122 in Fig. 6 einschließlich einer zwei-dimensionalen 3x3-Interpolationsvorrichtung 148. Diese Korrekturschaltung 122 weist auch eine Verzögerungseinheit 150 auf, die in der Lage ist, eine einstellbare Mehrfachzeilenverzögerung vorzusehen, und zwar plus einer einstellbaren Mehrfachpixelverzögerung für die Pixelwerte von A/D 56 in Fig. 6. Diese Einheit liefert eine Eingangsgröße an eine Einzelpixelverzögerungseinheit 152, die eine weitere Einzelpixelverzögerungseinheit 154 beliefert. Die Einheit 150 beliefert auch eine Einzelzeilenverzögerungseinheit 156, die serienmäßig die Einzelpixelverzögerungseinheit 158 und 160 speist. Die Einzelzeilenverzögerungseinheit 156 liefert auch eine Ausgangsgröße an die Einzelzeilenverzögerungseinheit 162, die serienmäßig Einzelpixelverzögerungseinheiten 164 und 166 beliefert. Die Ausgangsgröße der Verzögerungsschaltung 150-166 werden an insgesamt neun Multiplizierer geliefert, von denen drei als Multiplizierer 168-172 dargestellt sind, die die verzögerten Pixel mit den neun Filterkoeffizienten gespeichert in der Speichereinheit 120 multiplizieren. Die Ausgangsgrößen der Multiplizierer 168-170 werden durch eine konventionelle Addiervorrichtung 174 addiert und als das Realzeitfehlerausrichtungsfehler korrigierte Signal ausgegeben.
  • Der Betrieb der Fehlausrichtungskorrektursfhaltung 122, durch die die räumlich sich ändernden Fehlausrichtungsfehler für jeden Block von Pixeln korrigiert werden, wird unter Bezugnahme auf die Fig. 9A und 9B beschrieben. Fig. 9A zeigt ein zwei-dimensionales Gitter von Photoplätzen oder -stellen 310, wobei die Zeilen als Linien O bis 5 numeriert sind und die Spalten als Pixel O bis 5 numeriert sind. Das Gitter wird verwendet, um graphisch die relativen Differenzen bei den Korrelationsspitzen darzustellen, und zwar zwischen dem Bezugssensor 12 in Fig. 6 und dem Sensor 10 oder 14, der räumlich sich verändernde Fehlausrichtungsfehler zeigt, und zwar bezüglich des Bezugssensors 12. Das 3 Zeilen x 3 Pixel abgedunkelte Gitter 310 zeigt die räumlichen Stellen der Pixel P O,O bis p 2,2 vorgesehen für die Eingänge der Multipliziervorrichtun- gen 168-172 in Fig. 8, wenn ein einstellbarer Verzögerungswert von zwei Zeilen (Linien) (angedeutet durch den Pfeil 312) plus zwei Pixel (angezeigt durch Pfeil 314) verwendet wird. Der Punkt 320 in Fig. 9A zeigt die Stelle der Korrelationspitzenposition für die genaue Ausrichtung der zwei Sensoren. Im allgemeinen werden die Korrelationsspitzen für jeden der Blöcke von Pixeln in unterschiedlichen Regionen des Bildes normalerweise nicht mit dem Punkt 320 zusammenfallen, sondern stattdessen an nahegelegenen Stellen zerstreut sein, beispielsweise an den Punkten 322, 324, 326 und 328, die Korrelationsspitzen von vier unterschiedlichen Blöcken von Pixeln in unterschiedlichen Gebieten des Bildes repräsentieren.
  • Wenn für einen gegebenen Block des Bildes die Korrelationsspitzenposition nicht genau mit der Referenzsensorkorrelationsspitze 320 zusammenfällt (d. h.. die zwei Sensoren sind in dieser Region oder Zone des Bildes gut ausgerichtet), und die feste Verzögerung 124 in Fig. 6 gleich 3 Zeilen plus 3 Pixel (um die Korrektur von Fehlern bis zu ± drei Zeilen (Linien) in Vertikalrichtung und ± drei Pixeln in Horizontalrichtung zu gestatten), so arbeitet die Schaltung der Fig. 8 wie folgt. Der Verzögerungswert für die einstellbare Verzögerung 150 in Fig. 8 wird auf gleich 2 Zeilen plus zwei Pixel eingestellt und die Koeffizienten P0,0 bis P2,2 sind alle gleich Null eingestellt mit Ausnahme für den Koeffizienten P1,1, der gleich eins gesetzt ist. Dieses liefert eine zusätzliche 1 Zeile (Linie) plus 1 Pixelverzögerung. Daher ist die Gesamtverzögerung vorgesehen durch die Fehlausrichtungsschaltung 122 in Fig. 6 gleich 3 Zeilen plus 3 Pixel, was genau der Verzögerung entspricht, die durch die feste Verzögerung 124 vorgesehen ist. Diese Verzögerung und Koeffizientenwerte werden für alle Pixel des Blocks verwendet.
  • Für Blöcke, wo die Korrelationsspitzenposition nicht der Referenzsensorkorrelationsspitze entspricht, werden die Einstellungen des einstellbaren Verzögerungswertes und die Koeffizienten P0,0 und P2,2 eingestellt, um diese Differenz zu kompensieren. Dies wird in zwei Stufen getan. Die erste Stufe besteht darin, daß der einstellbare Verzögerungswert genau eingestellt wird, was gestattet, daß die Fehlausrichtung innerhalb eines Abstandes gleich dem Pixelabstand des Sensors korrigiert wird. Dies ist graphisch in Fig. 9B dargestellt. Der einstellbare Verzögerungswert ist nunmnehr auf drei Zeilen (angedeutet durch Pfeil 312) plus drei Pixel (angedeutet durch Pfeil 314) eingestellt. Dies zentriert das 3x3-Interpolationsschaltungs-"Fenster" über der Korrelationsspitze 328 dieses Blockes. Der zweite Schritt besteht darin, hinsichtlich der Subpixel bemessenen Differenz zu korrigieren, und zwar zwischen der Stelle der Korrelationsspitze 328 und der Mitte des Pixels angedeutet durch Punkt 330. Diese Korrelation erfolgt durch richtiges Einstellen der Werte der Interpolationskoeffizienten P00 bis P22. Die zur Berechnung dieser Interpolationskoeffizienten verwendeten Techniken sind auf dem Gebiet der Technik bekannt und in Beispiel in der folgenden Literatur beschrieben: "Digital Image Processing" von William K. Pratt, John Wiley & Sons, New York, 1978; diese Literaturstelle ist durch Bezug in die vorliegende Anmeldung aufgenommen.
  • Das vorherige Interpolationsverfahren und die Vorrichtung führt eine 3x3 zwei-dimensionale Interpolation aus, und zwar unter Verwendung eines nicht-trennbaren Kerns. Eine bevorzugte Möglichkeit zur Subpixelausrichtungskorrektur besteht in der Verwendung von Koeffizienten-Bins zur Schaffung von Koeffizienten für ein trennbares 4x4 Interpolationsfilter. Bei dieser Möglichkeit würden die Schritte 140 und 142 der Fig. 4 die Verzögerung und X-, Y-Bins für jeden der Pixelblöcke berechnen und speichern. Die Interpolation mit dem Koeffizienten "binning" wird im einzelnen in folgender Literaturstelle diskutiert: "Resampling Algorithm for Image Resizing and Rotation" vom Ward et al. SPIE Proceedings, Band 1075, Seiten 260-269, 1989; diese Literaturstelle wird durch Bezugnahme in die Offenbarung des voprliegenden Patentes mit aufgenommen. Sobald die Koeffizienten bestimmt sind, kann eine Schaltung, wie in Fig. 10 gezeigt, verwendet werden. Diese Fehlausrichtungskorrekturschaltung 180 weist eine einstelblare Verzögerungseinheit auf, die ähnlich der einstellbaren Verzögerung 150 in Fig. 9 ist und drei Einzelzeilen oder Linienverzögerungseinheiten 184-188 aufweist. Diese Einheiten liefern Ausgangsgrößen an Multipliziervorrichtungen 190-196, die vertikale Interpolationskoeffizienten (V&sub1;-V&sub4;) an verzögerte Pixelwerte anlegen. Eine Addiervorrichtung 198 summiert die Multipliziererausgangsgröße, um eine vertikale ein-dimensionale Interpolation vorzusehen. Das vertikale interpolierte Signal wird sodann an die Pixelverzögerungseinheit 200-204 geliefert. Der vertikale interpolierte Pixelwert und die Ausgangsgrößen der Pixelverzögerungseinheiten 200-204 werden an die Multipliziervorrichtung 206 bis 212 angelegt, die die horizontalen Koeffizienten (H&sub1;-H&sub4;) anlegen. Die Addiervorrichtung 214 summiert die Multipliziervorrichtungsausgangsgröße und erzeugt horizontal interepolierte Pixelwerte.
  • Die Filterkoeffizienten V&sub1;-V&sub4; und H&sub1;-H&sub4; werden durch die Koeffizientenspeicher 400 und 410, die in Fig. 11 gezeigt sind, vorgesehen. Die Speicher sind als nur Lesespeicher (ROM)-Schaltungen dargestellt, und zwar jede mit vier Eingangsadressenleitungen und vier 16 Bit Ausgangsleitungen, die vier Koeffizientenwerte vorsehen. Für jeden Pixelblock müssen daher nur die 4 Bit vertikal "Bin" und die 4 Bit horiontal " Bin" Werte gespeichert werden anstelle der tatsächlichen Koeffizientenwerte. Dies reduziert in signifikanter Weise den erforderlichen Speicher. Fig. 12 zeigt wie das Binning-Verfahren verwendet wird, um die Subpixel bemessene Differenz zwischen der Lage oder Stelle der Korrelationsspitze 328 und der Mitte des Pixels, angedeutet durch Punkt 330, zu bemessen, und zwar im Gegensatz zu dem zuvor unter Bezugnahme auf Fig. 8 beschriebenen Verfahren. Das Gebiet innerhalb des Pixels wird in 16 horizontale und 16 vertikale Pixel "Bins" unterteilt. Die Korrektur des Pixelblockes mit Korrelationsspitze 328 wird durch Speichern im Speicher 120 der Fig. 6 erreicht, und zwar des horizontal "Bin" Werts (gleich 12) und des vertikal "Bins" Werts (gleich 13), und auch eines entsprechenden Wertes für die einstellbare Verzögerung 150. Wenn die Pixel des Blockes in der Korrekturspitze 328 durch die Schaltung in Fig. 10 verarbeitet werden, so werden die gespeicherten Horizontal- und Vertikal-Bin-Werte verwendet, um den Speicher 400 anzuadressieren, der die korrekten Koeffizientenwert V&sub1;-V&sub4; und H1-H&sub4; für die Schaltung 180 vorsieht.
  • Die Fehlausrichtungskorrekturschaltung gemäß Fig. 10 besitzt bezüglich der Schaltung gemäß den Fig. 8A und 8B zwei Vorteile. Zum ersten gestattet die Verwendung des "Binning" weniger Speicher zu verwenden zum Speichern der Korrekturwerte für jeden Block. Zweitens reduzieren die trennbaren Interpolationsfilter die Anzahl der erfordenichen Multiplizierervorrichtungen.
  • Wenn die zur Ausführung der regionalen Kreuzkorrelationsfunktion verwendeten Pixelblöcke groß genug sind, so daß die Ausrichtungsänderung innerhalb eines Blockes signifikant sind, so kann die Fehlausrichtungg nicht perfekt korriegiert werden unter Verwendung des so weit beschriebenen Verfahrens. Eine Möglichkeit der Korrektur der Fehlausrichtung besteht in der Verwendung kleinerer Blökke. Dies vergrößert jedoch die Größe der Korrekturwertspeicher 120 in ig. 6 und verkleinert die Präzision der Kreuzkorrelationfunktion. Eine bevorzugte Möglichkeit ist die Interpolation neuer Fehlausrichtungswerte für alle Pixel in dem Bild unter Verwendung der Fehlausrichtungswerte berechnet für die nächsten benachbarten Pixelblöcke. Fig. 13 zeigt eine mögliche Implementierung, wo die relative Horiontalposition innerhalb eines Blocks und die Werte des Hotizontal "Bin" des laufenden Blockes und die des am nächsten horizontal benachbarten Blockes verwendet werden als Adressen für eine Nachschautabelle (ROM 412) als eine linear interpolierte horizontale "Bin" Ausgangsgröße für jedes Pixel vorsieht und die relative vertikale Position innerhalb eines Blockes und die Werte der vertikal "Bin" des laufenden Blockes und des nächsten vertikal benachbarten Blockes werden als Adressen für die Nachschautabelle (ROM 414) verwendet als eine linear interpolierte vertikale "Bin" Ausgangsgröße jedes Pixels vorsieht.
  • Linsen mit variabler Brennweite (d. h. Zoom) Linsen, besitzen typischerweise chromatische Aberrationen, die sich als eine Funktion der Brennweiten ändern. Wenn daher die Linse 18 in Fig. 6 eine Zoom-Linse ist, dann führt die Korrelationsberechnungseinheit 50 die regionalen Kreuzkorrelationen für eine Anzahl (beispielsweise 16) unterschiedliche Zoom-Einstellungen aus. Die Korrekturwerte für jede Zoom-Einstellung werden in dem Korrekturwertspeicher 120 gespeichert und die der tatsächlichen Zoom- Einstellung nächsten Korrekturwerte werden zu irgendeiner gegebenen Zeit an die Schaltung 122 angelegt.
  • Obwohl die Schaltungen gemäß Fig. 6 die Kreuzkorrelationsfunktion verwendet haben, um die relative Fehlausrichtung zwischen unterschiedlichen Blöcken im Bild zu bestimmen, können stattdessen auch andere Verfahren verwendet werden, um die Fehlausrichtungswerte zu bestimmen. Die vorliegende Erfindung wurde unter Bezugnahme auf die Ausführung einer Kreuzkorrelation zwischen Bildern des Targets, erzeugt durch die Sensoren, verwendet. Die Verwendung der Differentialkreuzkorrelation wird bevorzugt, obwohl andere Arten von Korrelationsfunktionen verwendet werden können. Wenn eine Zoom-Linse anstelle der festen Linse, wie zuvor erwähnt, eingesetzt würde, so ist ein unterschiedlicher Satz von Korrekturwerten für jede unterschiedliche Vergrößerung erforderlich und Korrekturwerte am dichtesten zu der tatsächlichen Zoom-Einstellung werden vorzugsweise verwendet. Es können jedoch die Korrekturwerte zwischen den Zoom-Einstellungen durch Linearinterpolation erzeugt werden.
  • Die vielen Merkmale und Vorteile der Erfindung ergeben sich aus der ins einzelne gehende Beschreibung und die beigefügten Ansprüche sollen alle diese Merkmale und Vorteile der Erfindung abdecken. Da ferner zahlreiche Modifikationen und Änderungen dem Fachmann ohne weiteres zur Verfügung stehen, ist es nicht erwünscht, die Erfindung auf die dargestellte und beschriebene exakte Konstruktion und die entsprechende Arbeitsweise einzuschränken.

Claims (9)

1. Bildsensorausrichtsystem (48), welches folgendes aufweist:
einen Bezugs- oder Referenzsensor (12), der ein in Blöcke unterteiltes Referenzbild erzeugt;
einen ausrichtbaren Sensor (10, 14) der ein in Blöcke unterteiltes ausrichtbares Bild erzeugt;
ein Bildsensorausrichtziel oder Target (16) zur Kreuzkorrelationsausrichtung der Referenz- und ausrichtbaren Sensoren (12; 10, 14), wobei das Target (16) folgendes aufweist:
ein Substrat; und
auf dem Substrat gebildete für weißes Rauschen reflektierende oder durchlässige Gebiete von Subpixelgröße, wobei ein spektrales Ansprechen jedes Gebietes über einen Bereich von Wellenlängen detektiert durch die Bezugs- und Ausricht- oder ausrichtbaren Sensoren (12; 10, 14) in Beziehung steht mit dem spektralen Ansprechen jedes anderen Gebietes um einen Skalar, wobei jedes Gebiet eine vorbestimmte Wahrscheinlichkeit des Aufweisens einer Reflexionsvermögen (Reflexionsgröße) oder Durchlässigkeit besitzt, und zwar zwischen einem maximalen Reflexionsvermögen oder Durchlässigkeit erhältlich mit dem Substrat, und wobei die Gebiete an Zufallsstellen angeordnet sind und wobei wenn Bilder des Targets (16) durch die Referenz- und Ausrichtsensoren (12; 10, 14) erzeugt werden eine periodische Autokorrelation der Bilder, wenn diese perfekt ausgerichtet sind, eine hervorstechende Spitze besitzt;
Ausrichtkorrelationsmittel (58) zur Bestimmung der Rotations-Translations-Kreuzkorrelation zwischen dem Referenzbild und dem ausrichtbaren Bild;
Sensorausrichtmittel (22; 62, 64, 66) zur Bewegung des Ausrichtsensors (10; 14) in Ausrichtung ansprechend auf die Rotations-Translations-Kreuzkorrelation und zur Erzeugung von ausgerichteten Sensoren.
2. Bildsensorausrichtsystem nach Anspruch 1, wobei ferner folgendes vorgesehen ist:
Korrekturkorrelationsmittel (122) zur Bestimmung von Korrekturkreuzkorrelationen zwischen entsprechenden Blöcken der Bilddaten erzeugt durch die ausgerichteten Sensoren;
Koeffizientenmittel zur Bestimmung von Korrekturwerten für entsprechende Blöcke ansprechend auf die Korrekturkreuzkorrelationen; und
ein Koeffizienten-Interpolationsfilter (Koeffizienten "bin" Interpolationsfilter) zur Korrektur von Fehlausrichtungsfehlern unter Verwendung der Korrekturwerte.
3. System nach Anspruch 2, wobei die Korrekturkorrelationsmittel eine Translationskreuz- oder querkorrelation für jeden Block ausführen.
4. System nach einem der vorhergehenden Ansprüche, wobei ferner ein Korrekturwertspeicher (120) vorgesehen ist, der zwischen die Fehlerbestimmungsmittel und die Korrekturschaltung geschaltet ist.
5. System nach einem der vorhergehenden Ansprüche, wobei die Korrekturschaltung eine zweidimensionale Interpolationsschaltung aufweist.
6. Ein Bildsensorausrichtverfahren, wobei folgende Schritte vorgesehen sind:
(a) Erhalt von Referenz- und Ausrichtbildern von einem Paar von Sensoren (12; 10, 14) die ausgerichtet werden sollen und Abfühlen eines Ziels oder Targets (16), wobei folgendes vorgesehen ist:
ein Substrat; und
für weißes Rauschen refklektierende oder durchlässige Gebiete von Subpixelgröße gebildet auf dem Substrat, wobei ein Spektralansprechen jedes Gebietes über einen Bereich von Wellenlängen detektiert durch die Referenz- und ausrichtbaren Sensoren (12; 10, 14) in Beziehung steht mit dem Spektralansprechen jedes anderen Gebietes um einen Skalar, wo jedes Gebiet eine vorbestimmte Wahrscheinlichkeit für den Besitz eines Refxionsvermögens oder einer Durchlässigkeit besitzt, und zwar zwischen einem maximalen Reflexionsvermögen oder Durchlässigkeit erhältlich mit dem erwähnten Substrat, und wobei die Gebiete an Zufallsstellen angeordnet sind und wobei dann, wenn Bilder des Targets (16) durch die Referenz und ausrichtbaren Sensoren erzeugt werden eine periodische Autokorrelation der Bilder eine deutliche oder herausragende Spitze zeigt, wenn die Bilder sich in perfekter Ausrichtung befinden;
(b) Bestimmung einer Spitze oder eines Spitzenwertes in der Kreuzkorrelation der Bezugs- und Ausrichtbilder;
(c) Drehen des Ausrichtbildes;
(d) Wiederholen der Schritte (b) und (c) und Erzeugung einer Vielzahl von Spitzen bis eine vorbestimmte Drehung zwischen den Bezugs- und Ausrichtbildern überschritten ist;
(e) Bestimmen einer maximalen Spitze; und
(f) Bewegen eines der Sensoren (10, 14) ansprechend auf die Maximalspitze.
7. Verfahren nach Anspruch 6, wobei der Schritt (b) das Speichern von Korrelationsdaten in der Nähe des Spitzenwertes umfaßt und wobei das Verfahren ferner vor dem Schritt (f) den Schritt des Interpolierens umfaßt, und zwar unter Verwendung der Korrelationsdaten und des maximalen Spitzenwertes zur Bestimmung eines interpolierten Spitzenwertes, wobei Schritt (f) den einen der Sensoren bewegt, und zwar ansprechend auf den interpolierten Spitzenwert.
8. Verfahren nach Anspruch 6 oder 7, wobei der Schritt (e) eine Spitzenwertverfolgung ausführt.
9. Verfahren nach einem der Ansprüche 6 bis 8, wobei ferner folgendes vorgesehen ist:
(g) Festlegen eines der Sensoren (12) in einer festen Position;
(h) Erhalt von Korrekturbildern von den Sensoren die das Ziel oder Target (16) abfühlen, wobei die Korrelationsbilder in entsprechende Blöcke unterteilt sind;
(i) Bestimmung der Kreuzkorrelationsspitzen zwischen entsprechenden Blöcken;
(j) Erzeugung von Fehlausrichtungskorrekturwerten für die entsprechenden Blöcke aus den Kreuzkorrelationsspitzen; und
(k) Interpolation der Bilder erzeugt durch einen der Sensoren ansprechend auf die Korrekturwerte.
DE69215760T 1991-06-10 1992-06-02 Kreuzkorrelationsausrichtsystem für einen Bildsensor Expired - Fee Related DE69215760T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US71286591A 1991-06-10 1991-06-10

Publications (2)

Publication Number Publication Date
DE69215760D1 DE69215760D1 (de) 1997-01-23
DE69215760T2 true DE69215760T2 (de) 1998-02-05

Family

ID=24863873

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69215760T Expired - Fee Related DE69215760T2 (de) 1991-06-10 1992-06-02 Kreuzkorrelationsausrichtsystem für einen Bildsensor

Country Status (4)

Country Link
US (1) US5453840A (de)
EP (1) EP0518185B1 (de)
JP (1) JPH05183916A (de)
DE (1) DE69215760T2 (de)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0614313A1 (de) * 1993-03-01 1994-09-07 Koninklijke Philips Electronics N.V. Ausrichtung von Bildsensoren
JPH06324007A (ja) * 1993-03-01 1994-11-25 Philips Electron Nv 画像検知装置
DE69526635T2 (de) * 1994-12-29 2002-12-05 Koninklijke Philips Electronics N.V., Eindhoven Bilderzeugungsgerät und Verfahren zur Verbesserung geometrischer optischer Bildverzerrungen
US5821993A (en) * 1996-01-25 1998-10-13 Medar, Inc. Method and system for automatically calibrating a color camera in a machine vision system
US5850486A (en) * 1996-04-29 1998-12-15 The Mclean Hospital Corporation Registration of image data
US6178271B1 (en) 1996-04-29 2001-01-23 The Mclean Hospital Corporation Methods and systems for registering image data
CA2264777A1 (en) * 1996-09-30 1998-04-09 Karl L. Chase Reduced cost high resolution color camera
EP0878970A3 (de) * 1997-05-16 1999-08-18 Matsushita Electric Industrial Co., Ltd. System zum Messen der Ausrichtungsfehler und chromatischen Aberration eines Bildaufnehmers für eine Videokamera
US6295083B1 (en) * 1998-02-27 2001-09-25 Tektronix, Inc. High precision image alignment detection
US6181832B1 (en) * 1998-04-17 2001-01-30 Mclean Hospital Corporation Methods and systems for removing artifacts introduced by image registration
US6160607A (en) * 1998-06-01 2000-12-12 Diaconu; Dan Mugur Camera focus indicator
US6690840B1 (en) * 2000-02-08 2004-02-10 Tektronix, Inc. Image alignment with global translation and linear stretch
US6642506B1 (en) 2000-06-01 2003-11-04 Mitutoyo Corporation Speckle-image-based optical position transducer having improved mounting and directional sensitivities
US6963428B1 (en) * 2000-07-27 2005-11-08 Hewlett-Packard Development Company, L.P. Method and system for calibrating a look-down linear array scanner utilizing a folded optical path
US6873422B2 (en) 2000-12-08 2005-03-29 Mitutoyo Corporation Systems and methods for high-accuracy displacement determination in a correlation based position transducer
US20080036886A1 (en) * 2001-06-29 2008-02-14 Hannigan Brett T Methods For Generating Enhanced Digital Images
US6996291B2 (en) * 2001-08-06 2006-02-07 Mitutoyo Corporation Systems and methods for correlating images in an image correlation system with reduced computational loads
US7161627B2 (en) * 2001-08-10 2007-01-09 Hitachi Kokusai Electric Inc. Apparatus and method of registration correction for video signal processor and a television camera having registration correcting function
US7274830B2 (en) * 2002-06-12 2007-09-25 Litton Systems, Inc. System for multi-sensor image fusion
US8171567B1 (en) 2002-09-04 2012-05-01 Tracer Detection Technology Corp. Authentication method and system
US7085433B2 (en) * 2003-01-06 2006-08-01 Banner Engineering Corp. System and method for performing rotational and translational testing for a reference image used in a normalized gray scale pattern find system
US7593597B2 (en) * 2003-08-06 2009-09-22 Eastman Kodak Company Alignment of lens array images using autocorrelation
JP4112469B2 (ja) 2003-10-07 2008-07-02 オリンパス株式会社 マルチバンドカメラの制御装置及び制御方法
JP2005114530A (ja) 2003-10-07 2005-04-28 Olympus Corp 画像表示装置及び画像表示方法
US7511749B2 (en) * 2003-12-18 2009-03-31 Aptina Imaging Corporation Color image sensor having imaging element array forming images on respective regions of sensor elements
US7123298B2 (en) * 2003-12-18 2006-10-17 Avago Technologies Sensor Ip Pte. Ltd. Color image sensor with imaging elements imaging on respective regions of sensor elements
JP4328224B2 (ja) * 2004-01-26 2009-09-09 オリンパス株式会社 結像光学系の結像性能評価方法及び装置
RU2380750C2 (ru) 2004-03-12 2010-01-27 Инджениа Текнолоджи Лимитед Способы и устройства для создания печатных изделий с возможностью установления их подлинности и с последующей их проверкой
JP4607947B2 (ja) * 2004-03-12 2011-01-05 インジェニア・ホールディングス・(ユー・ケイ)・リミテッド 真正性検証の方法、製品および機器
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
GB2417592B (en) * 2004-08-13 2006-07-26 Ingenia Technology Ltd Authenticity verification of articles
US7256891B2 (en) * 2004-08-23 2007-08-14 Beckman Coulter, Inc. Sensor alignment apparatus for an analysis system
EP1803094B1 (de) * 2004-10-18 2020-02-19 InterDigital VC Holdings, Inc. Verfahren zur filmkornsimulation
KR101254611B1 (ko) * 2004-11-12 2013-04-15 톰슨 라이센싱 비디오 재생 시스템에 대한 정상 플레이와 트릭 모드플레이에 대한 필름 그레인 시뮬레이션
KR101270755B1 (ko) 2004-11-16 2013-06-03 톰슨 라이센싱 비디오 시스템에서 비트-정확한 시뮬레이션을 위한 필름 그레인 sei 메시지 삽입
WO2006055193A1 (en) * 2004-11-16 2006-05-26 Thomson Licensing Film grain simulation method based on pre-computed transform coefficients
CN101057258A (zh) 2004-11-17 2007-10-17 汤姆森许可贸易公司 基于预计算已变换系数的比特精确度胶片颗粒仿真方法
KR101208158B1 (ko) * 2004-11-22 2012-12-05 톰슨 라이센싱 필름 그레인 시뮬레이션을 위한 필름 그레인 캐시 분할방법, 장치 및 시스템
US20060294583A1 (en) * 2005-05-11 2006-12-28 Ingenia Holdings (U.K.) Limited Authenticity Verification
RU2417448C2 (ru) * 2005-07-27 2011-04-27 Инджениа Холдингс Лимитед Верификация аутентичности
JP2009503670A (ja) * 2005-07-27 2009-01-29 インゲニア・テクノロジー・リミテッド 真正性検証
WO2007072044A1 (en) * 2005-12-23 2007-06-28 Ingenia Holdings (Uk) Limited Optical authentication
US7848561B2 (en) * 2005-12-30 2010-12-07 Honeywell International Inc. Determining capability of an on-line sensor
GB2434442A (en) * 2006-01-16 2007-07-25 Ingenia Holdings Verification of performance attributes of packaged integrated circuits
US8605797B2 (en) * 2006-02-15 2013-12-10 Samsung Electronics Co., Ltd. Method and system for partitioning and encoding of uncompressed video for transmission over wireless medium
US20070230776A1 (en) * 2006-04-04 2007-10-04 Sozotek, Inc. System and method of testing imaging equipment using transformed patterns
US7702183B1 (en) * 2006-05-17 2010-04-20 The Boeing Company Methods and systems for the detection of the insertion, removal, and change of objects within a scene through the use of imagery
KR101320520B1 (ko) * 2006-11-06 2013-10-22 삼성전자주식회사 이미지 센서의 위치 보정 방법 및 장치 그리고 위치 검출방법
US8073287B1 (en) * 2007-02-26 2011-12-06 George Mason Intellectual Properties, Inc. Recognition by parts using adaptive and robust correlation filters
US10715834B2 (en) 2007-05-10 2020-07-14 Interdigital Vc Holdings, Inc. Film grain simulation based on pre-computed transform coefficients
US8842739B2 (en) * 2007-07-20 2014-09-23 Samsung Electronics Co., Ltd. Method and system for communication of uncompressed video information in wireless systems
US8243823B2 (en) * 2007-08-29 2012-08-14 Samsung Electronics Co., Ltd. Method and system for wireless communication of uncompressed video information
JP2009133994A (ja) * 2007-11-29 2009-06-18 Canon Inc 画像形成装置及び画像形成方法ならびにそのプログラム
EP2101207A1 (de) * 2008-03-12 2009-09-16 Deutsche Thomson OHG Verfahren zur Korrektur von Farbfehlern
GB2461253B (en) * 2008-05-23 2012-11-21 Ingenia Holdings Ltd Linearisation of scanned data
GB2462059A (en) * 2008-07-11 2010-01-27 Ingenia Holdings Authentication scanner
KR101493697B1 (ko) * 2008-09-26 2015-02-16 삼성전자주식회사 이미지 센서 모듈 및 이를 구비한 디지털 카메라
GB2466311B (en) 2008-12-19 2010-11-03 Ingenia Holdings Self-calibration of a matching algorithm for determining authenticity
JP5007728B2 (ja) * 2009-03-16 2012-08-22 ソニー株式会社 信号処理装置および信号処理方法、プログラム、並びに記録媒体
US9369759B2 (en) * 2009-04-15 2016-06-14 Samsung Electronics Co., Ltd. Method and system for progressive rate adaptation for uncompressed video communication in wireless systems
CN102576464B (zh) * 2009-10-22 2015-09-09 皇家飞利浦电子股份有限公司 对准来自标本的有序堆叠的图像
GB2476226B (en) 2009-11-10 2012-03-28 Ingenia Holdings Ltd Optimisation
GB2482022A (en) * 2010-07-16 2012-01-18 St Microelectronics Res & Dev Method for measuring resolution and aberration of lens and sensor
JP2012090145A (ja) * 2010-10-21 2012-05-10 Sony Corp 画像処理装置および方法、並びにプログラム
CN102811364B (zh) * 2011-05-31 2014-10-08 华晶科技股份有限公司 对位装置
TWI444686B (zh) * 2011-05-31 2014-07-11 Altek Corp 對位裝置
JP6575098B2 (ja) 2015-03-24 2019-09-18 ソニー株式会社 撮像装置とその製造方法
CN109952526B (zh) * 2016-11-08 2021-09-28 热电科学仪器有限公司 用于分析显微镜的尺寸校准的系统和方法
US10841610B2 (en) * 2017-10-23 2020-11-17 Avago Technologies International Sales Pte. Limited Block size dependent interpolation filter selection and mapping
WO2024167808A1 (en) * 2023-02-06 2024-08-15 Nlight, Inc. Sub-pixel sensor alignment in optical systems

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2787188A (en) * 1953-07-31 1957-04-02 Gen Precision Lab Inc Optical cross-correlator
DE1965261C3 (de) * 1969-12-29 1974-10-24 Krone Gmbh, 1000 Berlin Verfahren und Vorrichtung zur zeitabhängigen optischen Tonaufnahme und -wiedergabe
JPS56138381A (en) * 1980-03-31 1981-10-28 Nec Corp Centering adjusting device
US4575124A (en) * 1982-04-05 1986-03-11 Ampex Corporation Reproducible gray scale test chart for television cameras
US4499488A (en) * 1983-02-03 1985-02-12 Harris Corporation Automatic registration control system for color television cameras
JPS60224370A (ja) * 1984-04-23 1985-11-08 Canon Inc カラ−画像読取り装置
NL8401309A (nl) * 1984-04-24 1985-11-18 Philips Nv Kleurentelevisiekamera uitgevoerd met verscheidene opneemelementen.
JP2606185B2 (ja) * 1985-06-17 1997-04-30 ソニー株式会社 固体撮像素子のレジストレーション測定方法
JPS6316761A (ja) * 1986-02-24 1988-01-23 Konica Corp 画像読取装置
JP2738531B2 (ja) * 1986-06-04 1998-04-08 日本放送協会 画像成分信号間位相差検出装置
JPS6316787A (ja) * 1986-07-09 1988-01-23 Victor Co Of Japan Ltd カラ−テレビジヨンカメラ
US4835600A (en) * 1986-07-21 1989-05-30 Konishiroku Photo Industry Co., Ltd. Solid state image reading device with sensors adhered to plate which is adhered to lens holding member
GB2203919B (en) * 1987-04-22 1991-02-20 Sony Corp Registration adjustment in colour television cameras
US4755876A (en) * 1987-07-27 1988-07-05 Eastman Kodak Company Image scanner
DE68926637T2 (de) * 1988-07-13 1997-01-23 Hitachi Ltd Konvergenzfehler-Korrektur für Festkörperbildaufnahmegeräte
DE3908326C1 (de) * 1989-03-15 1990-01-04 Helmut K. Pinsch Gmbh & Co, 2000 Hamburg, De
EP0427436B1 (de) * 1989-11-09 1996-12-27 Ikegami Tsushinki Co., Ltd. Bildeinstellungs- und Konturkorrekturschaltung und Verfahren für Festkörperkamera

Also Published As

Publication number Publication date
EP0518185B1 (de) 1996-12-11
DE69215760D1 (de) 1997-01-23
JPH05183916A (ja) 1993-07-23
US5453840A (en) 1995-09-26
EP0518185A2 (de) 1992-12-16
EP0518185A3 (en) 1993-03-17

Similar Documents

Publication Publication Date Title
DE69215760T2 (de) Kreuzkorrelationsausrichtsystem für einen Bildsensor
DE3738667C2 (de)
DE69434657T2 (de) System und Verfahren zur elektronischen Bildstabilisierung
DE69428686T2 (de) Bildaufnahmevorrichtung und verfahren zur bestimmung von fokusinformationen
DE69526635T2 (de) Bilderzeugungsgerät und Verfahren zur Verbesserung geometrischer optischer Bildverzerrungen
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
DE68913499T2 (de) Diskrete Autofokus-Einstellung für die Abbildungserzeugung in einem Radar mit synthetischer Apertur und sehr hoher Auflösung.
EP2105701B1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE3882707T2 (de) Radar mit synthetischer apertur.
DE102021102233B4 (de) Vorrichtung und Verfahren zur Korrespondenzanalyse in Bildern
DE60029182T2 (de) Verfahren zur eindeutigen Abstandsschätzung
DE60133026T2 (de) Genaues ausrichten von bildern in digitalen abbildungssystemen durch anpassen von punkten in den bildern
DE19706158C1 (de) Verfahren zur Korrektur einer objektabhängigen Spektralverschiebung in Radar-Interferogrammen
DE69022143T2 (de) Rechnerische Methoden und elektronische Kameravorrichtung zur Bestimmung der Entfernung von Objekten, zum schnellen Autofokussieren und um eine verbesserte Bildschärfe zu erreichen.
DE4000343A1 (de) Automatische fokussiervorrichtung
DE3905619A1 (de) Bildeingabe-/ausgabevorrichtung
DE102010031535A1 (de) Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
EP0455218A1 (de) Verfahren und Vorrichtung zur Messung eines phasenmodulierten Signals
DE10156040B4 (de) Verfahren, Vorrichtung und Computerprogramm-Produkt zum Entzerren einer eingescannten Abbildung
DE19741392A1 (de) Verfahren zur Korrektur gemessener Entfernungswerte
DE69216211T2 (de) Phasendifferenz-Autofokus mit Produkt vierter Ordnung
EP3186776A1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE4437385A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
EP3642560A1 (de) System, verfahren und marker zur positionsbestimmung eines beweglichen objektes im raum
DE102017112484A1 (de) Verfahren und Vorrichtung zur Bildkorrektur

Legal Events

Date Code Title Description
8332 No legal effect for de
8370 Indication related to discontinuation of the patent is to be deleted
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee