[go: up one dir, main page]

DE3708683C2 - Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform - Google Patents

Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform

Info

Publication number
DE3708683C2
DE3708683C2 DE3708683A DE3708683A DE3708683C2 DE 3708683 C2 DE3708683 C2 DE 3708683C2 DE 3708683 A DE3708683 A DE 3708683A DE 3708683 A DE3708683 A DE 3708683A DE 3708683 C2 DE3708683 C2 DE 3708683C2
Authority
DE
Germany
Prior art keywords
image
elements
picture
images
platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE3708683A
Other languages
English (en)
Other versions
DE3708683A1 (de
Inventor
Peter K Pleitner
Robert K Vincent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geospectra Corp
Original Assignee
Geospectra Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geospectra Corp filed Critical Geospectra Corp
Publication of DE3708683A1 publication Critical patent/DE3708683A1/de
Application granted granted Critical
Publication of DE3708683C2 publication Critical patent/DE3708683C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft ein Verfahren zur Bestimmung von Lage­ änderungen einer Plattform, die in der Luft oder im Raum längs eines Flugweges über der Erde bewegt wird, und ein Verfahren zur Bestimmung von Geländedaten der Erdoberfläche von dieser Platt­ form.
Multispektrale Bildabtaster sind üblicherweise an bewegten Luftfahrzeugen oder Satelliten vorgesehen, um Bilder des Geländes aufzuzeichnen, während sie über die Erdoberfläche hinwegfliegen. Die Bilder werden als Daten aufgezeichnet, die aus einer Reihe von Abtastzeilen bestehen, deren relative Orientierung gegenüber anderen Abtastzeilen sich ändern kann, während sich das Luft- oder Raumfahrzeug längs seines Flugweges bewegt. Die Lage des Luft- oder Raumfahrzeugs ist Störeinflüssen durch Roll-, Nick-, Gier-, Höhen- und Geschwindigkeitsänderungen ausgesetzt, die in das Geländebild unsystematische geometrische Verzerrungen ein­ führen. Im Falle eines Luftfahrzeugs ergeben sich solche Störungen durch Windböen, Änderungen der Luftdichte und unerwartete Kursänderungen. Störungen bei einem Satelliten sind subtiler, können jedoch auch von atmosphärischen Stößen (in niedrigem Orbit) orbitalen Steuermanövern und Änderungen des Satellitenschwerpunkts (d. h. Kraftstoffverbrauch, Orientierungs­ änderungen der Antennen und Solargeneratoren) herrühren.
Um die Geometrie der "rohen" Bilddaten zu korrigieren, ist es normalerweise möglich, Bildpunkte mit Bodenkontrollpunkten auf Karten für jeweils wenige Abtastzeilen der Bilddaten zu identifizieren, indem Abbildungen für die genaue Position von Eigenschaften gesucht werden, die bestimmten Bildpunkten in den Bilddaten entsprechen und dann das gesamte Bild verzerrt und nochmals abgetastet wird, wodurch man die beste Entsprechung für alle Geländekontrollpunkte erhält. Diese Möglichkeit ist jedoch hinsichtlich Zeit- und Arbeitsaufwand besonders kostspielig, denn die aufgezeichneten Bildaten müssen manuell mit der Position von Geländekontrollpunkten korreliert werden, und die Korrektur hängt ausschließlich von der Genauigkeit und der Dichte der Gelände­ kontrolle ab. Eine weitere Lösung dieses Problems arbeitet mit Horizontsuchern, Sternzeigern und Trägheitsnavigationssystemen an Bord des Luft- oder Raumfahrzeugs. Diese Lagesensoren ermitteln und speichern Lageänderungsdaten, die zur teilweisen geometrischen Korrektur der Bilddaten erforderlich sind. Solche Daten sind aus mindestens drei Gründen nicht optimal: Erstens verwenden sie Eigenschaften oder Trägheitsreferenzen, die nicht ein unmittelbarer Teil der aufgezeichneten Geländedaten sind, zweitens können sie dieselben Kosten verursachen wie der Primär­ sensor, und drittens sind ihr Gewicht und ihr Leistungsbedarf in einigen Anwendungsfällen zu groß.
EP 0 157 414 A2 offenbart ein Verfahren zur Bestimmung von Lage­ daten einer Plattform, die in der Luft längs eines Flugweges über der Erde bewegt wird, insbesondere eines Sensors, der nachein­ ander zweidimensionale Bilder der Erdoberfläche längs des Flug­ weges aufzeichnet, wobei die nacheinander aufgenommenen Bilder sich zumindest teilweise überlappen. Eines der von dem Sensor nacheinander aufgenommenen Bilder wird zunächst verzerrt, bevor eine Korrelation mit dem verzerrten Bild durchgeführt wird.
Es besteht deshalb ein Bedürfnis für ein leichtes, wirksameres und billigeres Verfahren zum Ermitteln und Aufzeichnen der Lage­ änderungen einer Plattform, beispielsweise einer Bildsensor­ plattform, die für Geländeabbildungen in Luft- oder Raum­ fahrzeugen geeignet ist.
Zur Lösung der diesem Bedürfnis zugrundeliegenden Aufgabe werden ein Verfahren mit den Merkmalen nach Anspruch 1 und ein Verfahren mit den Merkmalen nach Anspruch 10 geschaffen.
Bevorzugte Weiterbildungen sind in den Unteransprüchen beansprucht.
Bei dem erfindungsgemäßen Verfahren zur Ermittlung von Lageän­ derungen einer Bildsensorplattform für Geländeabbildung in Luft- oder Raumfahrzeugen, kann ein zweiter Sensor verwendet werden, der vorzugsweise einen zweidimensionalen panchromatischen Bildsensor enthält, und wobei ferner ein digitaler Bildkorrelator zum Vergleich sukzessiver, überlappender und augenblicklich erhaltener zweidimensionaler Geländebilddaten verwendet wird. Der zweite Sensor erzeugt eine Reihe von Haupt- und Nebenbildern, wobei jedes Nebenbild zu einem Hauptbild wird, wenn ein nachfolgendes Nebenbild erzeugt wird. Eine digitale Bildkorrelation wird zur Identifikation mehrerer (vorzugsweise fünf) Bildelemente auf dem Hauptbild mit denselben geographischen Punkten auf dem Nebenbild durchgeführt. Die Korrelation wird durch Auswahl mehrerer (vorzugsweise fünf) räumlich verteilter Felder von Bildpunktanordnungen in dem Nebenbild und durch nachfolgendes Bewegen dieser Anordnungen um das Hauptbild herum durchgeführt, um für jedes Feld den Grauskala-Korrelations­ koeffizienten zu finden. Die Stellen mit den höchsten Korrelationskoeffizienten werden als wahre Stellen der Neben­ bilder relativ zum Hauptbild gewählt. Die Reihe und Spalte der korrelierten Bildpunkte in dem Nebenbild werden aufgezeichnet, und die relative Orientierung des Nebenbildes zum Hauptbild wird ermittelt, indem die Koplanaritätsbedingung der Fotogrammetrie angewendet wird. Die relative Orientierung der Haupt- und Neben­ bilder charakterisiert einheitlich die neue Lage der Sensor­ plattform, d. h. die Änderung der Lage der Plattform zwischen den Zeitpunkten, zu denen die Haupt- und Nebenbilder aufgezeichnet wurden. Die mit dem zweidimensionalen Bildsensor erhaltenen Daten können zur späteren Verwendung gespeichert werden, oder sie werden in Realzeit verarbeitet, um Informationen zu erhalten, die die Änderungen der Sensorplattform und die korrekte Geometrie der Geländebilddaten kennzeichnen, welche mit dem Primärsensor aufgezeichnet wurden.
Das erfindungsgemäße Verfahren zum Ermitteln von Änderungen der Lage einer in der Luft oder im Raum bewegten Plattform, z. B. eines multispektralen Abtasters (Sensors) für Geländeabbildung, kann besonders einfach, genau, preiswert und zuverlässig umgesetzt werden. Dabei werden Lageänderungen der Sensorplattform unter Verwendung mathematischer Verfahren ausgewertet, die von einem Rechner durchführbar sind. Das Verfahren kann auch dazu eingesetzt werden, Störungen in Ge­ ländedaten eines durch Fernabtastung gewonnenen Geländebildes entweder mit nahezu Realzeitbasis oder rechnerunabhängig zu korrigieren. Das Verfahren kann ferner Informationen über Höhen- und Geschwindigkeitsänderungen einer in Luft oder im Raum bewegten Plattform liefern. Außerdem kann das Verfahren mit konventionellen Luft- und Raumsensoren arbeiten und in einer besonders leichten und kompakten Einrichtung verwirklicht werden.
Ein Ausführungsbeispiel der Erfindung wird im folgenden anhand der Figuren beschrieben. Es zeigen:
Fig. 1 eine schematische perspektivische Darstellung des Abtastbereiches eines Geländebildsensors, der an einer bewegten Plattform, typisch an einem Satelliten oder an einem Luftfahrzeug, angeordnet ist, wobei kleinere Stabilitätsstörungen dargestellt sind, die signifikante geometrische Verzerrungen der Geländedaten verursachen,
Fig. 2 eine schematische perspektivische Darstellung des geometrischen Zusammenhangs zwischen dem Geländebildsensor und dem Lagesensor gegenüber dem abgetasteten Gelände,
Fig. 3 eine schematische perspektivische Darstel­ lung aufeinander folgender und einander überlappender Haupt- und Nebenbilder, die von dem Lagesensor aufgezeichnet werden,
Fig. 4 eine schematische Darstellung sequentieller Haupt- und Nebenbilder, wobei identische geographische Punkte der Bilder jeweils durch Kreise und Punkte bezeichnet sind,
Fig. 5 eine schematische Darstellung der Haupt- und Nebenbilder nach Durchführung der Korrelation, wobei die identischen geogra­ phischen Punkte zweier Bilder durch koinzi­ dente Kreise und Punkte dargestellt sind,
Fig. 6 eine schematische Darstellung des Haupt­ bildes und der aus dem Nebenbild erhaltenen Bildpunktfelder oder -anordnungen, die mathematisch überlagert und relativ zu­ einander verschoben sind,
Fig. 7 eine Seitenansicht von Haupt- und Nebenbild, bei der die einzige Lageänderung der Sensor­ plattform eine Höhenänderung ist,
Fig. 8 eine Seitenansicht von Haupt- und Nebenbild, bei der die einzige Lageänderung der Sensor­ plattform eine Geschwindigkeitsänderung ist,
Fig. 9 eine Seitenansicht von Haupt- und Neben­ bild, bei der die einzige Lageänderung der Sensorplattform eine Nickänderung ist, und
Fig. 10 bis 13 Programmabläufe für die Anwendung des erfindungsgemäßen Systems.
In Fig. 1 ist ein System zum Ermitteln und Messen der Lage­ änderungen einer Sensorplattform an Bord eines bewegten Fahr­ zeugs, beispielsweise eines Satelliten 10 oder eines Luft­ fahrzeugs 12, dargestellt, das sich längs eines bestimmten Flugwegs 13 bewegt. Änderungen des Ortes und der Lage der Plattform führen zu Änderungen der Sensororientierung gegen­ über dem Gelände, das abzubilden ist, und bewirken unsyste­ matische geometrische Verzerrungen der Geländebilddaten. Beispielsweise kann die Plattform aus einem panchromatischen oder einem multispektralen Abtaster (Sensor) bestehen, der das Gelände unter der Plattform einsieht und elektronische Signale erzeugt. Diese Signale können mit einem Rechner zu Bildern des Geländes unter dem Flugweg 13 verarbeitet werden, während sich die Plattform über die Erdoberfläche bewegt. Der Bildsensor hat ein Sichtfeld 14, das längs eines Abtastweges 16 über die Erdoberfläche wandert. In der fol­ genden Beschreibung wird der Bildsensor als Primärsensor bezeichnet, der entweder ein optisch-mechanischer Sensor oder der modernere Typ sein kann, bei dem eindimensionale lineare Anordnungen verwendet werden und der üblicherweise als "Push Broom"- oder als "Multilinear Array"-Abtaster bezeichnet wird. Eine panchromatische (schwarz-weiß) Dar­ stellung des letzteren Typs wird beispielsweise erläu­ tert. In beiden Fällen enthält der Bildsensor lichtempfind­ liche Detektorelemente, die in einer gemeinsamen Ebene an­ geordnet sind, sowie optische Elemente und verschiedene Arten elektronischer Komponenten. Die Orientierung oder Lage der Bildebene, die Ausrichtung der optischen Elemente und die Höhe des Sensors über dem Gelände bestimmen das Sichtfeld auf der Erdoberfläche.
Wie Fig. 2 zeigt, kann ein einfacher Geländesensor eine eindimensionale oder lineare Anordnung 20 enthalten, auf die ein linearer Streifen 18 des Geländes mit einer Op­ tik 24 fokussiert wird. Eine wiederholte Abtastung auf­ einander folgender Geländestreifen mit dem Linearsensor 20 und die Vorwärtsbewegung der Sensorplattform führen zu einem Satz von Bilddaten-Abtastzeilen, die in einem Rech­ ner zur Erstellung eines zusammengesetzten Bildes der von dem Sichtfeld des Sensors überstrichenen Fläche ge­ nutzt werden kann.
Im Idealfall wird die am Satelliten 10 oder Luftfahrzeug 12 vorgesehene Sensorplattform versuchen, einen stetigen oder linearen Flugweg 13 bei konstanter Geschwindigkeit, Lage und Höhe beizubehalten, wenn die Erdoberfläche mit dem Ge­ ländebildsensor 20 abgetastet wird, so daß aufeinander folgende Bildabtastzeilen in genauer geometrischer Beziehung zu zuvor aufgezeichneten Abtastzeilen aufgezeichnet werden. Tatsächlich treten jedoch unsystematische Änderungen der Lage, Höhe und Geschwindigkeit des Luftfahrzeugs 12 in­ folge von Windböen, Änderungen der Luftdichte und unerwar­ teter Kursänderungen auf, oder im Falle eines Satelliten 10 werden solche Änderungen durch atmosphärische Stöße, orbitale Steuermanöver und Änderungen des Satellitenschwer­ punktes durch Kraftstoffverbrauch und Ausrichtungsänderun­ gen von Antennen und Solargeneratoren usw. hervorgerufen. Diese "Plattformänderungen" resultieren in entsprechenden Änderungen der Lage des Geländebildsensors 20, durch die wiederum geometrische Ungenauigkeiten in die Bilddaten ein­ geführt werden. Es ist extrem schwierig, solche Ungenauig­ keiten der Bilddaten durch nachfolgende Bildverarbeitung zu beseitigen, ohne daß eine genaue Kenntnis der Frequenz und Größe der auf den Sensor 20 einwirkenden Störungen be­ steht. Die Erfindung führt nun zu einem System zur Ermittlung der Lage-, der Höhen- und der Geschwindigkeitsänderungen der Plattform zur Geländebildabtastung. Sie beruht auf der Erkenntnis, daß Änderungen der Plattformlage durch Vergleich zweier zweidimensionaler, einander überlappen­ der Geländebilder ermittelt und gemessen werden können, die von einem zweiten Bildsensor augenblicklich aus zwei Punkten längs des Flugweges erhalten werden können.
Wie Fig. 2 zeigt, ist ein zweiter Geländebilddetektor oder Sensor 22 auf derselben Plattform wie der primäre Bildsensor 20 angeordnet und kann eine handelsübliche zweidimensionale Anordnung lichtempfindlicher Elemente enthalten, die in einer gemeinsamen Bildebene angeordnet sind. Der zweite Sensor 22 ist so montiert, daß seine Bild­ ebene parallel oder vorzugsweise koplanar mit derjenigen des ersten Linearsensors 20 liegt. Geeignete elektronische Schaltungen (nicht dargestellt) üblicher Art dienen zur elektronischen Abtastung der zweiten Sensoranordnung 22 zwecks Erzeugung eines synoptischen digitalen Bildrasters (d. h. alle Bilddaten eines Bildfeldes werden von ein und derselben Stelle aus oder in ein und demselben Zeitpunkt auf dem Flugweg erhalten) des gesamten oder eines Teils des mit dem Primärsensor 20 abgetasteten Geländes. Diese letztgenannten Bilddaten dienen als Referenz, mit der Lage-, Höhen- und Geschwindigkeitsänderungen festgestellt und gemessen werden. Wie in Fig. 2 konzeptartig gezeigt, überlappt der Abtastbereich 26 des zweiten Sensors 22 über die Optik 24 den Abtastbereich der Linearanordnung 20. Obwohl dies in technischer Hinsicht vorteilhaft sein kann, muß diese Konfiguration nicht unbedingt vorgesehen sein, jedoch muß der Sensor 22 einander überlappende zweidimen­ sionale Bilder eines Bezugsgeländes aufzeichnen.
Gemäß Fig. 3 dient der Sensor 22 zur Aufzeichnung einer Reihe einander überlappender Bilder entsprechend den Ab­ tastbereichen 26 auf dem Erdboden. Jedes Bild oder Abtast­ bereich 26 ist ein Hauptbild, während das nachfolgende Bild ein Nebenbild des Hauptbildes ist. Das Zeitintervall zwischen der Aufzeichnung aufeinander folgender Bilder der Abtastbereiche 26 ist durch die Geschwindigkeit der Sensorplattform, das Gesamtbildfeld des Sensors, die nominale Frequenz der Lage-, Geschwindigkeits- und Höhen­ änderungen der Sensorplattform, die räumliche Auflösung eines Elements der zweidimensionalen Anordnung 22 und die räumliche Auflösung eines Elements der Linearanordnung 20 bestimmt. Der Abtastbereich 26 ändert seine Position und Größe entsprechend den Änderungen der Lage, Geschwin­ digkeit und Höhe der Sensorplattform 12, die als ein Luft­ fahrzeug dargestellt ist. Beispielsweise entspricht der Abtastbereich 26a einer Gruppe von Bedingungen, für die die Sensorplattform 12 sich auf ihrem vorgegebenen Flug­ weg befinden möge und eine konstante Höhe und Geschwindig­ keit haben soll. Der Abtastbereich 26b repräsentiert den Erdbereich, der abgebildet wird, wenn die Sensorplatt­ form 12 eine Rollbewegung durchführt. Der Abtastbereich 26d repräsentiert das Bild, das sich ergibt, wenn die Sensor­ plattform 12 über die Höhe hinaus steigt, die sie bei dem zuvor erhaltenen Bild hatte. Die entsprechenden Änderungen des von dem Geländebildsensor 20 aufgezeichneten Bildes sind in Fig. 1 gezeigt. In jedem Falle ist es vorteilhaft, wenn die Änderungen des mit der Linearanordnung 20 auf­ gezeichneten Bildes direkt auf die Änderungen der Bilder bezogen sind, die der Sensor 22 aufzeichnet, da beide Sensoren 20, 22 Bildebenen haben, die relativ zueinander fix angeordnet sind und deshalb durch externe Einflüsse gleichartig gestört werden.
Im folgenden wird eine Übersicht über das System gegeben, auf die eine eingehendere Beschreibung anhand der Figu­ ren folgt. Ein Raumverlagerungsfaktor zwischen dem Haupt­ bild und den nachfolgenden Nebenbildern kann aus der Geschwindigkeit und Höhe der Sensorplattform 12 vorbestimmt werden und wird dann als Einflußfaktor für die Bildraster, d. h. die Sätze digitaler Daten verwendet, die jeweils das Haupt- und die Nebenbilder repräsentieren. Das Haupt- und die Nebenbilder werden dann registriert, und es werden minimal drei, jedoch vorzugsweise 5 Bildpunkte des Haupt­ bildes zur Korrelation mit entsprechenden Bildpunkten in drei oder fünf Feldern des Nebenbildes getestet. Eine genaue Korrelation ergibt sich, wenn keine Änderungen der Geschwindigkeit, der Höhe (verglichen mit angenommenen Nennwerten) oder der Lage (Gieren, Rollen oder Nicken) in diesem Segment der Flugbahn der Sensorplattform auftre­ ten. Bei einer weniger genauen Korrelation werden mehrere geometrische Verschiebungen auf Felder des Nebenbildes angewendet, und die Korrelation des Hauptbildes wird wie­ derholt. Die auf die Nebenbildfelder angewandten Verschie­ bungen, die mit dem Hauptbild am besten korrelieren, kenn­ zeichnen die Geometrie einer Änderung gegenüber dem vor­ bestimmten Ort (d. h. Geschwindigkeit und Höhe) und der Lage der Sensoren 20, 22. Mit anderen Worten: die drei oder mehr Bildpunkte in dem Nebenbild, die den höchsten Korrelationskoeffizienten zwischen dem Hauptbild und den Nebenbildern angenommen haben, bestimmen die Orientierung der zweidimensionalen Anordnung des Sensors 22 und damit die Änderung des Ortes und der Lage des Sensors 20 zwischen den Zeitpunkten, zu denen das Hauptbild und die Nebenbil­ der aufgezeichnet wurden. Es ist deshalb möglich, die relative Zeitänderung des Ortes und der Lage der Sensor­ plattform bezüglich der Hauptbilddaten zu bestimmen, die zuvor durch Ermittlung von Lagedaten mit dem Bildsensor über einer Referenzfläche des Geländes erhalten wurden.
Die absolute Lage der Sensoren 20, 22 kann am besten be­ stimmt werden, wenn die Geländebezugsfläche bekannt ist. Diese absolute Lagebestimmung ist jedoch etwas praktischer für eine Satelliten-Sensorplattform, die innerhalb von Stunden oder Tagen über ein und dasselbe Gelände wandert, als für eine Sensorplattform in einem Luftfahrzeug. Wenn die Referenzfläche auf dem Gelände nicht bekannt ist, so wird die Lageänderung der Sensorplattform und die Änderung gegenüber ihrem zu erwartenden Ort mit dem Sensorsystem 22 bezüglich der Lage und dem Ort über der zuvor aufgezeich­ neten Referenzfläche ermittelt. Dies reicht aus, um die mit dem Geländebildsensor 20 für Höhe-, Geschwindigkeits- und Lageänderungen aufgezeichneten Bilder zu korrigieren, die während der Zeit auftraten, die zum Erhalt von minde­ stens zwei Bildabtastzeilen mit dem Bildsensor 20 erfor­ derlich ist.
Es wird nun auf Fig. 4 Bezug genommen, die einander über­ lappende Haupt- und Nebenbilder zeigt, die mit A und B bezeichnet sind. Mehrere Geländereferenzpunkte auf dem Nebenbild sind durch Kreise 28 gekennzeichnet. Dieselben Referenzpunkte sind auf dem Hauptbild durch Punkte 30 gekennzeichnet, wobei die Pfeile die Kreise 28 mit den entsprechenden Punkten 30 korrelieren. Wie in Fig. 4 gezeigt ist, sind das Haupt- und das Nebenbild A und B in der Geometrie des überlappenden Teils des Nebenbildes dargestellt "wie erhalten". Der Grad der Überlappung wurde mathematisch vorbestimmt unter Zugrundelegung des Zeit­ intervalls zwischen dem Aufzeichnen des Haupt- und des Nebenbildes und der vorherbestimmten Geschwindigkeit und Höhe der Sensorplattform 12.
Es ist dann erforderlich, die geometrische Orientierung des Nebenbildes relativ zum Hauptbild zu bestimmen, so daß die entsprechenden Punkte 28, 30 des Geländes auf­ einander ausgerichtet sind, d. h. wenn die Geländepunkte 28, 30 korreliert sind und geometrisch zusammenfallen. Die geometrische Lage des Nebenbildes, die in koinzidenten Geländepunkten 28, 30 resultiert, kann von mehreren Ge­ ländepunkten des Nebenbildes abgeleitet werden. Diese Punkte repräsentieren eine hohe Korrelation mit denselben Punkten, die auf dem Hauptbild aufgezeichnet sind. Dies erfolgt durch Auswahl von mindestens drei oder vorzugs­ weise fünf räumlich verteilten Referenzpunkten auf dem Nebenbild. Obwohl es aus einfachen Regeln der Geometrie bekannt ist, daß nur drei Punkte zur Definition einer Ebene erforderlich sind, ist nicht anzunehmen, daß das Gelände, welches die zu korrelierenden Punkte enthält, eine einfache Ebene ist oder daß die Höhenlage eines je­ den Punktes dieses Geländes bekannt ist. Deshalb ist es normalerweise erforderlich, sich auf relative Orientierungs­ prinzipien der Fotogrammetrie zu verlassen, die minde­ stens fünf Punkte erfordern, welche im Nebenbild und im Hauptbild (korreliert) identifizierbar sind, um alle Variablen zu bestimmen, die das mathematische Orientie­ rungsproblem im relativen Sinne lösen, d. h. das Nebenbild relativ zum Hauptbild. Die Koplanaritätsbedingung der Fotogrammetrie erfordert, daß für jeden der fünf gewählten Punkte der den jeweiligen Erdpunkt mit der Kameraoptik und dem entsprechenden Punkt auf dem Filmbild zu einem ersten Zeitpunkt verbindende Strahl und der denselben Erdpunkt mit der Kameraoptik und dem entsprechenden Punkt auf dem zweiten Filmbild zu einem zweiten Zeitpunkt ver­ bindende Strahl in einer einzigen Ebene liegen. Die rela­ tive Orientierungsoperation erfordert, daß mindestens fünf Strahlenpaare (gefunden nach der Koplanaritätsbedingung) einander in den beiden Anordnungen schneiden. Die Kopla­ naritätsbedingung und die diese definierenden Gleichungen sind eingehender in Manual of Photogrammetry, American Society of Photogrammetry, 4. Auflage, Seiten 55 ff, Copy­ right 1944, 1952, 1966, 1980 diskutiert. Die Kenntnis des Inhalts dieser Veröffentlichung wird in der vorliegenden Beschreibung vorausgesetzt.
In Fig. 6 sind fünf Felder 34 bis 42 des Nebenbildes aus­ gewählt zur Korrelation mit den Referenzpunkten 37 des Hauptbildes. Jedes Feld 34 bis 42 ist als eine 9 × 9-Anord­ nung von Bildpunkten dargestellt. Eine Korrelation wird durchgeführt, um den Korrelationsgrad der Grauskala (Hellig­ keit) zwischen jedem Bildpunkt in den Feldern 34 bis 42 des Nebenbildes und dem entsprechenden Referenzpunkt 37 des Hauptbildes zu bestimmen. Die Grauskalenintensität oder Helligkeit ist ein Wert, der eine Funktion der mittle­ ren integrierten Strahlung auf den Erdpunkt ist, welcher durch einen Bildpunkt dargestellt wird. Effektiv werden die Nebenbildfelder 34 bis 42 in X- und Y-Richtung (bezo­ gen auf Fig. 6) schrittweise weiterbewegt, so daß eine Korrelation zwischen jedem X,Y-Ort in den Nebenbildfel­ dern 34 bis 42 und dem entsprechenden Referenzbildpunkt 37 erfolgt. Dieses Bilddaten-Verarbeitungsverfahren wird manch­ mal auch als "Nachbarschaftsverarbeitung" bezeichnet. Der Bildpunkt mit dem höchsten Korrelationskoeffizienten in den Nebenbildfeldern 34 bis 42 wird dann ausgewählt, und sein X,Y-Ort in dem Bildfeld wird aufgezeichnet. Die aufgezeichneten Orte der Bildpunkte mit dem höchsten Korre­ lationsgrad in den Nebenbildfeldern 34 bis 42 bestimmen die wahren Orte der Nebenbildfelder 34 bis 42 und somit des gesamten Nebenbildes relativ zum Hauptbild. Fig. 5 zeigt das Nebenbild B in räumlicher Ausrichtung relativ zum Hauptbild A, nachdem das Nebenbild geometrisch in zwei Dimensionen relativ zum Hauptbild "verzerrt" wurde, so daß die Referenzpunkte 28, 30 zusammenfallen.
In Fig. 10 bis 13 ist ein Ablaufplan für ein typisches Rechnerprogramm dargestellt, das auf der Grundlage des vorstehend beschriebenen Systems arbeitet. Fig. 10 zeigt den ersten Schritt 44 des Programms, der für aufeinander folgende Orte längs des Flugweges durchgeführt wird, um die Haupt- und Nebenbilddaten zu erhalten. Dann wird eine Bildkorrelation in Feldern des Überlappungsbereichs von Haupt- und Nebenbild durchgeführt, um korrelierte, einan­ der entsprechende Punkte in dem Geländeteil zu identifi­ zieren, der zweimal abgebildet wurde. Der zweite Schritt 46 bestimmt die relative Orientierung der Nebenbildebene bezüglich der Hauptbildebene unter Verwendung der Prin­ zipien der relativen Orientierung aus der vorstehend be­ schriebenen Fotogrammetrie, gemäß denen mindestens fünf korrelierte, einander entsprechende Punkte erforderlich sind, die in dem Haupt- und dem Nebenbild enthalten sind. Die Subroutine zur Durchführung des Schritts 44 ist in Fig. 11 und 12 gezeigt. Der erste Schritt 48 der Subroutine besteht darin, daß dieselbe Versetzung angewendet wird, die zuvor aus dem Haupt/Nebenbild-Korrelationsverfahren ab­ geleitet wurde, oder aber ein auf der Grundlage der nomi­ nalen Plattformgeschwindigkeit, multipliziert mit dem Abtastintervall des Bildsensors, geschätzter Wert. Der Überlappungsbereich wird dann im Schritt 50 in mindestens fünf oder mehr Felder aufgeteilt, wenn eine relativ große zweidimensionale Bilderzeugungsanordnung als Lagesensor verwendet wird, oder die fünf oder mehr Geländebildfelder werden von fünf oder mehr relativ kleinen zweidimensiona­ len Anordnungen wie vorstehend beschrieben erzeugt. Ein zweidimensionales Korrelationsverfahren wird dann in Schritt 52 für jedes Haupt- und Nebenbilddatenfeld durch­ geführt. Hierzu wählt ein Rechner gemäß Schritt 54 in Fig. 12 den sogenannten Kandidatenbereich für einen Paß­ punkt in dem Hauptbild, der den stärksten Kontrast und/­ oder Punkt in einem zweidimensionalen Bild hat. Ein ana­ loges, äquivalentes Verfahren zur visuellen Überprüfung würde darin bestehen, daß eine bestimmte Bildpunktgruppe ausgewählt wird. Bei Schritt 56 werden weitere Kandidaten verarbeitet, wenn der Paßkandidat des Hauptbildes keine passend hohe Korrelationsspitze im Nebenbild hat. Andern­ falls wird das Programm auf Schritt 52 geführt.
Die Subroutine zur Durchführung des Schrittes 46 (Fig. 10) ist in der Fig. 13 dargestellt. Eine Schätzung der Orientie­ rungsparameter wird zunächst bei Schritt 58 durchgeführt, worauf ein mathematischer Schritt 60 folgt, bei dem die Quadrate der Abweichung von dem Idealzustand der Koplana­ rität von Haupt- und Nebenbild für fünf oder mehr Paare korrelierter Bildpunkte minimiert werden. Bei Schritt 62 wird bestimmt, ob die Abweichungen unter einem Schwellen­ wert liegen, der durch die geometrischen Genauigkeitsan­ forderungen bestimmt ist, die an die von dem primären Bild­ sensor erhaltenen Daten zu stellen sind. Wenn die Abwei­ chungen unter dem Schwellwert liegen, so wird der Schritt 60 wiederholt. Andernfalls wird die Subroutine beendet. Das Ausgangsprodukt dieses Verfahrens ist eine Zusammenstellung von Gleichungen, die aufeinander folgende Bildebenen und damit die Orte und Lagen des primären Bildsensors und seiner Plattform beschreiben. Diese Gleichungen ermög­ lichen genaue geometrische Korrekturen der von dem Primär­ sensor erhaltenen Bilddaten entweder in einem relativen Sinne bezüglich der zuvor aufgezeichneten Bilddaten dieses "Flugsegments" oder in einem absoluten Sinne bezüglich einer Karte des Geländes. Der letztere Fall erfordert eine Bilddatenbasis aus eindeutig identifizierbaren Gelände­ abschnitten einschließlich ihrer Kartenkoordinaten und Höhenlagen, die eine Orientierung eines Haupt- oder Neben­ bildes relativ zum Gelände ermöglichen, wobei die vor­ stehend beschriebenen Korrelations- und Koplanaritäts­ prüfungsverfahren angewendet werden.

Claims (17)

1. Verfahren zur Bestimmung von Lageänderungen einer Plattform, die in der Luft oder im Raum längs eines Flugweges über der Erde bewegt wird, insbesondere eines Sensors, der nacheinander zweidimensionale Bilder der Erdoberfläche längs des Flugweges aufzeichnet, mit folgenden Schritten:
  • A) Erzeugen eines ersten Datensatzes entsprechend Bild­ elementen eines ersten zweidimensionalen Bildes der Erdoberfläche an einer ersten Stelle des Flugweges,
  • B) Erzeugen eines zweiten Datensatzes entsprechend Bild­ elementen eines zweiten zweidimensionalen Bildes der Erdoberfläche an einer zweiten Stelle des Flugweges mit geringem Abstand zur ersten Stelle, so daß die beiden Bilder einander mindestens teilweise überlappen,
wobei die Bildelemente entsprechend ihren jeweiligen Orten auf entsprechenden Bildern unterschiedliche Intensität haben und die einander entsprechenden Bildelemente des ersten und zweiten Bildes in den überlappenden Abschnitten um einen Betrag gegeneinander versetzt sind, der auf Lageänderungen der Plattform bezogen ist, und
  • A) Korrelieren von mehreren, vorzugsweise fünf, ent­ sprechenden Bildelementen des ersten und des zweiten Bildes in den überlappenden Abschnitten durch
    Auswählen von mindestens drei, vorzugsweise mindestens fünf voneinander beabstandeten NxM-Anordnungen von Bildelementen in einem der Bilder,
    Auswählen von mindestens drei, vorzugsweise mindestens fünf voneinander beabstandeten Referenz­ bildelementen in dem anderen Bild, die jeweils den mindestens drei bzw. mindestens fünf NxM-Anordnungen zugeordnet sind, und
    Vergleichen der ausgewählten Referenzbildelemente mit jedem der Bildelemente der zugeordneten NxM-Anordnungen, wobei die relativen Orte der korrelierten Bildeelemente die Lageänderungen der Plattform angeben.
2. Verfahren nach Anspruch 1, dadurch gekennzeich­ net, daß in Schritt C) der Reihen- und Spaltenort des Bildelements in jeder der NxM-Anordnungen aufgezeichnet wird, das die höchste Korrelation mit dem zugeordneten Referenzbildelement hat, und daß die Ebene bestimmt wird, die die Bildelemente in den NxM-Anordnungen enthält, welche die höchste Korrelation mit den zugeordneten Re­ ferenzbildelementen haben.
3. Verfahren nach Anspruch 2, dadurch gekennzeich­ net, daß die Lage der bestimmten Ebene relativ zu der Ebene des ersten Bildes bestimmt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, da­ durch gekennzeichnet, daß in Schritt C) mehrere, vorzugsweise fünf zueinander beabstandete Bild­ elemente in dem ersten Bild ausgewählt werden und daß die Orte der ausgewählten Bildelemente in dem zweiten Bild vorherbestimmt werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeich­ net, daß das Vorherbestimmen der Orte der ausgewählten Bildelemente durch Bestimmen der Orte von ausgewählten Bildelementen in zuvor erzeugten Bildern der Erdoberfläche erfolgt.
6. Verfahren nach einem der vorhergehenden Ansprüche, da­ durch gekennzeichnet, daß zur Bilderzeugung zwei Sensoren verwendet werden, die derart fest zueinander angeordnet sind, daß ihre Bildebenen parallel zueinander liegen.
7. Verfahren nach einem der vorhergehenden Ansprüche, da­ durch gekennzeichnet, daß die Schritte A) und B) durch Fokussieren von Bildern der Erdoberfläche auf eine zweidimensionale Anordnung lichtempfindlicher Elemente durchgeführt werden.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das erste und das zweite Bild aufeinander ausgerichtet werden.
9. Verfahren nach einem der vorhergehenden Ansprüche, da­ durch gekennzeichnet daß auf den zweiten Datensatz eine geometrische Versetzung angewendet wird.
10. Verfahren zur Bestimmung von Geländedaten der Erdoberfläche von einer Plattform, die in der Luft oder im Raum längs eines Flugweges über der Erde bewegt wird, insbesondere von einem Sensor, der nacheinander zweidimensionale Bilder der Erdober­ fläche längs des Flugweges aufzeichnet, mit folgenden Schritten:
  • A) Erzeugen eines ersten Datensatzes entsprechend Bild­ elementen eines ersten zweidimensionalen Bildes der Erdoberfläche an einer ersten Stelle des Flugweges,
  • B) Erzeugen eines zweiten Datensatzes entsprechend Bild­ elementen eines zweiten zweidimensionalen Bildes der Erdoberfläche an einer zweiten Stelle des Flugweges mit geringem Abstand zur ersten Stelle, so daß die beiden Bilder einander mindestens teilweise überlappen,
wobei die Bildelemente entsprechend ihren jeweiligen Orten auf entsprechenden Bildern unterschiedliche Intensität haben und die einander entsprechenden Bildelemente des ersten und zweiten Bildes in den überlappenden Abschnitten um einen Betrag gegeneinander versetzt sind, der auf Lageänderungen der Plattform bezogen ist, und
  • A) Korrelieren von mehreren, vorzugsweise fünf, ent­ sprechenden Bildelementen des ersten und des zweiten Bildes in den überlappenden Abschnitten, wobei die relativen Orte der korrelierten Bildeelemente die Lageänderungen der Plattform angeben, wobei
    die Plattform einen Primärsensor aufweist, der einen Datensatz eindimensionaler Abtastzeilen der überflogenen Erdoberfläche aufzeichnet,
    die aus dem geometrischen Versatz des ersten und zweiten zweidimensionalen Bildes zueinander ermittelte Lageänderung der Plattform auf den Datensatz der eindimensionalen Abtastzeilen angewendet wird, und
    Geländedaten der überflogenen Erdoberfläche aus diesen korrigierten Datensätzen eindimensionaler Abtastzeilen erzeugt werden.
11. Verfahren nach Anspruch 1, wobei
die Schritte (A) und (B) mit einem Bildsensor durchgeführt werden, der eine zweidimensionale Bilderzeugungsanordnung enthält, zur Erzeugung einer Anordnung von Bildelementen eines ersten und eines zweiten zweidimensionalen Bildes der Fläche mit N Zeilen zu jeweils M Bildelementen;
die Bildelemente entsprechend dem Emissionsgrad einer vielgestaltigen Zusammenstellung von Elementen der Fläche unterschiedliche Intensität haben und die einander entsprechenden Bildelementsätze in den überlappenden Teilen der ersten und zweiten Bildanordnung gegeneinander um einen Betrag versetzt sind, der auf Änderungen des Ortes und der Lage der Plattform bezogen ist, und
mindestens fünf räumlich verteilte Felder von Bildelementen in dem überlappenden Teil der ersten und zweiten Bildanordnung verglichen und mindestens fünf stark korrelierte Bildelement-Paßpunkte in dem überlappenden Teil der ersten und zweiten Bildanordnung identifiziert werden, wobei die relativen Positionen der stark korrelierten Bildelement-Paßpunkte bezüglich ihrer individuellen Orte auf der jeweiligen Bildanordnung eine eindeutige Funktion der Änderungen des Ortes und der Lage der Plattform sind.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß die Schritte B) und C) mit zwei zweidimensionalen Bildanordnungen durchgeführt werden, die miteinander koplanar in einer gemeinsamen Bildebene liegen und räumlich in dem Gesamtbildfeld des Bildsensors verteilt sind.
13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, daß in Schritt C) mindestens fünf zueinander beabstandete Felder von Bildelementen in einem der Bilder ausgewählt werden, daß mindestens fünf zueinander beabstandete Referenzbildelemente einschließlich Fenster von Nachbarbildelementen in dem anderen Bild ausgewählt werden, wobei die Fenster jeweils in einem vorherbestimmten Bereich der fünf Felder liegen, und daß jedes der fünf Referenzbildelemente und ihre entsprechenden Fenster von Nachbarbildelementen mit jedem der Bildelemente und ihren Fenstern von Nachbarbildelementen in dem zugeordneten Feld korreliert werden.
14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, daß in Schritt C) der Reihen und Spaltenort desjenigen Bildelements in jedem Feld aufgezeichnet wird, das die höchste Korrelation mit dem zugeordneten Referenzbildelement hat, und daß fünf Ort- und Orientierungsparameter berechnet werden, die die geometrische Beziehung zwischen den beiden Bildern wiedergeben, indem iterativ mindestens quadratische Gleichungen auf die Abweichungen der fotogrammetrischen Koplanaritätsbedingungen für die zehn oder mehr Bildelemente angewendet werden.
15. Verfahren nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, daß in Schritt C) mindestens fünf zueinander beabstandete Felder des zweiten Bildes ausgewählt werden, und daß die Orte der ausgewählten Felder in dem ersten Bild bestimmt werden.
16. Verfahren nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, daß das erste und das zweite Bild aufeinander ausgerichtet werden.
17. Verfahren nach einem der Ansprüche 11 bis 16, dadurch gekennzeichnet, daß auf den zweiten Datensatz eine geometrische Versetzung angewendet wird.
DE3708683A 1986-03-17 1987-03-17 Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform Expired - Fee Related DE3708683C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US06/840,332 US4802757A (en) 1986-03-17 1986-03-17 System for determining the attitude of a moving imaging sensor platform or the like

Publications (2)

Publication Number Publication Date
DE3708683A1 DE3708683A1 (de) 1987-10-01
DE3708683C2 true DE3708683C2 (de) 2000-04-06

Family

ID=25282065

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3708683A Expired - Fee Related DE3708683C2 (de) 1986-03-17 1987-03-17 Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform

Country Status (4)

Country Link
US (1) US4802757A (de)
JP (1) JPS62284214A (de)
DE (1) DE3708683C2 (de)
FR (1) FR2595817B1 (de)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5104217A (en) * 1986-03-17 1992-04-14 Geospectra Corporation System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like
DE3802219A1 (de) * 1988-01-26 1989-08-03 Deutsche Forsch Luft Raumfahrt Verfahren und einrichtung zur fernerkundung der erde
NL8900867A (nl) * 1989-04-07 1990-11-01 Theo Jogchum Poelstra Een systeem van "beeldmeetkunde" ten behoeve van de verkrijging van digitale, 3d topografische informatie.
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
US5257209A (en) * 1990-06-26 1993-10-26 Texas Instruments Incorporated Optical flow computation for moving sensors
US5116118A (en) * 1990-06-28 1992-05-26 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Geometric fiedlity of imaging systems employing sensor arrays
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
JPH0594514A (ja) * 1991-10-01 1993-04-16 Mitsubishi Electric Corp 光学撮像装置、および光学撮像装置の画像処理方法
US6005581A (en) * 1994-01-18 1999-12-21 Honeywell, Inc. Terrain elevation path manager
JPH07294279A (ja) * 1994-04-21 1995-11-10 Nec Corp 撮影姿勢検出装置
US5878356A (en) * 1995-06-14 1999-03-02 Agrometrics, Inc. Aircraft based infrared mapping system for earth based resources
JPH1054719A (ja) * 1996-08-09 1998-02-24 A Tec:Kk 空中測量写真の撮影方法およびそれに使用する撮影ポ イントマーク
FR2752619B1 (fr) * 1996-08-23 1998-11-13 Thomson Csf Procede et dispositif de reconnaissance air-sol pour equipement optronique
FR2763199B1 (fr) * 1997-05-12 1999-07-30 Centre Nat Etd Spatiales Procede pour l'acquisition d'une image par balayage pousse-balai surechantillonne
DE19735175A1 (de) * 1997-08-13 1999-03-04 Gta Sensorik Gmbh Verfahren zur digitalen Erfassung räumlicher Szenen sowie zur Bestimmung von Objektkoordinaten
DE19902681A1 (de) * 1999-01-23 2000-07-27 Lfk Gmbh Verfahren und System zum Wiederfinden von Objekten in Bildern
US7914442B1 (en) 1999-03-01 2011-03-29 Gazdzinski Robert F Endoscopic smart probe and method
US8068897B1 (en) 1999-03-01 2011-11-29 Gazdzinski Robert F Endoscopic smart probe and method
US10973397B2 (en) 1999-03-01 2021-04-13 West View Research, Llc Computerized information collection and processing apparatus
US8636648B2 (en) 1999-03-01 2014-01-28 West View Research, Llc Endoscopic smart probe
DE19962491A1 (de) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs
DE10017415A1 (de) * 2000-04-07 2001-10-11 Z I Imaging Gmbh Kamera, insbesondere Luftbildkamera
GB0019399D0 (en) * 2000-08-07 2001-08-08 Bae Systems Plc Height measurement enhancemsnt
US7046839B1 (en) 2000-09-19 2006-05-16 Spg Hydro International Inc. Techniques for photogrammetric systems
KR100488685B1 (ko) * 2002-08-22 2005-05-11 한국과학기술원 자동 영상등록 및 보정을 위한 영상 처리방법
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
US7688381B2 (en) * 2003-04-08 2010-03-30 Vanbree Ken System for accurately repositioning imaging devices
FR2882137B1 (fr) * 2005-02-15 2007-04-20 Thales Sa Dispositif d'acquisition d'une image numerique par balayage avec stabilisation passive
US7933001B2 (en) * 2005-07-11 2011-04-26 Kabushiki Kaisha Topcon Geographic data collecting system
JP5150307B2 (ja) * 2008-03-03 2013-02-20 株式会社トプコン 地理データ収集装置
JP5150310B2 (ja) * 2008-03-04 2013-02-20 株式会社トプコン 地理データ収集装置
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8265817B2 (en) * 2008-07-10 2012-09-11 Lockheed Martin Corporation Inertial measurement with an imaging sensor and a digitized map
US8384524B2 (en) * 2008-11-26 2013-02-26 Honeywell International Inc. Passive surface acoustic wave sensing system
US8212714B1 (en) * 2009-08-31 2012-07-03 Sandia Corporation Using doppler radar images to estimate aircraft navigational heading error
US8542286B2 (en) * 2009-11-24 2013-09-24 Microsoft Corporation Large format digital camera with multiple optical systems and detector arrays
US8665316B2 (en) * 2009-11-24 2014-03-04 Microsoft Corporation Multi-resolution digital large format camera with multiple detector arrays
JP5698480B2 (ja) 2010-09-02 2015-04-08 株式会社トプコン 測定方法及び測定装置
US8965598B2 (en) 2010-09-30 2015-02-24 Empire Technology Development Llc Automatic flight control for UAV based solid modeling
US9476970B1 (en) * 2012-03-19 2016-10-25 Google Inc. Camera based localization
US9716847B1 (en) 2012-09-25 2017-07-25 Google Inc. Image capture device with angled image sensor
US8896747B2 (en) 2012-11-13 2014-11-25 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
GB201506329D0 (en) * 2015-04-14 2015-05-27 Vito Nv System and method for processing images of a ground surface
WO2018090205A1 (en) * 2016-11-15 2018-05-24 SZ DJI Technology Co., Ltd. Method and system for image-based object detection and corresponding movement adjustment maneuvers
CN110869981B (zh) * 2016-12-30 2023-12-01 辉达公司 用于自主车辆的高清晰度地图数据的向量数据编码
WO2018184218A1 (zh) * 2017-04-07 2018-10-11 深圳市大疆创新科技有限公司 控制方法、处理装置、处理器、飞行器和体感系统
WO2019191591A1 (en) * 2018-03-30 2019-10-03 Drs Network & Imaging Systems, Llc Method and system for scanning of a focal plane array during earth observation imaging
CN109405803A (zh) * 2018-10-23 2019-03-01 贵州省第三测绘院 航空遥感数据获取的方法和装置
CN111536982B (zh) * 2020-05-06 2023-09-19 北京工业大学 一种光照不良条件下小行星探测器光学导航图像生成方法
CN114184172A (zh) * 2021-10-22 2022-03-15 中石化石油工程技术服务有限公司 一种低空航测像控点布设方法
CN115951718B (zh) * 2023-03-14 2023-05-09 风脉能源(武汉)股份有限公司 基于无人机的风机叶片巡检局部动态路径规划方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3997795A (en) * 1974-05-13 1976-12-14 Jenoptik Jena G.M.B.H. Arrangement for control of aerial cameras
US4313678A (en) * 1979-09-24 1982-02-02 The United States Of America As Represented By The Secretary Of The Interior Automated satellite mapping system (MAPSAT)
DE3043577C2 (de) * 1980-11-19 1983-11-17 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Photogrammetrische Vorrichtung für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
EP0157414A2 (de) * 1984-04-06 1985-10-09 Honeywell Inc. Verfahren und Vorrichtung zur Distanzmessung
DE3219032C3 (de) * 1982-05-19 1988-07-07 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Stereophotogrammetrisches aufnahme- und auswerteverfahren

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5924365A (ja) * 1982-07-30 1984-02-08 Hitachi Ltd 画像処理方法
JPS6084610A (ja) * 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3997795A (en) * 1974-05-13 1976-12-14 Jenoptik Jena G.M.B.H. Arrangement for control of aerial cameras
US4313678A (en) * 1979-09-24 1982-02-02 The United States Of America As Represented By The Secretary Of The Interior Automated satellite mapping system (MAPSAT)
DE3043577C2 (de) * 1980-11-19 1983-11-17 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Photogrammetrische Vorrichtung für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
DE3219032C3 (de) * 1982-05-19 1988-07-07 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Stereophotogrammetrisches aufnahme- und auswerteverfahren
EP0157414A2 (de) * 1984-04-06 1985-10-09 Honeywell Inc. Verfahren und Vorrichtung zur Distanzmessung

Also Published As

Publication number Publication date
US4802757A (en) 1989-02-07
DE3708683A1 (de) 1987-10-01
JPS62284214A (ja) 1987-12-10
FR2595817B1 (fr) 1991-04-12
FR2595817A1 (fr) 1987-09-18

Similar Documents

Publication Publication Date Title
DE3708683C2 (de) Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform
EP0326128B1 (de) Verfahren und Einrichtung zur Fernerkundung der Erde
DE60306301T2 (de) Verfahren und Gerät zur Erfassung, Geolokalisierung und Vermessung schräg aufgenommener Bilder
DE2940871C2 (de) Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
DE69627487T2 (de) Direktes digitales panorama-luftbildsystem und -verfahren
EP0396867B1 (de) Navigationsverfahren
DE69719245T2 (de) Digitales Bildaufnahmesystem
EP1836455B1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
DE69204345T2 (de) Satelliten-Zwillings-Bildaufnahme für Abbildung und Steuerung.
DE3219032C2 (de) Stereophotogrammetrisches Aufnahme- und Auswerteverfahren sowie Auswertevorrichtung
DE69430012T2 (de) Auf einem luftfahrzeug angebrachter integrierter fotoapparat
DE10354752B4 (de) Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern
DE2322459C3 (de) Meßverfahren für ein photogrammetrisches Gerät und Gerat zur Durchfuhrung des Verfahrens
EP0308932B1 (de) Verfahren und Vorrichtung zur Abtastung eines Objektes
EP0237601A1 (de) Verfahren zur photogrammetrischen Erfassung eines Objektes mit Hilfe zumindest eines opto-elektrischen Festkörper-Flächensensors
DE102018124401A1 (de) Verfahren zum Aufnehmen eines Bildes mit einem Teilchenmikroskop
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
EP0572804A1 (de) Anordnung zur geometriegetreu hochauflösenden Abtastung grosser Bildformate
DE3446009C2 (de)
DE102016224886B3 (de) Verfahren und Vorrichtung zur Ermittlung der Schnittkanten von zwei sich überlappenden Bildaufnahmen einer Oberfläche
EP1418401A1 (de) Verfahren und Vorrichtung zur luft- oder raumgestützten Photogrammetrie
DE102019220616A1 (de) Verfahren zur simultanen lokalisierung und abbildung
DE69416342T2 (de) Verfahren zur räumlichen Korrektur von digitalen Bildern
DE102004024595B3 (de) Verfahren und Vorrichtung zum Feststellen einer Nutzbarkeit von Fernerkundungsdaten

Legal Events

Date Code Title Description
8128 New person/name/address of the agent

Representative=s name: VIERING, H., DIPL.-ING. JENTSCHURA, R., DIPL.-ING.

8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee