DE3708683C2 - Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform - Google Patents
Verfahren zur Bestimmung von Lageänderungen einer bewegten BildsensorplattformInfo
- Publication number
- DE3708683C2 DE3708683C2 DE3708683A DE3708683A DE3708683C2 DE 3708683 C2 DE3708683 C2 DE 3708683C2 DE 3708683 A DE3708683 A DE 3708683A DE 3708683 A DE3708683 A DE 3708683A DE 3708683 C2 DE3708683 C2 DE 3708683C2
- Authority
- DE
- Germany
- Prior art keywords
- image
- elements
- picture
- images
- platform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft ein Verfahren zur Bestimmung von Lage
änderungen einer Plattform, die in der Luft oder im Raum längs
eines Flugweges über der Erde bewegt wird, und ein Verfahren zur
Bestimmung von Geländedaten der Erdoberfläche von dieser Platt
form.
Multispektrale Bildabtaster sind üblicherweise an bewegten
Luftfahrzeugen oder Satelliten vorgesehen, um Bilder des Geländes
aufzuzeichnen, während sie über die Erdoberfläche hinwegfliegen.
Die Bilder werden als Daten aufgezeichnet, die aus einer Reihe
von Abtastzeilen bestehen, deren relative Orientierung gegenüber
anderen Abtastzeilen sich ändern kann, während sich das Luft-
oder Raumfahrzeug längs seines Flugweges bewegt. Die Lage des
Luft- oder Raumfahrzeugs ist Störeinflüssen durch Roll-, Nick-,
Gier-, Höhen- und Geschwindigkeitsänderungen ausgesetzt, die in
das Geländebild unsystematische geometrische Verzerrungen ein
führen. Im Falle eines Luftfahrzeugs ergeben sich solche
Störungen durch Windböen, Änderungen der Luftdichte und
unerwartete Kursänderungen. Störungen bei einem Satelliten sind
subtiler, können jedoch auch von atmosphärischen Stößen (in
niedrigem Orbit) orbitalen Steuermanövern und Änderungen des
Satellitenschwerpunkts (d. h. Kraftstoffverbrauch, Orientierungs
änderungen der Antennen und Solargeneratoren) herrühren.
Um die Geometrie der "rohen" Bilddaten zu korrigieren, ist
es normalerweise möglich, Bildpunkte mit Bodenkontrollpunkten
auf Karten für jeweils wenige Abtastzeilen der Bilddaten zu
identifizieren, indem Abbildungen für die genaue Position von
Eigenschaften gesucht werden, die bestimmten Bildpunkten in den
Bilddaten entsprechen und dann das gesamte Bild verzerrt und
nochmals abgetastet wird, wodurch man die beste Entsprechung für
alle Geländekontrollpunkte erhält. Diese Möglichkeit ist jedoch
hinsichtlich Zeit- und Arbeitsaufwand besonders kostspielig, denn
die aufgezeichneten Bildaten müssen manuell mit der Position von
Geländekontrollpunkten korreliert werden, und die Korrektur hängt
ausschließlich von der Genauigkeit und der Dichte der Gelände
kontrolle ab. Eine weitere Lösung dieses Problems arbeitet mit
Horizontsuchern, Sternzeigern und Trägheitsnavigationssystemen an
Bord des Luft- oder Raumfahrzeugs. Diese Lagesensoren ermitteln
und speichern Lageänderungsdaten, die zur teilweisen
geometrischen Korrektur der Bilddaten erforderlich sind. Solche
Daten sind aus mindestens drei Gründen nicht optimal: Erstens
verwenden sie Eigenschaften oder Trägheitsreferenzen, die nicht
ein unmittelbarer Teil der aufgezeichneten Geländedaten sind,
zweitens können sie dieselben Kosten verursachen wie der Primär
sensor, und drittens sind ihr Gewicht und ihr Leistungsbedarf in
einigen Anwendungsfällen zu groß.
EP 0 157 414 A2 offenbart ein Verfahren zur Bestimmung von Lage
daten einer Plattform, die in der Luft längs eines Flugweges über
der Erde bewegt wird, insbesondere eines Sensors, der nachein
ander zweidimensionale Bilder der Erdoberfläche längs des Flug
weges aufzeichnet, wobei die nacheinander aufgenommenen Bilder
sich zumindest teilweise überlappen. Eines der von dem Sensor
nacheinander aufgenommenen Bilder wird zunächst verzerrt, bevor
eine Korrelation mit dem verzerrten Bild durchgeführt wird.
Es besteht deshalb ein Bedürfnis für ein leichtes, wirksameres
und billigeres Verfahren zum Ermitteln und Aufzeichnen der Lage
änderungen einer Plattform, beispielsweise einer Bildsensor
plattform, die für Geländeabbildungen in Luft- oder Raum
fahrzeugen geeignet ist.
Zur Lösung der diesem Bedürfnis zugrundeliegenden Aufgabe werden
ein Verfahren mit den Merkmalen nach Anspruch 1 und ein Verfahren
mit den Merkmalen nach Anspruch 10 geschaffen.
Bevorzugte Weiterbildungen sind in den Unteransprüchen
beansprucht.
Bei dem erfindungsgemäßen Verfahren zur Ermittlung von Lageän
derungen einer Bildsensorplattform für Geländeabbildung in Luft-
oder Raumfahrzeugen, kann ein zweiter
Sensor verwendet werden, der vorzugsweise einen zweidimensionalen
panchromatischen Bildsensor enthält, und wobei ferner ein
digitaler Bildkorrelator zum Vergleich sukzessiver, überlappender
und augenblicklich erhaltener zweidimensionaler Geländebilddaten
verwendet wird. Der zweite Sensor erzeugt eine Reihe von Haupt-
und Nebenbildern, wobei jedes Nebenbild zu einem Hauptbild wird,
wenn ein nachfolgendes Nebenbild erzeugt wird. Eine digitale
Bildkorrelation wird zur Identifikation mehrerer (vorzugsweise
fünf) Bildelemente auf dem Hauptbild mit denselben geographischen
Punkten auf dem Nebenbild durchgeführt. Die Korrelation wird
durch Auswahl mehrerer (vorzugsweise fünf) räumlich verteilter
Felder von Bildpunktanordnungen in dem Nebenbild und durch
nachfolgendes Bewegen dieser Anordnungen um das Hauptbild herum
durchgeführt, um für jedes Feld den Grauskala-Korrelations
koeffizienten zu finden. Die Stellen mit den höchsten
Korrelationskoeffizienten werden als wahre Stellen der Neben
bilder relativ zum Hauptbild gewählt. Die Reihe und Spalte der
korrelierten Bildpunkte in dem Nebenbild werden aufgezeichnet,
und die relative Orientierung des Nebenbildes zum Hauptbild wird
ermittelt, indem die Koplanaritätsbedingung der Fotogrammetrie
angewendet wird. Die relative Orientierung der Haupt- und Neben
bilder charakterisiert einheitlich die neue Lage der Sensor
plattform, d. h. die Änderung der Lage der Plattform zwischen den
Zeitpunkten, zu denen die Haupt- und Nebenbilder aufgezeichnet
wurden. Die mit dem zweidimensionalen Bildsensor erhaltenen Daten
können zur späteren Verwendung gespeichert werden, oder sie
werden in Realzeit verarbeitet, um Informationen zu erhalten, die
die Änderungen der Sensorplattform und die korrekte Geometrie der
Geländebilddaten kennzeichnen, welche mit dem Primärsensor
aufgezeichnet wurden.
Das erfindungsgemäße Verfahren zum Ermitteln von Änderungen der
Lage einer in der Luft oder im Raum bewegten
Plattform, z. B. eines multispektralen Abtasters (Sensors) für
Geländeabbildung, kann besonders einfach, genau, preiswert und
zuverlässig umgesetzt werden. Dabei werden Lageänderungen der
Sensorplattform unter Verwendung mathematischer Verfahren
ausgewertet, die von einem Rechner durchführbar sind. Das
Verfahren kann auch dazu eingesetzt werden, Störungen in Ge
ländedaten eines durch Fernabtastung gewonnenen Geländebildes
entweder mit nahezu Realzeitbasis oder rechnerunabhängig zu
korrigieren. Das Verfahren kann ferner Informationen über Höhen-
und Geschwindigkeitsänderungen einer in Luft oder im Raum
bewegten Plattform liefern. Außerdem kann das Verfahren mit
konventionellen Luft- und Raumsensoren arbeiten und in einer
besonders leichten und kompakten Einrichtung verwirklicht werden.
Ein Ausführungsbeispiel der Erfindung wird im folgenden anhand
der Figuren beschrieben. Es zeigen:
Fig. 1 eine schematische perspektivische Darstellung des
Abtastbereiches eines Geländebildsensors, der an einer
bewegten Plattform, typisch an einem Satelliten oder an
einem Luftfahrzeug, angeordnet ist, wobei kleinere
Stabilitätsstörungen dargestellt sind, die signifikante
geometrische Verzerrungen der Geländedaten verursachen,
Fig. 2 eine schematische perspektivische Darstellung des
geometrischen Zusammenhangs zwischen dem
Geländebildsensor und dem Lagesensor gegenüber dem
abgetasteten Gelände,
Fig. 3 eine schematische perspektivische Darstel
lung aufeinander folgender und einander
überlappender Haupt- und Nebenbilder, die
von dem Lagesensor aufgezeichnet werden,
Fig. 4 eine schematische Darstellung sequentieller
Haupt- und Nebenbilder, wobei identische
geographische Punkte der Bilder jeweils
durch Kreise und Punkte bezeichnet sind,
Fig. 5 eine schematische Darstellung der Haupt-
und Nebenbilder nach Durchführung der
Korrelation, wobei die identischen geogra
phischen Punkte zweier Bilder durch koinzi
dente Kreise und Punkte dargestellt sind,
Fig. 6 eine schematische Darstellung des Haupt
bildes und der aus dem Nebenbild erhaltenen
Bildpunktfelder oder -anordnungen, die
mathematisch überlagert und relativ zu
einander verschoben sind,
Fig. 7 eine Seitenansicht von Haupt- und Nebenbild,
bei der die einzige Lageänderung der Sensor
plattform eine Höhenänderung ist,
Fig. 8 eine Seitenansicht von Haupt- und Nebenbild,
bei der die einzige Lageänderung der Sensor
plattform eine Geschwindigkeitsänderung ist,
Fig. 9 eine Seitenansicht von Haupt- und Neben
bild, bei der die einzige Lageänderung der
Sensorplattform eine Nickänderung ist, und
Fig. 10 bis 13 Programmabläufe für die Anwendung des
erfindungsgemäßen Systems.
In Fig. 1 ist ein System zum Ermitteln und Messen der Lage
änderungen einer Sensorplattform an Bord eines bewegten Fahr
zeugs, beispielsweise eines Satelliten 10 oder eines Luft
fahrzeugs 12, dargestellt, das sich längs eines bestimmten
Flugwegs 13 bewegt. Änderungen des Ortes und der Lage der
Plattform führen zu Änderungen der Sensororientierung gegen
über dem Gelände, das abzubilden ist, und bewirken unsyste
matische geometrische Verzerrungen der Geländebilddaten.
Beispielsweise kann die Plattform aus einem panchromatischen
oder einem multispektralen Abtaster (Sensor) bestehen, der
das Gelände unter der Plattform einsieht und elektronische
Signale erzeugt. Diese Signale können mit einem Rechner
zu Bildern des Geländes unter dem Flugweg 13 verarbeitet
werden, während sich die Plattform über die Erdoberfläche
bewegt. Der Bildsensor hat ein Sichtfeld 14, das längs eines
Abtastweges 16 über die Erdoberfläche wandert. In der fol
genden Beschreibung wird der Bildsensor als Primärsensor
bezeichnet, der entweder ein optisch-mechanischer Sensor
oder der modernere Typ sein kann, bei dem eindimensionale
lineare Anordnungen verwendet werden und der üblicherweise
als "Push Broom"- oder als "Multilinear Array"-Abtaster
bezeichnet wird. Eine panchromatische (schwarz-weiß) Dar
stellung des letzteren Typs wird beispielsweise erläu
tert. In beiden Fällen enthält der Bildsensor lichtempfind
liche Detektorelemente, die in einer gemeinsamen Ebene an
geordnet sind, sowie optische Elemente und verschiedene
Arten elektronischer Komponenten. Die Orientierung oder
Lage der Bildebene, die Ausrichtung der optischen Elemente
und die Höhe des Sensors über dem Gelände bestimmen das
Sichtfeld auf der Erdoberfläche.
Wie Fig. 2 zeigt, kann ein einfacher Geländesensor eine
eindimensionale oder lineare Anordnung 20 enthalten, auf
die ein linearer Streifen 18 des Geländes mit einer Op
tik 24 fokussiert wird. Eine wiederholte Abtastung auf
einander folgender Geländestreifen mit dem Linearsensor 20
und die Vorwärtsbewegung der Sensorplattform führen zu
einem Satz von Bilddaten-Abtastzeilen, die in einem Rech
ner zur Erstellung eines zusammengesetzten Bildes der
von dem Sichtfeld des Sensors überstrichenen Fläche ge
nutzt werden kann.
Im Idealfall wird die am Satelliten 10 oder Luftfahrzeug 12
vorgesehene Sensorplattform versuchen, einen stetigen oder
linearen Flugweg 13 bei konstanter Geschwindigkeit, Lage
und Höhe beizubehalten, wenn die Erdoberfläche mit dem Ge
ländebildsensor 20 abgetastet wird, so daß aufeinander
folgende Bildabtastzeilen in genauer geometrischer Beziehung
zu zuvor aufgezeichneten Abtastzeilen aufgezeichnet werden.
Tatsächlich treten jedoch unsystematische Änderungen der
Lage, Höhe und Geschwindigkeit des Luftfahrzeugs 12 in
folge von Windböen, Änderungen der Luftdichte und unerwar
teter Kursänderungen auf, oder im Falle eines Satelliten 10
werden solche Änderungen durch atmosphärische Stöße,
orbitale Steuermanöver und Änderungen des Satellitenschwer
punktes durch Kraftstoffverbrauch und Ausrichtungsänderun
gen von Antennen und Solargeneratoren usw. hervorgerufen.
Diese "Plattformänderungen" resultieren in entsprechenden
Änderungen der Lage des Geländebildsensors 20, durch die
wiederum geometrische Ungenauigkeiten in die Bilddaten ein
geführt werden. Es ist extrem schwierig, solche Ungenauig
keiten der Bilddaten durch nachfolgende Bildverarbeitung
zu beseitigen, ohne daß eine genaue Kenntnis der Frequenz
und Größe der auf den Sensor 20 einwirkenden Störungen be
steht. Die Erfindung führt nun zu einem System zur Ermittlung
der Lage-, der Höhen- und der Geschwindigkeitsänderungen
der Plattform zur Geländebildabtastung. Sie beruht auf
der Erkenntnis, daß Änderungen der Plattformlage durch
Vergleich zweier zweidimensionaler, einander überlappen
der Geländebilder ermittelt und gemessen werden können,
die von einem zweiten Bildsensor augenblicklich aus zwei
Punkten längs des Flugweges erhalten werden können.
Wie Fig. 2 zeigt, ist ein zweiter Geländebilddetektor
oder Sensor 22 auf derselben Plattform wie der primäre
Bildsensor 20 angeordnet und kann eine handelsübliche
zweidimensionale Anordnung lichtempfindlicher Elemente
enthalten, die in einer gemeinsamen Bildebene angeordnet
sind. Der zweite Sensor 22 ist so montiert, daß seine Bild
ebene parallel oder vorzugsweise koplanar mit derjenigen
des ersten Linearsensors 20 liegt. Geeignete elektronische
Schaltungen (nicht dargestellt) üblicher Art dienen zur
elektronischen Abtastung der zweiten Sensoranordnung 22
zwecks Erzeugung eines synoptischen digitalen Bildrasters
(d. h. alle Bilddaten eines Bildfeldes werden von ein und
derselben Stelle aus oder in ein und demselben Zeitpunkt
auf dem Flugweg erhalten) des gesamten oder eines Teils
des mit dem Primärsensor 20 abgetasteten Geländes. Diese
letztgenannten Bilddaten dienen als Referenz, mit der
Lage-, Höhen- und Geschwindigkeitsänderungen festgestellt
und gemessen werden. Wie in Fig. 2 konzeptartig gezeigt,
überlappt der Abtastbereich 26 des zweiten Sensors 22
über die Optik 24 den Abtastbereich der Linearanordnung 20.
Obwohl dies in technischer Hinsicht vorteilhaft sein kann,
muß diese Konfiguration nicht unbedingt vorgesehen sein,
jedoch muß der Sensor 22 einander überlappende zweidimen
sionale Bilder eines Bezugsgeländes aufzeichnen.
Gemäß Fig. 3 dient der Sensor 22 zur Aufzeichnung einer
Reihe einander überlappender Bilder entsprechend den Ab
tastbereichen 26 auf dem Erdboden. Jedes Bild oder Abtast
bereich 26 ist ein Hauptbild, während das nachfolgende
Bild ein Nebenbild des Hauptbildes ist. Das Zeitintervall
zwischen der Aufzeichnung aufeinander folgender Bilder
der Abtastbereiche 26 ist durch die Geschwindigkeit der
Sensorplattform, das Gesamtbildfeld des Sensors, die
nominale Frequenz der Lage-, Geschwindigkeits- und Höhen
änderungen der Sensorplattform, die räumliche Auflösung
eines Elements der zweidimensionalen Anordnung 22 und
die räumliche Auflösung eines Elements der Linearanordnung
20 bestimmt. Der Abtastbereich 26 ändert seine Position
und Größe entsprechend den Änderungen der Lage, Geschwin
digkeit und Höhe der Sensorplattform 12, die als ein Luft
fahrzeug dargestellt ist. Beispielsweise entspricht der
Abtastbereich 26a einer Gruppe von Bedingungen, für die
die Sensorplattform 12 sich auf ihrem vorgegebenen Flug
weg befinden möge und eine konstante Höhe und Geschwindig
keit haben soll. Der Abtastbereich 26b repräsentiert den
Erdbereich, der abgebildet wird, wenn die Sensorplatt
form 12 eine Rollbewegung durchführt. Der Abtastbereich 26d
repräsentiert das Bild, das sich ergibt, wenn die Sensor
plattform 12 über die Höhe hinaus steigt, die sie bei dem
zuvor erhaltenen Bild hatte. Die entsprechenden Änderungen
des von dem Geländebildsensor 20 aufgezeichneten Bildes
sind in Fig. 1 gezeigt. In jedem Falle ist es vorteilhaft,
wenn die Änderungen des mit der Linearanordnung 20 auf
gezeichneten Bildes direkt auf die Änderungen der Bilder
bezogen sind, die der Sensor 22 aufzeichnet, da beide
Sensoren 20, 22 Bildebenen haben, die relativ zueinander
fix angeordnet sind und deshalb durch externe Einflüsse
gleichartig gestört werden.
Im folgenden wird eine Übersicht über das System gegeben,
auf die eine eingehendere Beschreibung anhand der Figu
ren folgt. Ein Raumverlagerungsfaktor zwischen dem Haupt
bild und den nachfolgenden Nebenbildern kann aus der
Geschwindigkeit und Höhe der Sensorplattform 12 vorbestimmt
werden und wird dann als Einflußfaktor für die Bildraster,
d. h. die Sätze digitaler Daten verwendet, die jeweils das
Haupt- und die Nebenbilder repräsentieren. Das Haupt- und
die Nebenbilder werden dann registriert, und es werden
minimal drei, jedoch vorzugsweise 5 Bildpunkte des Haupt
bildes zur Korrelation mit entsprechenden Bildpunkten in
drei oder fünf Feldern des Nebenbildes getestet. Eine
genaue Korrelation ergibt sich, wenn keine Änderungen der
Geschwindigkeit, der Höhe (verglichen mit angenommenen
Nennwerten) oder der Lage (Gieren, Rollen oder Nicken)
in diesem Segment der Flugbahn der Sensorplattform auftre
ten. Bei einer weniger genauen Korrelation werden mehrere
geometrische Verschiebungen auf Felder des Nebenbildes
angewendet, und die Korrelation des Hauptbildes wird wie
derholt. Die auf die Nebenbildfelder angewandten Verschie
bungen, die mit dem Hauptbild am besten korrelieren, kenn
zeichnen die Geometrie einer Änderung gegenüber dem vor
bestimmten Ort (d. h. Geschwindigkeit und Höhe) und der
Lage der Sensoren 20, 22. Mit anderen Worten: die drei
oder mehr Bildpunkte in dem Nebenbild, die den höchsten
Korrelationskoeffizienten zwischen dem Hauptbild und den
Nebenbildern angenommen haben, bestimmen die Orientierung
der zweidimensionalen Anordnung des Sensors 22 und damit
die Änderung des Ortes und der Lage des Sensors 20 zwischen
den Zeitpunkten, zu denen das Hauptbild und die Nebenbil
der aufgezeichnet wurden. Es ist deshalb möglich, die
relative Zeitänderung des Ortes und der Lage der Sensor
plattform bezüglich der Hauptbilddaten zu bestimmen, die
zuvor durch Ermittlung von Lagedaten mit dem Bildsensor
über einer Referenzfläche des Geländes erhalten wurden.
Die absolute Lage der Sensoren 20, 22 kann am besten be
stimmt werden, wenn die Geländebezugsfläche bekannt ist.
Diese absolute Lagebestimmung ist jedoch etwas praktischer
für eine Satelliten-Sensorplattform, die innerhalb von
Stunden oder Tagen über ein und dasselbe Gelände wandert,
als für eine Sensorplattform in einem Luftfahrzeug. Wenn
die Referenzfläche auf dem Gelände nicht bekannt ist, so
wird die Lageänderung der Sensorplattform und die Änderung
gegenüber ihrem zu erwartenden Ort mit dem Sensorsystem 22
bezüglich der Lage und dem Ort über der zuvor aufgezeich
neten Referenzfläche ermittelt. Dies reicht aus, um die
mit dem Geländebildsensor 20 für Höhe-, Geschwindigkeits-
und Lageänderungen aufgezeichneten Bilder zu korrigieren,
die während der Zeit auftraten, die zum Erhalt von minde
stens zwei Bildabtastzeilen mit dem Bildsensor 20 erfor
derlich ist.
Es wird nun auf Fig. 4 Bezug genommen, die einander über
lappende Haupt- und Nebenbilder zeigt, die mit A und B
bezeichnet sind. Mehrere Geländereferenzpunkte auf dem
Nebenbild sind durch Kreise 28 gekennzeichnet. Dieselben
Referenzpunkte sind auf dem Hauptbild durch Punkte 30
gekennzeichnet, wobei die Pfeile die Kreise 28 mit den
entsprechenden Punkten 30 korrelieren. Wie in Fig. 4
gezeigt ist, sind das Haupt- und das Nebenbild A und B
in der Geometrie des überlappenden Teils des Nebenbildes
dargestellt "wie erhalten". Der Grad der Überlappung wurde
mathematisch vorbestimmt unter Zugrundelegung des Zeit
intervalls zwischen dem Aufzeichnen des Haupt- und des
Nebenbildes und der vorherbestimmten Geschwindigkeit und
Höhe der Sensorplattform 12.
Es ist dann erforderlich, die geometrische Orientierung
des Nebenbildes relativ zum Hauptbild zu bestimmen, so
daß die entsprechenden Punkte 28, 30 des Geländes auf
einander ausgerichtet sind, d. h. wenn die Geländepunkte 28,
30 korreliert sind und geometrisch zusammenfallen. Die
geometrische Lage des Nebenbildes, die in koinzidenten
Geländepunkten 28, 30 resultiert, kann von mehreren Ge
ländepunkten des Nebenbildes abgeleitet werden. Diese
Punkte repräsentieren eine hohe Korrelation mit denselben
Punkten, die auf dem Hauptbild aufgezeichnet sind. Dies
erfolgt durch Auswahl von mindestens drei oder vorzugs
weise fünf räumlich verteilten Referenzpunkten auf dem
Nebenbild. Obwohl es aus einfachen Regeln der Geometrie
bekannt ist, daß nur drei Punkte zur Definition einer
Ebene erforderlich sind, ist nicht anzunehmen, daß das
Gelände, welches die zu korrelierenden Punkte enthält,
eine einfache Ebene ist oder daß die Höhenlage eines je
den Punktes dieses Geländes bekannt ist. Deshalb ist es
normalerweise erforderlich, sich auf relative Orientierungs
prinzipien der Fotogrammetrie zu verlassen, die minde
stens fünf Punkte erfordern, welche im Nebenbild und im
Hauptbild (korreliert) identifizierbar sind, um alle
Variablen zu bestimmen, die das mathematische Orientie
rungsproblem im relativen Sinne lösen, d. h. das Nebenbild
relativ zum Hauptbild. Die Koplanaritätsbedingung der
Fotogrammetrie erfordert, daß für jeden der fünf gewählten
Punkte der den jeweiligen Erdpunkt mit der Kameraoptik
und dem entsprechenden Punkt auf dem Filmbild zu einem
ersten Zeitpunkt verbindende Strahl und der denselben
Erdpunkt mit der Kameraoptik und dem entsprechenden Punkt
auf dem zweiten Filmbild zu einem zweiten Zeitpunkt ver
bindende Strahl in einer einzigen Ebene liegen. Die rela
tive Orientierungsoperation erfordert, daß mindestens
fünf Strahlenpaare (gefunden nach der Koplanaritätsbedingung)
einander in den beiden Anordnungen schneiden. Die Kopla
naritätsbedingung und die diese definierenden Gleichungen
sind eingehender in Manual of Photogrammetry, American
Society of Photogrammetry, 4. Auflage, Seiten 55 ff, Copy
right 1944, 1952, 1966, 1980 diskutiert. Die Kenntnis des
Inhalts dieser Veröffentlichung wird in der vorliegenden
Beschreibung vorausgesetzt.
In Fig. 6 sind fünf Felder 34 bis 42 des Nebenbildes aus
gewählt zur Korrelation mit den Referenzpunkten 37 des
Hauptbildes. Jedes Feld 34 bis 42 ist als eine 9 × 9-Anord
nung von Bildpunkten dargestellt. Eine Korrelation wird
durchgeführt, um den Korrelationsgrad der Grauskala (Hellig
keit) zwischen jedem Bildpunkt in den Feldern 34 bis 42
des Nebenbildes und dem entsprechenden Referenzpunkt 37
des Hauptbildes zu bestimmen. Die Grauskalenintensität
oder Helligkeit ist ein Wert, der eine Funktion der mittle
ren integrierten Strahlung auf den Erdpunkt ist, welcher
durch einen Bildpunkt dargestellt wird. Effektiv werden
die Nebenbildfelder 34 bis 42 in X- und Y-Richtung (bezo
gen auf Fig. 6) schrittweise weiterbewegt, so daß eine
Korrelation zwischen jedem X,Y-Ort in den Nebenbildfel
dern 34 bis 42 und dem entsprechenden Referenzbildpunkt 37
erfolgt. Dieses Bilddaten-Verarbeitungsverfahren wird manch
mal auch als "Nachbarschaftsverarbeitung" bezeichnet. Der
Bildpunkt mit dem höchsten Korrelationskoeffizienten in
den Nebenbildfeldern 34 bis 42 wird dann ausgewählt, und
sein X,Y-Ort in dem Bildfeld wird aufgezeichnet. Die
aufgezeichneten Orte der Bildpunkte mit dem höchsten Korre
lationsgrad in den Nebenbildfeldern 34 bis 42 bestimmen
die wahren Orte der Nebenbildfelder 34 bis 42 und somit
des gesamten Nebenbildes relativ zum Hauptbild. Fig. 5
zeigt das Nebenbild B in räumlicher Ausrichtung relativ
zum Hauptbild A, nachdem das Nebenbild geometrisch in zwei
Dimensionen relativ zum Hauptbild "verzerrt" wurde, so
daß die Referenzpunkte 28, 30 zusammenfallen.
In Fig. 10 bis 13 ist ein Ablaufplan für ein typisches
Rechnerprogramm dargestellt, das auf der Grundlage des
vorstehend beschriebenen Systems arbeitet. Fig. 10 zeigt
den ersten Schritt 44 des Programms, der für aufeinander
folgende Orte längs des Flugweges durchgeführt wird, um
die Haupt- und Nebenbilddaten zu erhalten. Dann wird eine
Bildkorrelation in Feldern des Überlappungsbereichs von
Haupt- und Nebenbild durchgeführt, um korrelierte, einan
der entsprechende Punkte in dem Geländeteil zu identifi
zieren, der zweimal abgebildet wurde. Der zweite Schritt
46 bestimmt die relative Orientierung der Nebenbildebene
bezüglich der Hauptbildebene unter Verwendung der Prin
zipien der relativen Orientierung aus der vorstehend be
schriebenen Fotogrammetrie, gemäß denen mindestens fünf
korrelierte, einander entsprechende Punkte erforderlich
sind, die in dem Haupt- und dem Nebenbild enthalten sind.
Die Subroutine zur Durchführung des Schritts 44 ist in
Fig. 11 und 12 gezeigt. Der erste Schritt 48 der Subroutine
besteht darin, daß dieselbe Versetzung angewendet wird, die
zuvor aus dem Haupt/Nebenbild-Korrelationsverfahren ab
geleitet wurde, oder aber ein auf der Grundlage der nomi
nalen Plattformgeschwindigkeit, multipliziert mit dem
Abtastintervall des Bildsensors, geschätzter Wert. Der
Überlappungsbereich wird dann im Schritt 50 in mindestens
fünf oder mehr Felder aufgeteilt, wenn eine relativ große
zweidimensionale Bilderzeugungsanordnung als Lagesensor
verwendet wird, oder die fünf oder mehr Geländebildfelder
werden von fünf oder mehr relativ kleinen zweidimensiona
len Anordnungen wie vorstehend beschrieben erzeugt. Ein
zweidimensionales Korrelationsverfahren wird dann in
Schritt 52 für jedes Haupt- und Nebenbilddatenfeld durch
geführt. Hierzu wählt ein Rechner gemäß Schritt 54 in
Fig. 12 den sogenannten Kandidatenbereich für einen Paß
punkt in dem Hauptbild, der den stärksten Kontrast und/
oder Punkt in einem zweidimensionalen Bild hat. Ein ana
loges, äquivalentes Verfahren zur visuellen Überprüfung
würde darin bestehen, daß eine bestimmte Bildpunktgruppe
ausgewählt wird. Bei Schritt 56 werden weitere Kandidaten
verarbeitet, wenn der Paßkandidat des Hauptbildes keine
passend hohe Korrelationsspitze im Nebenbild hat. Andern
falls wird das Programm auf Schritt 52 geführt.
Die Subroutine zur Durchführung des Schrittes 46 (Fig. 10)
ist in der Fig. 13 dargestellt. Eine Schätzung der Orientie
rungsparameter wird zunächst bei Schritt 58 durchgeführt,
worauf ein mathematischer Schritt 60 folgt, bei dem die
Quadrate der Abweichung von dem Idealzustand der Koplana
rität von Haupt- und Nebenbild für fünf oder mehr Paare
korrelierter Bildpunkte minimiert werden. Bei Schritt 62
wird bestimmt, ob die Abweichungen unter einem Schwellen
wert liegen, der durch die geometrischen Genauigkeitsan
forderungen bestimmt ist, die an die von dem primären Bild
sensor erhaltenen Daten zu stellen sind. Wenn die Abwei
chungen unter dem Schwellwert liegen, so wird der Schritt 60
wiederholt. Andernfalls wird die Subroutine beendet. Das
Ausgangsprodukt dieses Verfahrens ist eine Zusammenstellung
von Gleichungen, die aufeinander folgende Bildebenen und
damit die Orte und Lagen des primären Bildsensors und
seiner Plattform beschreiben. Diese Gleichungen ermög
lichen genaue geometrische Korrekturen der von dem Primär
sensor erhaltenen Bilddaten entweder in einem relativen
Sinne bezüglich der zuvor aufgezeichneten Bilddaten dieses
"Flugsegments" oder in einem absoluten Sinne bezüglich
einer Karte des Geländes. Der letztere Fall erfordert eine
Bilddatenbasis aus eindeutig identifizierbaren Gelände
abschnitten einschließlich ihrer Kartenkoordinaten und
Höhenlagen, die eine Orientierung eines Haupt- oder Neben
bildes relativ zum Gelände ermöglichen, wobei die vor
stehend beschriebenen Korrelations- und Koplanaritäts
prüfungsverfahren angewendet werden.
Claims (17)
1. Verfahren zur Bestimmung von Lageänderungen einer Plattform,
die in der Luft oder im Raum längs eines Flugweges über der
Erde bewegt wird, insbesondere eines Sensors, der nacheinander
zweidimensionale Bilder der Erdoberfläche längs des Flugweges
aufzeichnet, mit folgenden Schritten:
- A) Erzeugen eines ersten Datensatzes entsprechend Bild elementen eines ersten zweidimensionalen Bildes der Erdoberfläche an einer ersten Stelle des Flugweges,
- B) Erzeugen eines zweiten Datensatzes entsprechend Bild elementen eines zweiten zweidimensionalen Bildes der Erdoberfläche an einer zweiten Stelle des Flugweges mit geringem Abstand zur ersten Stelle, so daß die beiden Bilder einander mindestens teilweise überlappen,
- A) Korrelieren von mehreren, vorzugsweise fünf, ent
sprechenden Bildelementen des ersten und des zweiten
Bildes in den überlappenden Abschnitten durch
Auswählen von mindestens drei, vorzugsweise mindestens fünf voneinander beabstandeten NxM-Anordnungen von Bildelementen in einem der Bilder,
Auswählen von mindestens drei, vorzugsweise mindestens fünf voneinander beabstandeten Referenz bildelementen in dem anderen Bild, die jeweils den mindestens drei bzw. mindestens fünf NxM-Anordnungen zugeordnet sind, und
Vergleichen der ausgewählten Referenzbildelemente mit jedem der Bildelemente der zugeordneten NxM-Anordnungen, wobei die relativen Orte der korrelierten Bildeelemente die Lageänderungen der Plattform angeben.
2. Verfahren nach Anspruch 1, dadurch gekennzeich
net, daß in Schritt C) der Reihen- und Spaltenort des
Bildelements in jeder der NxM-Anordnungen aufgezeichnet
wird, das die höchste Korrelation mit dem zugeordneten
Referenzbildelement hat, und daß die Ebene bestimmt wird,
die die Bildelemente in den NxM-Anordnungen enthält,
welche die höchste Korrelation mit den zugeordneten Re
ferenzbildelementen haben.
3. Verfahren nach Anspruch 2, dadurch gekennzeich
net, daß die Lage der bestimmten Ebene relativ zu der
Ebene des ersten Bildes bestimmt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, da
durch gekennzeichnet, daß in Schritt C)
mehrere, vorzugsweise fünf zueinander beabstandete Bild
elemente in dem ersten Bild ausgewählt werden und daß
die Orte der ausgewählten Bildelemente in dem zweiten Bild
vorherbestimmt werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeich
net, daß das Vorherbestimmen der Orte der ausgewählten
Bildelemente durch Bestimmen der Orte von ausgewählten
Bildelementen in zuvor erzeugten Bildern der Erdoberfläche
erfolgt.
6. Verfahren nach einem der vorhergehenden Ansprüche, da
durch gekennzeichnet, daß zur Bilderzeugung
zwei Sensoren verwendet werden, die derart fest zueinander
angeordnet sind, daß ihre Bildebenen parallel zueinander
liegen.
7. Verfahren nach einem der vorhergehenden Ansprüche, da
durch gekennzeichnet, daß die Schritte A)
und B) durch Fokussieren von Bildern der Erdoberfläche auf
eine zweidimensionale Anordnung lichtempfindlicher
Elemente durchgeführt werden.
8. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, daß das erste und
das zweite Bild aufeinander ausgerichtet werden.
9. Verfahren nach einem der vorhergehenden Ansprüche, da
durch gekennzeichnet daß auf den zweiten
Datensatz eine geometrische Versetzung angewendet wird.
10. Verfahren zur Bestimmung von Geländedaten der Erdoberfläche
von einer Plattform, die in der Luft oder im Raum längs eines
Flugweges über der Erde bewegt wird, insbesondere von einem
Sensor, der nacheinander zweidimensionale Bilder der Erdober
fläche längs des Flugweges aufzeichnet, mit folgenden
Schritten:
- A) Erzeugen eines ersten Datensatzes entsprechend Bild elementen eines ersten zweidimensionalen Bildes der Erdoberfläche an einer ersten Stelle des Flugweges,
- B) Erzeugen eines zweiten Datensatzes entsprechend Bild elementen eines zweiten zweidimensionalen Bildes der Erdoberfläche an einer zweiten Stelle des Flugweges mit geringem Abstand zur ersten Stelle, so daß die beiden Bilder einander mindestens teilweise überlappen,
- A) Korrelieren von mehreren, vorzugsweise fünf, ent
sprechenden Bildelementen des ersten und des zweiten
Bildes in den überlappenden Abschnitten, wobei die
relativen Orte der korrelierten Bildeelemente die
Lageänderungen der Plattform angeben, wobei
die Plattform einen Primärsensor aufweist, der einen Datensatz eindimensionaler Abtastzeilen der überflogenen Erdoberfläche aufzeichnet,
die aus dem geometrischen Versatz des ersten und zweiten zweidimensionalen Bildes zueinander ermittelte Lageänderung der Plattform auf den Datensatz der eindimensionalen Abtastzeilen angewendet wird, und
Geländedaten der überflogenen Erdoberfläche aus diesen korrigierten Datensätzen eindimensionaler Abtastzeilen erzeugt werden.
11. Verfahren nach Anspruch 1, wobei
die Schritte (A) und (B) mit einem Bildsensor durchgeführt werden, der eine zweidimensionale Bilderzeugungsanordnung enthält, zur Erzeugung einer Anordnung von Bildelementen eines ersten und eines zweiten zweidimensionalen Bildes der Fläche mit N Zeilen zu jeweils M Bildelementen;
die Bildelemente entsprechend dem Emissionsgrad einer vielgestaltigen Zusammenstellung von Elementen der Fläche unterschiedliche Intensität haben und die einander entsprechenden Bildelementsätze in den überlappenden Teilen der ersten und zweiten Bildanordnung gegeneinander um einen Betrag versetzt sind, der auf Änderungen des Ortes und der Lage der Plattform bezogen ist, und
mindestens fünf räumlich verteilte Felder von Bildelementen in dem überlappenden Teil der ersten und zweiten Bildanordnung verglichen und mindestens fünf stark korrelierte Bildelement-Paßpunkte in dem überlappenden Teil der ersten und zweiten Bildanordnung identifiziert werden, wobei die relativen Positionen der stark korrelierten Bildelement-Paßpunkte bezüglich ihrer individuellen Orte auf der jeweiligen Bildanordnung eine eindeutige Funktion der Änderungen des Ortes und der Lage der Plattform sind.
die Schritte (A) und (B) mit einem Bildsensor durchgeführt werden, der eine zweidimensionale Bilderzeugungsanordnung enthält, zur Erzeugung einer Anordnung von Bildelementen eines ersten und eines zweiten zweidimensionalen Bildes der Fläche mit N Zeilen zu jeweils M Bildelementen;
die Bildelemente entsprechend dem Emissionsgrad einer vielgestaltigen Zusammenstellung von Elementen der Fläche unterschiedliche Intensität haben und die einander entsprechenden Bildelementsätze in den überlappenden Teilen der ersten und zweiten Bildanordnung gegeneinander um einen Betrag versetzt sind, der auf Änderungen des Ortes und der Lage der Plattform bezogen ist, und
mindestens fünf räumlich verteilte Felder von Bildelementen in dem überlappenden Teil der ersten und zweiten Bildanordnung verglichen und mindestens fünf stark korrelierte Bildelement-Paßpunkte in dem überlappenden Teil der ersten und zweiten Bildanordnung identifiziert werden, wobei die relativen Positionen der stark korrelierten Bildelement-Paßpunkte bezüglich ihrer individuellen Orte auf der jeweiligen Bildanordnung eine eindeutige Funktion der Änderungen des Ortes und der Lage der Plattform sind.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß die
Schritte B) und C) mit zwei zweidimensionalen Bildanordnungen
durchgeführt werden, die miteinander koplanar in einer
gemeinsamen Bildebene liegen und räumlich in dem Gesamtbildfeld
des Bildsensors verteilt sind.
13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet,
daß in Schritt C) mindestens fünf zueinander beabstandete
Felder von Bildelementen in einem der Bilder ausgewählt werden,
daß mindestens fünf zueinander beabstandete
Referenzbildelemente einschließlich Fenster von
Nachbarbildelementen in dem anderen Bild ausgewählt werden,
wobei die Fenster jeweils in einem vorherbestimmten Bereich der
fünf Felder liegen, und daß jedes der fünf Referenzbildelemente
und ihre entsprechenden Fenster von Nachbarbildelementen mit
jedem der Bildelemente und ihren Fenstern von
Nachbarbildelementen in dem zugeordneten Feld korreliert
werden.
14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet,
daß in Schritt C) der Reihen und Spaltenort desjenigen
Bildelements in jedem Feld aufgezeichnet wird, das die höchste
Korrelation mit dem zugeordneten Referenzbildelement hat, und
daß fünf Ort- und Orientierungsparameter berechnet werden, die
die geometrische Beziehung zwischen den beiden Bildern
wiedergeben, indem iterativ mindestens quadratische Gleichungen
auf die Abweichungen der fotogrammetrischen
Koplanaritätsbedingungen für die zehn oder mehr Bildelemente
angewendet werden.
15. Verfahren nach einem der Ansprüche 11 bis 14, dadurch
gekennzeichnet, daß in Schritt C) mindestens fünf zueinander
beabstandete Felder des zweiten Bildes ausgewählt werden, und
daß die Orte der ausgewählten Felder in dem ersten Bild
bestimmt werden.
16. Verfahren nach einem der Ansprüche 11 bis 15, dadurch
gekennzeichnet, daß das erste und das zweite Bild aufeinander
ausgerichtet werden.
17. Verfahren nach einem der Ansprüche 11 bis 16, dadurch
gekennzeichnet, daß auf den zweiten Datensatz eine geometrische
Versetzung angewendet wird.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US06/840,332 US4802757A (en) | 1986-03-17 | 1986-03-17 | System for determining the attitude of a moving imaging sensor platform or the like |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3708683A1 DE3708683A1 (de) | 1987-10-01 |
DE3708683C2 true DE3708683C2 (de) | 2000-04-06 |
Family
ID=25282065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3708683A Expired - Fee Related DE3708683C2 (de) | 1986-03-17 | 1987-03-17 | Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform |
Country Status (4)
Country | Link |
---|---|
US (1) | US4802757A (de) |
JP (1) | JPS62284214A (de) |
DE (1) | DE3708683C2 (de) |
FR (1) | FR2595817B1 (de) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5104217A (en) * | 1986-03-17 | 1992-04-14 | Geospectra Corporation | System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like |
DE3802219A1 (de) * | 1988-01-26 | 1989-08-03 | Deutsche Forsch Luft Raumfahrt | Verfahren und einrichtung zur fernerkundung der erde |
NL8900867A (nl) * | 1989-04-07 | 1990-11-01 | Theo Jogchum Poelstra | Een systeem van "beeldmeetkunde" ten behoeve van de verkrijging van digitale, 3d topografische informatie. |
US5146228A (en) * | 1990-01-24 | 1992-09-08 | The Johns Hopkins University | Coherent correlation addition for increasing match information in scene matching navigation systems |
US5257209A (en) * | 1990-06-26 | 1993-10-26 | Texas Instruments Incorporated | Optical flow computation for moving sensors |
US5116118A (en) * | 1990-06-28 | 1992-05-26 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Geometric fiedlity of imaging systems employing sensor arrays |
US5259037A (en) * | 1991-02-07 | 1993-11-02 | Hughes Training, Inc. | Automated video imagery database generation using photogrammetry |
JPH0594514A (ja) * | 1991-10-01 | 1993-04-16 | Mitsubishi Electric Corp | 光学撮像装置、および光学撮像装置の画像処理方法 |
US6005581A (en) * | 1994-01-18 | 1999-12-21 | Honeywell, Inc. | Terrain elevation path manager |
JPH07294279A (ja) * | 1994-04-21 | 1995-11-10 | Nec Corp | 撮影姿勢検出装置 |
US5878356A (en) * | 1995-06-14 | 1999-03-02 | Agrometrics, Inc. | Aircraft based infrared mapping system for earth based resources |
JPH1054719A (ja) * | 1996-08-09 | 1998-02-24 | A Tec:Kk | 空中測量写真の撮影方法およびそれに使用する撮影ポ イントマーク |
FR2752619B1 (fr) * | 1996-08-23 | 1998-11-13 | Thomson Csf | Procede et dispositif de reconnaissance air-sol pour equipement optronique |
FR2763199B1 (fr) * | 1997-05-12 | 1999-07-30 | Centre Nat Etd Spatiales | Procede pour l'acquisition d'une image par balayage pousse-balai surechantillonne |
DE19735175A1 (de) * | 1997-08-13 | 1999-03-04 | Gta Sensorik Gmbh | Verfahren zur digitalen Erfassung räumlicher Szenen sowie zur Bestimmung von Objektkoordinaten |
DE19902681A1 (de) * | 1999-01-23 | 2000-07-27 | Lfk Gmbh | Verfahren und System zum Wiederfinden von Objekten in Bildern |
US7914442B1 (en) | 1999-03-01 | 2011-03-29 | Gazdzinski Robert F | Endoscopic smart probe and method |
US8068897B1 (en) | 1999-03-01 | 2011-11-29 | Gazdzinski Robert F | Endoscopic smart probe and method |
US10973397B2 (en) | 1999-03-01 | 2021-04-13 | West View Research, Llc | Computerized information collection and processing apparatus |
US8636648B2 (en) | 1999-03-01 | 2014-01-28 | West View Research, Llc | Endoscopic smart probe |
DE19962491A1 (de) * | 1999-12-23 | 2001-07-05 | Daimler Chrysler Ag | Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs |
DE10017415A1 (de) * | 2000-04-07 | 2001-10-11 | Z I Imaging Gmbh | Kamera, insbesondere Luftbildkamera |
GB0019399D0 (en) * | 2000-08-07 | 2001-08-08 | Bae Systems Plc | Height measurement enhancemsnt |
US7046839B1 (en) | 2000-09-19 | 2006-05-16 | Spg Hydro International Inc. | Techniques for photogrammetric systems |
KR100488685B1 (ko) * | 2002-08-22 | 2005-05-11 | 한국과학기술원 | 자동 영상등록 및 보정을 위한 영상 처리방법 |
US7071970B2 (en) * | 2003-03-10 | 2006-07-04 | Charles Benton | Video augmented orientation sensor |
US7688381B2 (en) * | 2003-04-08 | 2010-03-30 | Vanbree Ken | System for accurately repositioning imaging devices |
FR2882137B1 (fr) * | 2005-02-15 | 2007-04-20 | Thales Sa | Dispositif d'acquisition d'une image numerique par balayage avec stabilisation passive |
US7933001B2 (en) * | 2005-07-11 | 2011-04-26 | Kabushiki Kaisha Topcon | Geographic data collecting system |
JP5150307B2 (ja) * | 2008-03-03 | 2013-02-20 | 株式会社トプコン | 地理データ収集装置 |
JP5150310B2 (ja) * | 2008-03-04 | 2013-02-20 | 株式会社トプコン | 地理データ収集装置 |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8675068B2 (en) * | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8265817B2 (en) * | 2008-07-10 | 2012-09-11 | Lockheed Martin Corporation | Inertial measurement with an imaging sensor and a digitized map |
US8384524B2 (en) * | 2008-11-26 | 2013-02-26 | Honeywell International Inc. | Passive surface acoustic wave sensing system |
US8212714B1 (en) * | 2009-08-31 | 2012-07-03 | Sandia Corporation | Using doppler radar images to estimate aircraft navigational heading error |
US8542286B2 (en) * | 2009-11-24 | 2013-09-24 | Microsoft Corporation | Large format digital camera with multiple optical systems and detector arrays |
US8665316B2 (en) * | 2009-11-24 | 2014-03-04 | Microsoft Corporation | Multi-resolution digital large format camera with multiple detector arrays |
JP5698480B2 (ja) | 2010-09-02 | 2015-04-08 | 株式会社トプコン | 測定方法及び測定装置 |
US8965598B2 (en) | 2010-09-30 | 2015-02-24 | Empire Technology Development Llc | Automatic flight control for UAV based solid modeling |
US9476970B1 (en) * | 2012-03-19 | 2016-10-25 | Google Inc. | Camera based localization |
US9716847B1 (en) | 2012-09-25 | 2017-07-25 | Google Inc. | Image capture device with angled image sensor |
US8896747B2 (en) | 2012-11-13 | 2014-11-25 | Qualcomm Technologies, Inc. | Depth estimation based on interpolation of inverse focus statistics |
GB201506329D0 (en) * | 2015-04-14 | 2015-05-27 | Vito Nv | System and method for processing images of a ground surface |
WO2018090205A1 (en) * | 2016-11-15 | 2018-05-24 | SZ DJI Technology Co., Ltd. | Method and system for image-based object detection and corresponding movement adjustment maneuvers |
CN110869981B (zh) * | 2016-12-30 | 2023-12-01 | 辉达公司 | 用于自主车辆的高清晰度地图数据的向量数据编码 |
WO2018184218A1 (zh) * | 2017-04-07 | 2018-10-11 | 深圳市大疆创新科技有限公司 | 控制方法、处理装置、处理器、飞行器和体感系统 |
WO2019191591A1 (en) * | 2018-03-30 | 2019-10-03 | Drs Network & Imaging Systems, Llc | Method and system for scanning of a focal plane array during earth observation imaging |
CN109405803A (zh) * | 2018-10-23 | 2019-03-01 | 贵州省第三测绘院 | 航空遥感数据获取的方法和装置 |
CN111536982B (zh) * | 2020-05-06 | 2023-09-19 | 北京工业大学 | 一种光照不良条件下小行星探测器光学导航图像生成方法 |
CN114184172A (zh) * | 2021-10-22 | 2022-03-15 | 中石化石油工程技术服务有限公司 | 一种低空航测像控点布设方法 |
CN115951718B (zh) * | 2023-03-14 | 2023-05-09 | 风脉能源(武汉)股份有限公司 | 基于无人机的风机叶片巡检局部动态路径规划方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3997795A (en) * | 1974-05-13 | 1976-12-14 | Jenoptik Jena G.M.B.H. | Arrangement for control of aerial cameras |
US4313678A (en) * | 1979-09-24 | 1982-02-02 | The United States Of America As Represented By The Secretary Of The Interior | Automated satellite mapping system (MAPSAT) |
DE3043577C2 (de) * | 1980-11-19 | 1983-11-17 | Messerschmitt-Bölkow-Blohm GmbH, 8000 München | Photogrammetrische Vorrichtung für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung |
EP0157414A2 (de) * | 1984-04-06 | 1985-10-09 | Honeywell Inc. | Verfahren und Vorrichtung zur Distanzmessung |
DE3219032C3 (de) * | 1982-05-19 | 1988-07-07 | Messerschmitt-Bölkow-Blohm GmbH, 8000 München | Stereophotogrammetrisches aufnahme- und auswerteverfahren |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5924365A (ja) * | 1982-07-30 | 1984-02-08 | Hitachi Ltd | 画像処理方法 |
JPS6084610A (ja) * | 1983-10-17 | 1985-05-14 | Hitachi Ltd | 誘導装置 |
-
1986
- 1986-03-17 US US06/840,332 patent/US4802757A/en not_active Expired - Lifetime
-
1987
- 1987-03-13 FR FR878703470A patent/FR2595817B1/fr not_active Expired - Lifetime
- 1987-03-17 DE DE3708683A patent/DE3708683C2/de not_active Expired - Fee Related
- 1987-03-17 JP JP62060233A patent/JPS62284214A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3997795A (en) * | 1974-05-13 | 1976-12-14 | Jenoptik Jena G.M.B.H. | Arrangement for control of aerial cameras |
US4313678A (en) * | 1979-09-24 | 1982-02-02 | The United States Of America As Represented By The Secretary Of The Interior | Automated satellite mapping system (MAPSAT) |
DE3043577C2 (de) * | 1980-11-19 | 1983-11-17 | Messerschmitt-Bölkow-Blohm GmbH, 8000 München | Photogrammetrische Vorrichtung für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung |
DE3219032C3 (de) * | 1982-05-19 | 1988-07-07 | Messerschmitt-Bölkow-Blohm GmbH, 8000 München | Stereophotogrammetrisches aufnahme- und auswerteverfahren |
EP0157414A2 (de) * | 1984-04-06 | 1985-10-09 | Honeywell Inc. | Verfahren und Vorrichtung zur Distanzmessung |
Also Published As
Publication number | Publication date |
---|---|
US4802757A (en) | 1989-02-07 |
DE3708683A1 (de) | 1987-10-01 |
JPS62284214A (ja) | 1987-12-10 |
FR2595817B1 (fr) | 1991-04-12 |
FR2595817A1 (fr) | 1987-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3708683C2 (de) | Verfahren zur Bestimmung von Lageänderungen einer bewegten Bildsensorplattform | |
EP0326128B1 (de) | Verfahren und Einrichtung zur Fernerkundung der Erde | |
DE60306301T2 (de) | Verfahren und Gerät zur Erfassung, Geolokalisierung und Vermessung schräg aufgenommener Bilder | |
DE2940871C2 (de) | Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung | |
DE69627487T2 (de) | Direktes digitales panorama-luftbildsystem und -verfahren | |
EP0396867B1 (de) | Navigationsverfahren | |
DE69719245T2 (de) | Digitales Bildaufnahmesystem | |
EP1836455B1 (de) | Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles | |
DE69836522T2 (de) | Lagenerkennungssystem eines selbstbewegenden Kraftwagens | |
DE69204345T2 (de) | Satelliten-Zwillings-Bildaufnahme für Abbildung und Steuerung. | |
DE3219032C2 (de) | Stereophotogrammetrisches Aufnahme- und Auswerteverfahren sowie Auswertevorrichtung | |
DE69430012T2 (de) | Auf einem luftfahrzeug angebrachter integrierter fotoapparat | |
DE10354752B4 (de) | Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern | |
DE2322459C3 (de) | Meßverfahren für ein photogrammetrisches Gerät und Gerat zur Durchfuhrung des Verfahrens | |
EP0308932B1 (de) | Verfahren und Vorrichtung zur Abtastung eines Objektes | |
EP0237601A1 (de) | Verfahren zur photogrammetrischen Erfassung eines Objektes mit Hilfe zumindest eines opto-elektrischen Festkörper-Flächensensors | |
DE102018124401A1 (de) | Verfahren zum Aufnehmen eines Bildes mit einem Teilchenmikroskop | |
DE4416557A1 (de) | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers | |
EP0572804A1 (de) | Anordnung zur geometriegetreu hochauflösenden Abtastung grosser Bildformate | |
DE3446009C2 (de) | ||
DE102016224886B3 (de) | Verfahren und Vorrichtung zur Ermittlung der Schnittkanten von zwei sich überlappenden Bildaufnahmen einer Oberfläche | |
EP1418401A1 (de) | Verfahren und Vorrichtung zur luft- oder raumgestützten Photogrammetrie | |
DE102019220616A1 (de) | Verfahren zur simultanen lokalisierung und abbildung | |
DE69416342T2 (de) | Verfahren zur räumlichen Korrektur von digitalen Bildern | |
DE102004024595B3 (de) | Verfahren und Vorrichtung zum Feststellen einer Nutzbarkeit von Fernerkundungsdaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8128 | New person/name/address of the agent |
Representative=s name: VIERING, H., DIPL.-ING. JENTSCHURA, R., DIPL.-ING. |
|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |