[go: up one dir, main page]

FR3030091A1 - Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef. - Google Patents

Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef. Download PDF

Info

Publication number
FR3030091A1
FR3030091A1 FR1462316A FR1462316A FR3030091A1 FR 3030091 A1 FR3030091 A1 FR 3030091A1 FR 1462316 A FR1462316 A FR 1462316A FR 1462316 A FR1462316 A FR 1462316A FR 3030091 A1 FR3030091 A1 FR 3030091A1
Authority
FR
France
Prior art keywords
aircraft
displacement
image
images
surveillance sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1462316A
Other languages
English (en)
Other versions
FR3030091B1 (fr
Inventor
Stephane Gauthier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations SAS
Original Assignee
Airbus Operations SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations SAS filed Critical Airbus Operations SAS
Priority to FR1462316A priority Critical patent/FR3030091B1/fr
Priority to US14/965,124 priority patent/US10417520B2/en
Priority to CN201511036038.5A priority patent/CN105716625B/zh
Publication of FR3030091A1 publication Critical patent/FR3030091A1/fr
Application granted granted Critical
Publication of FR3030091B1 publication Critical patent/FR3030091B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

- Le système de détection (1) comporte une unité d'analyse (4) pour analyser des images successives générées par le capteur de surveillance (2) afin de déterminer dans une image une position d'un axe représentatif du déplacement de l'aéronef entre deux images successives, dite position réelle, une unité de calcul (9) pour calculer, à partir de données relatives à un déplacement de l'aéronef entre les générations de ces deux images et du positionnement du capteur de surveillance (2) sur l'aéronef, une position dans une image d'un axe représentatif du déplacement de l'aéronef, dite position théorique, une unité d'estimation (13) pour estimer l'écart angulaire entre la position réelle et la position théorique, et une unité de comparaison (16) pour comparer cet écart angulaire à au moins une valeur de tolérance prédéfinie de manière à détecter un désalignement lorsque cet écart angulaire est supérieur à cette valeur de tolérance.

Description

1 DOMAINE TECHNIQUE La présente invention concerne un procédé et un système de détection automatique d'un désalignement en opération d'un capteur de surveillance d'un aéronef, en particulier d'un avion de transport. ETAT DE LA TECHNIQUE On sait qu'un aéronef moderne est équipé de systèmes (ou capteurs) 10 d'imagerie (ou imageurs) fournissant aux pilotes des données de surveillance de l'environnement de l'aéronef, nommés ci-après « capteurs de surveillance ». Un tel capteur de surveillance peut concerner notamment : - un radar qui fournit une image d'obstacles ou de conditions environnementales existant devant l'aéronef ; 15 - un système de vision améliorée, de type EVS (pour « Enhanced Vision System » en anglais), comprenant une caméra infrarouge qui fournit aux pilotes de l'aéronef une image améliorée d'une zone devant l'aéronef en condition visuelle dégradée ; et - une caméra de roulage qui offre aux pilotes une vue extérieure à l'avant de 20 l'aéronef pour l'aider au pilotage au sol. On sait que la fiabilité de l'information fournie par un tel capteur de surveillance est directement liée à son alignement selon une position prédéterminée. En particulier : - l'image du système de vision améliorée EVS, projetée sur un afficheur tête 25 haute, de type HUD (« Head-Up Display » en anglais), doit par exemple parfaitement se superposer à l'image réelle vue par transparence à travers cet afficheur tête haute ; - le radar doit réaliser une détection dans l'axe de l'aéronef ; et - la caméra de roulage doit être parfaitement alignée avec l'axe de l'aéronef.
30 L'alignement d'un capteur de surveillance selon un axe prédéterminé lié à l'aéronef, est fixé lors de son installation sur la ligne d'assemblage finale de l'aéronef.
3030091 2 Toutefois, durant la vie de l'aéronef, un évènement tel qu'un choc avec un objet externe par exemple, peut mener à un désalignement du capteur de surveillance, soit directement, soit indirectement via le déplacement d'une structure ou partie de structure qui porte le capteur de surveillance.
5 On entend par désalignement, un décalage de la ligne de visée du capteur de surveillance, selon laquelle ce dernier réalise des images, par rapport à une direction prédéterminée prise en compte comme référence. Aussi, il est nécessaire, ou tout au moins particulièrement utile, de pouvoir détecter sur un aéronef le désalignement d'un capteur de surveillance en opération, pour ne pas être induit en erreur et disposer d'une information fiable. EXPOSÉ DE L'INVENTION La présente invention concerne un procédé de détection automatique d'un désalignement en opération d'un capteur de surveillance solidaire d'un aéronef, ledit capteur de surveillance étant apte à générer des images de l'environnement externe de l'aéronef, qui permet de réaliser une détection particulièrement fiable et efficace. Selon l'invention, ledit procédé comprend des étapes successives consistant, en opération, à: a) analyser une pluralité d'images successives générées par le capteur de surveillance pour déterminer, dans au moins une première desdites images, une position, dite position réelle, d'un axe représentatif du déplacement de l'aéronef entre ladite première image et une seconde image ; b) acquérir de systèmes embarqués sur l'aéronef, des données relatives au déplacement de l'aéronef entre un instant de génération de ladite première image et un instant de génération de ladite seconde image ; c) calculer à partir de ces données et du positionnement du capteur de surveillance sur l'aéronef, une position dans ladite première image d'un axe représentatif du déplacement de l'aéronef, dite position théorique ; d) estimer l'écart angulaire entre la position réelle et la position théorique de l'axe représentatif du déplacement de l'aéronef ; et 3030091 3 e) comparer cet écart angulaire à au moins une valeur prédéfinie de manière à détecter un désalignement lorsque cet écart angulaire est supérieur à ladite valeur prédéfinie. Ainsi, grâce à l'invention, on obtient un procédé efficace pour détecter 5 automatiquement en opération (c'est-à-dire lors d'un fonctionnement de l'aéronef, au cours d'un vol ou d'un roulage au sol) un désalignement d'un capteur de surveillance, à partir de l'analyse d'images générées par le capteur de surveillance et de données fournies par des systèmes embarqués, notamment des systèmes de mesure du déplacement et de l'attitude de l'aéronef, comme précisé ci- 10 dessous. Grâce à l'invention, l'équipage de l'aéronef peut ainsi être informé de tout désalignement du capteur de surveillance, et donc savoir si l'information fournie par le capteur de surveillance est exacte et fiable, ou non. On notera que, dans le cadre de la présente invention, ladite première 15 image, sur laquelle est notamment calculée la position réelle, est générée en général chronologiquement après l'autre image (dite seconde image). Il est toutefois également envisageable que ladite première image soit générée chronologiquement avant ladite seconde image. Dans un mode de réalisation préféré, le procédé comprend également une 20 étape de transmission, à au moins un système utilisateur, de l'écart angulaire estimé à l'étape d), cet écart angulaire permettant de quantifier le désalignement du capteur de surveillance, et/ou d'une information relative à un désalignement détecté à l'étape e). De plus, de façon avantageuse, l'étape a) consiste à : 25 - analyser les images générées par le capteur de surveillance pour sélectionner des points caractéristiques ; - pour chacun des points caractéristiques sélectionnés, analyser les images pour déterminer le mouvement de chacun de ces points caractéristiques ; - pour le mouvement de chacun des points caractéristiques, séparer une première 30 composante du mouvement due à un déplacement de l'aéronef d'une seconde composante du mouvement due à un mouvement propre d'un élément auquel appartient le point caractéristique ; et 3030091 4 - déterminer ladite position réelle de l'axe représentatif du déplacement de l'aéronef à l'aide des premières composantes du mouvement desdits points caractéristiques. Selon différents modes de réalisation de l'invention, qui peuvent être pris 5 ensemble ou séparément : - l'analyse des images, mise en oeuvre à l'étape a), est limitée à au moins une zone dite d'intérêt desdites images ; - l'analyse des images, mise en oeuvre à l'étape a), est réalisée uniquement pour toutes les n images successives, n étant un entier supérieur à 1 ; 10 - l'étape a) consiste à déterminer une position dite réelle d'un foyer d'expansion, illustrant ladite position réelle de l'axe représentatif du déplacement de l'aéronef, l'étape c) consiste à déterminer une position dite théorique du foyer d'expansion, illustrant ladite position théorique de l'axe représentatif du déplacement de l'aéronef, et l'étape d) consiste à estimer l'écart entre la position réelle du foyer 15 d'expansion et la position théorique du foyer d'expansion ; - le procédé comprend une étape de détermination d'un taux de confiance de l'écart angulaire estimé à l'étape d) ; - le procédé comprend une étape de filtrage temporel de l'écart angulaire estimé à l'étape d).
20 La présente invention concerne également un système de détection automatique d'un désalignement en opération d'un capteur de surveillance solidaire d'un aéronef, ledit capteur de surveillance étant apte à générer des images de l'environnement externe de l'aéronef. Selon l'invention, ledit système de détection comporte : 25 - une unité d'analyse configurée pour analyser une pluralité d'images successives générées par le capteur de surveillance pour déterminer, dans au moins une première desdites images, une position, dite position réelle, d'un axe représentatif du déplacement de l'aéronef entre ladite première image et une seconde image ; - une unité d'acquisition configurée pour acquérir de systèmes embarqués sur 30 l'aéronef, des données relatives au déplacement de l'aéronef entre un instant de génération de ladite première image et un instant de génération de ladite seconde image ; 3030091 5 - une unité de calcul configurée pour calculer à partir de ces données et du positionnement du capteur de surveillance sur l'aéronef, une position dans ladite première image d'un axe représentatif du déplacement de l'aéronef, dite position théorique ; 5 - une unité d'estimation configurée pour estimer l'écart angulaire entre la position réelle et la position théorique de l'axe représentatif du déplacement de l'aéronef ; et - une unité de comparaison configurée pour comparer cet écart angulaire à au moins une valeur prédéfinie de manière à détecter un désalignement lorsque cet 10 écart angulaire est supérieur à ladite valeur prédéfinie. Avantageusement, le système de détection comporte également une unité de transmission configurée pour transmettre l'écart angulaire estimé par l'unité d'estimation et/ou une information relative à un désalignement détecté par l'unité de comparaison, à au moins un système utilisateur tel qu'un système de 15 correction pour l'écart angulaire. La présente invention concerne également un aéronef, en particulier un avion de transport, qui est pourvu d'un système de détection tel que celui spécifié ci-dessus.
20 BRÈVE DESCRIPTION DES FIGURES Les figures annexées feront bien comprendre comment l'invention peut être réalisée. Sur ces figures, des références identiques désignent des éléments semblables.
25 La figure 1 est le schéma synoptique d'un mode de réalisation particulier d'un système de détection automatique d'un désalignement en opération d'un capteur de surveillance d'un aéronef. La figure 2 montre un aéronef, à savoir un avion de transport, pourvu d'un tel système de détection.
30 La figure 3 illustre schématiquement un exemple de détermination d'un écart angulaire illustrant un désalignement, à l'aide d'un foyer d'expansion.
3030091 6 La figure 4 est le schéma synoptique d'un exemple de traitement mis en oeuvre par le système de détection. DESCRIPTION DÉTAILLÉE 5 Le système 1 représenté schématiquement sur la figure 1 et permettant d'illustrer l'invention, est un système de détection automatique d'un désalignement en opération d'un capteur de surveillance « SENSOR » 2 (ci-après « capteur de surveillance 2 ») d'un aéronef AC, par exemple d'un avion de transport.
10 Le capteur de surveillance 2 qui est installé sur l'aéronef AC est apte à générer des images de l'environnement externe de l'aéronef AC, comme représenté schématiquement sur la figure 2 à l'exemple d'une caméra de roulage. Cette caméra de roulage fournit aux pilotes des images successives (ou séquences vidéo) relatives à une vue extérieure à l'avant de l'aéronef AC roulant 15 au sol S, permettant notamment d'aider les pilotes lors du pilotage au sol. Le capteur de surveillance 2 réalise des images selon un axe de vision AV. Concernant le capteur de surveillance, il peut s'agir également, par exemple : - d'un radar qui fournit une image d'obstacles ou de conditions environnementales 20 existant devant l'aéronef ; - d'un système de vision améliorée, de type EVS (pour « Enhanced Vision System » en anglais), qui comprend une caméra infrarouge et qui fournit aux pilotes de l'aéronef une image améliorée d'une zone devant l'aéronef, en condition visuelle dégradée ; ou 25 - de tout système d'imagerie qui fournit aux pilotes des données de surveillance de l'environnement de l'aéronef, via des images. Ledit système de détection 1 comporte, comme représenté sur la figure 1, une unité centrale 3 comprenant : - une unité d'analyse 4 configurée pour analyser une pluralité d'images 30 successives générées par le capteur de surveillance 2, dans le but de déterminer, dans au moins une première desdites images, une position, dite position réelle, d'un axe représentatif du déplacement de l'aéronef (dit « axe de déplacement » ci- 3030091 7 après) entre ladite première image et une seconde image, comme précisé ci-dessous. Pour ce faire, cette unité d'analyse 4 est reliée, soit directement au capteur de surveillance 2 via une liaison 5 comme représenté sur la figure 1, soit à un moyen de stockage ou d'utilisation d'images qui a reçu les images du capteur 5 de surveillance 2; - une unité d'acquisition «ACQUISITION » 6 (ci-après « unité d'acquisition 6 ») qui est configurée pour acquérir d'un ensemble 7 de système(s) (« SYSTEM ») embarqué(s) sur l'aéronef, via une liaison 8, des données relatives au déplacement de l'aéronef, entre un instant de génération de ladite première image 10 et un instant de génération de ladite seconde image ; - une unité de calcul « COMPUTATION » 9 (ci-après « unité de calcul 9 ») qui est configurée pour calculer, à partir de ces données reçues via une liaison 10 de l'unité d'acquisition 6 et du positionnement connu du capteur de surveillance 2 sur l'aéronef, reçu via une liaison 11 d'une base de données « DATA BASE » 12 (ci- 15 après « base de données 12 »), la position dans ladite première image d'un axe représentatif du déplacement de l'aéronef (dit « axe de déplacement » ci-après), ladite position étant dite position théorique. Ledit positionnement connu du capteur de surveillance sur l'aéronef comprend la position et l'orientation de l'axe de visée du capteur de surveillance par rapport à un référentiel de l'aéronef, telles que 20 mesurées par exemple lors de l'installation du capteur de surveillance sur l'aéronef ; et - une unité d'estimation « ESTIMATION » 13 (ci-après « unité d'estimation 13 ») qui est configurée pour estimer, le cas échéant, l'écart angulaire entre la position réelle (reçue via une liaison 14 de l'unité d'analyse 4) de l'axe de déplacement de 25 l'aéronef, et la position théorique (reçue via une liaison 15 de l'unité de calcul 9) de l'axe de déplacement de l'aéronef. Cet écart angulaire, lorsqu'il n'est pas nul, illustre un défaut d'alignement du capteur de surveillance 2. Ladite première image est générée, en général, chronologiquement après ladite seconde image. Il est toutefois également envisageable que ladite première 30 image soit générée chronologiquement avant ladite seconde image. Par ailleurs, on entend par « instant de génération d'une image », le moment (ou l'instant) où le capteur de surveillance génère (ou prend) cette image.
3030091 8 L'unité centrale 3 du système de détection 1 comprend également une unité de comparaison « COMPARISON » 16 (ci-après « unité de comparaison 16 ») configurée pour comparer cet écart angulaire (reçu via une liaison 17 de l'unité d'estimation 13) à au moins une valeur prédéfinie représentant une 5 tolérance (reçue d'une base de données « DATA BASE » 25 (ci-après « base de données 25 ») via une liaison 26) de manière à détecter un désalignement lorsque cet écart angulaire est supérieur à ladite valeur prédéfinie. Tant que l'écart angulaire est inférieur ou égal à cette valeur prédéfinie, on considère que le défaut d'alignement (bien qu'existant) est situé dans la tolérance et qu'aucun 10 désalignement n'est détecté par le système de détection 1. Lors de la détection d'un désalignement, l'information correspondante peut être transmise, via une liaison 18, à au moins un système 19 (« ALERT ») de l'aéronef, notamment un moyen d'alerte par exemple de type sonore et/ou de type visuel, qui prévient un membre d'équipage du désalignement.
15 Ainsi, le système de détection 1 est apte à détecter efficacement et automatiquement en opération, c'est-à-dire au cours d'un fonctionnement de l'aéronef, lors d'un vol ou lors d'un roulage au sol S (comme représenté sur la figure 2), le désalignement du capteur de surveillance 2, et ceci à partir de l'analyse d'images générées par ce capteur de surveillance 2 et de données 20 fournies par un ou des systèmes embarqués d'un ensemble 7, et à prévenir l'équipage de l'aéronef lors d'une telle détection. Ledit ensemble 7 permettant de fournir des données relatives au déplacement de l'aéronef, à l'unité d'acquisition 6, comprend, par exemple, au moins l'un des éléments ou systèmes suivants de l'aéronef : 25 - un système de référence de données inertielles et de données air, de type ADIRS (« Air Data Inertiel and Reference System » en anglais) ; - un système de positionnement, par exemple de type GPS (« Global Positioning System » en anglais) ; - tout moyen ou calculateur embarqué qui dispose de données relatives au 30 déplacement de l'aéronef. L'unité d'acquisition 6 peut également recevoir les informations à traiter de plusieurs des systèmes ou éléments précités, faisant partie de l'ensemble 7.
3030091 9 L'unité d'acquisition 6 est donc configurée pour acquérir des données relatives au déplacement de l'aéronef. Ce déplacement de l'aéronef inclut le déplacement de l'aéronef selon une trajectoire, ainsi que les modifications d'attitude de l'aéronef (rotation autour de ses trois axes).
5 En outre, dans un mode de réalisation particulier, comme considéré dans la description suivante, le déplacement de l'aéronef est mesuré par rapport au sol. Dans une variante de réalisation, il peut également être mesuré par rapport à un autre élément fixe et notamment par rapport à une masse d'air entourant l'aéronef, par exemple dans le cas où le capteur de surveillance est un radar 10 météorologique. Dans un mode de réalisation préféré, le système de détection 1 comporte une unité de transmission (liaison 20) pour transmettre à au moins un système utilisateur « USER » 21 (ci-après (< système utilisateur 21 »), l'écart angulaire estimé par l'unité d'estimation 13 (ou fourni par l'unité de comparaison 16). Cet 15 écart angulaire permet de quantifier, le cas échéant, le désalignement du capteur de surveillance 2. La quantification du désalignement ainsi obtenue peut-être utilisée pour réaligner automatiquement le capteur de surveillance 2 si celui-ci dispose d'un système de pointage électronique (automatique ou manuel), et ceci via un moyen 20 de réalignement approprié représentant un système utilisateur 21. La détection d'un désalignement du capteur de surveillance est obtenue par une comparaison entre : - le déplacement de l'aéronef, déduit de l'analyse des mouvements entre une succession d'images fournies par le capteur de surveillance 2 dont on veut vérifier 25 l'alignement ; et - le déplacement de l'aéronef, fourni par des systèmes de positionnement de l'aéronef, par exemple de type ADIRS, en prenant en compte la position relative du capteur de surveillance par rapport à un centre de déplacement de l'aéronef (généralement le centre de gravité), qui est enregistrée dans la base de données 30 12. Dans un mode de réalisation préféré, l'unité d'analyse 4 comporte : 3030091 10 - un élément de détection de mouvement « DETECTION » 22 (ci-après « élément de détection de mouvement 22 ») comprenant les éléments de traitement intégrés suivants : - un premier élément de traitement pour analyser les images générées par le 5 capteur de surveillance 2 (et reçues via la liaison 5) de manière à sélectionner des points caractéristiques ; - un deuxième élément de traitement pour analyser, pour chacun des points caractéristiques, les images pour déterminer le mouvement de chacun de ces points caractéristiques ; et 10 - un troisième élément de traitement pour séparer, pour le mouvement de chacun des points caractéristiques, une première composante du mouvement due à un déplacement de l'aéronef et une seconde composante du mouvement due à un mouvement propre d'un élément auquel appartient le point caractéristique ; et 15 - un élément de calcul « COMPUTATION » 23 (ci-après « élément de calcul 23 ») qui est relié par l'intermédiaire d'une liaison 24 à l'élément de détection de mouvement 22 et qui est configuré pour déterminer la position réelle de l'axe de déplacement de l'aéronef, à l'aide des premières composantes du mouvement desdits points caractéristiques, reçues du troisième élément de traitement via la 20 liaison 24. Cette position réelle est transmise par la liaison 14. Dans le cadre de la présente invention, l'élément de détection de mouvement 22 peut mettre en oeuvre différentes solutions usuelles pour extraire des mouvements d'une séquence vidéo (ou suite d'images successives). On peut citer, à titre d'illustration, les types d'extraction (ou algorithmes) suivants : par 25 modélisation markovienne, champs de Markov, moyenne temporelle, opérateur statistique, mise en correspondance (« block matching » en anglais), CafforioRocca,... L'élément de détection de mouvement 22 peut également utiliser des optimisations usuelles de ces différents algorithmes afin d'obtenir de bonnes 30 performances en temps réel.
3030091 11 Par ailleurs, afin de limiter le nombre de calculs nécessaires, et ainsi d'optimiser la charge CPU (pour « Central Processig Unit » en anglais, à savoir unité centrale de traitement), l'élément de détection de mouvement 22 est configuré pour réaliser l'analyse des mouvements non pas sur toute la surface 5 d'une image, mais sur une ou plusieurs zones d'intérêt de l'image, représentant une partie de cette dernière. Ainsi, à titre d'illustration, dans l'exemple d'un capteur de surveillance correspondant à un système de vision améliorée de type EVS, il n'est pas nécessaire d'analyser le ciel, la zone d'intérêt pouvant correspondre dans ce cas à l'ensemble de l'image visualisée excepté le ciel.
10 En outre, pour limiter le nombre de calculs nécessaires, et ainsi optimiser la charge CPU, on peut également prévoir : - d'adapter la granularité (détection de mouvement sur contour, sur cluster, sur point d'intérêt SIFT, point d'intérêt de Harris,...) au type d'image (couleur, infrarouge, radar) générée par le capteur de surveillance et à l'environnement vu 15 par le capteur de surveillance ; - si possible, de réaliser l'analyse de mouvement sur une image ramenée en noir et blanc ; et - de réduire la fréquence de calcul du désalignement. En fonction du capteur de surveillance considéré, il n'est pas nécessaire ou utile de réaliser la détection 20 entre chaque paire d'images successives. L'analyse des images, mise en oeuvre par l'unité d'analyse 4, est réalisée alors uniquement pour toutes les n images successives, c'est-à-dire pour l'image 1, puis pour l'image n+1, ensuite pour l'image 2n+1,..., n étant un entier supérieur à 1 et égal par exemple à 2, 3,... Comme indiqué ci-dessus, l'élément de détection de mouvement 22 peut 25 utiliser l'un de différents algorithmes usuels d'extraction du mouvement de l'aéronef. Ainsi, dans un mode de réalisation particulier, cet élément de détection de mouvement 22 utilise une extraction mise en oeuvre sur la base d'un foyer d'expansion de l'image, comme représenté sur la figure 3.
30 On sait que, lors d'un déplacement d'un imageur (tel que le capteur de surveillance 2) dans une scène statique, les directions de vitesse des points 3030091 12 projetés sur le plan image convergent tous vers un point appelé « foyer d'expansion » (FOE). Ainsi, l'unité centrale 3 (figure 1) détermine pour au moins une image une position dite réelle d'un foyer d'expansion (ou foyer d'expansion réel), illustrant 5 ladite position réelle de l'axe de déplacement de l'aéronef entre deux images consécutives, et une position dite théorique du foyer d'expansion (ou foyer d'expansion théorique), calculée à partir de données relatives au déplacement de l'aéronef entre les prises des deux images consécutives et du positionnement du capteur de surveillance sur l'aéronef, illustrant ladite position théorique de l'axe de 10 déplacement de l'aéronef, et elle estime l'écart entre la position réelle du foyer d'expansion et la position théorique du foyer d'expansion. Dans l'exemple de la figure 3, on considère deux images successives 11 et 12. A titre d'illustration, ces images représentent une scène SC prise à l'avant de l'aéronef. Cette scène SC contient notamment une piste d'atterrissage 27 sur 15 laquelle roule l'aéronef, un élément particulier 28 représenté schématiquement par exemple un panneau, un nuage 29, ainsi que le relief 30 du terrain. Le procédé pour mesurer l'écart angulaire à partir des images 11 et 12, présente les étapes suivantes : - déterminer une image 1A sur laquelle sont mises en évidence des vecteurs de 20 déplacement V1 à V4 des points caractéristiques P1 à P4 considérés ; - déterminer à partir des vecteurs V1, V2 et V3 le foyer d'expansion réel 31, comme illustré sur une image IB de la figure 3. Ce foyer d'expansion réel 31 représente l'axe de déplacement de l'aéronef, vu par le capteur de surveillance. Le vecteur V4 concerne le nuage 29 qui est également soumis à un déplacement 25 propre. Pour pouvoir prendre en compte l'information relative au vecteur V4 et supprimer le déplacement propre du nuage 29, un filtrage est mis en oeuvre comme précisé ci-après ; - à partir d'informations issues d'un ou de systèmes embarqués de l'aéronef, à savoir un système ADIRS dans cet exemple, déterminer le déplacement de 30 l'aéronef AC par rapport au sol entre les instants de génération des images 11 et 12; 3030091 13 - à l'aide du déplacement de l'aéronef AC par rapport au sol, d'une tolérance d'ajustement TOL et de la position angulaire Pa prédéterminée du capteur de surveillance, déterminer le foyer d'expansion théorique 32, c'est-à-dire la position où devrait se trouver l'axe de déplacement de l'aéronef. Cette position est illustrée 5 sur une image IC de la figure 3, par un cercle 32 tenant compte de la tolérance TOL ; et - déterminer l'écart entre les deux axes de déplacement, qui est mis en évidence sur cette image IC par une flèche 33. Par ailleurs, un filtrage est mis en oeuvre pour ramener la scène extérieure 10 à une scène statique, afin de supprimer les vitesses propres autres que celle du capteur de surveillance. Une solution simple pour un capteur de surveillance de type EVS ou lorsque les mouvements propres des objets sont négligeables, peut être d'éliminer les directions des vitesses non convergentes dans le cadre d'une approche par foyer d'expansion FOE.
15 L'unité centrale 3 peut comporter un filtre pour réaliser un filtrage temporel. Ce filtre peut par exemple être intégré dans l'unité d'estimation 13. Ce filtrage temporel peut permettre de séparer un désalignement constant dû notamment à une déformée définitive de la structure, d'un désalignement dynamique dû aux mouvements et vibrations de la structure de l'aéronef (qui ne 20 sont pas forcément à prendre en compte). Ce filtrage temporel peut également permettre de prendre en compte des erreurs de mesure de capteurs de positionnement de l'aéronef, faisant partie de l'ensemble 7 (figure 1). Par ailleurs, la résolution du capteur de surveillance et la distance à l'objet imagé ayant un impact sur la précision de mesure, elle est être intégrée aux 25 différents calculs mis en oeuvre dans l'unité centrale 3. Lors de son fonctionnement sur un aéronef en opération (c'est-à-dire lors d'un vol ou d'un roulage au sol), le système de détection 1, tel que décrit ci-dessus, met en oeuvre les étapes suivantes, représentées sur la figure 4: El/ analyser, via l'unité d'analyse 4, une pluralité d'images successives 11, 12, ..., 30 générées par le capteur de surveillance pour déterminer une position d'un axe de déplacement de l'aéronef dans ces images, dite position réelle ; 3030091 14 E2/ acquérir (« ACQUISITION »), via l'unité d'acquisition 6, au moins d'un système embarqué sur l'aéronef (de l'ensemble 7), des données relatives au déplacement de l'aéronef par rapport au sol ; E3/ calculer (« COMPUTATION »), via l'unité de calcul 9, à partir de ces données 5 et du positionnement du capteur de surveillance sur l'aéronef, issu de la base de données 12, une position dans les images d'un axe de déplacement de l'aéronef, dite position théorique ; E4/ estimer (« ESTIMATION »), via l'unité d'estimation 13, l'écart angulaire entre la position réelle et la position théorique de l'axe de déplacement de l'aéronef ; et 10 E5/ comparer (« COMPARISON »), via l'unité de comparaison 16, cet écart angulaire à au moins une valeur (ou tolérance) prédéfinie de manière à détecter un désalignement lorsque cet écart angulaire est supérieur à ladite valeur prédéfinie, reçue de la base de données 25. Le procédé mis en oeuvre par le système de détection 1 comprend 15 également, entre les étapes E4 et E5, une étape de filtrage E6 (« FILTERING »), pour confirmer l'existence d'un désalignement constant. Par ailleurs, l'étape El d'analyse comprend les sous-étapes Al à A5 suivantes : Al/ définir la ou les zones d'intérêt F (dynamique ou statique) des images 11, 12 ; 20 A2/ sélectionner les points caractéristiques (ou d'intérêt) sur la ou les zones d'intérêt F; A3/ appairer les points caractéristiques entre les images ; A4/ calculer les trajectoires des points d'intérêt (image IA) ; et A5/ calculer la position du foyer d'expansion réel 31 (image IB).
25 On peut prévoir une sous-étape supplémentaire A6 de suppression des trajectoires qui ne sont pas celle de l'aéronef (et divergent par rapport à la moyenne). Le procédé mis en oeuvre par le système de détection 1 peut également comprendre : 30 - une étape E7 de déplacement de l'image acquise pour mettre en oeuvre une correction (« CORRECTION ») d'un désalignement, à l'aide d'un système utilisateur 21 approprié (figure 1) ; et 3030091 15 - une étape E8 de calcul d'un taux de confiance (« CONFIDENCE ») en fonction du nombre de points convergents et de l'évolution de l'erreur. Pour ce faire, l'unité centrale 3 peut comporter un élément de calcul (qui est par exemple intégré dans l'unité d'estimation 13) pour déterminer un taux de 5 confiance pour la valeur de l'écart angulaire estimé. Ce taux de confiance peut être déduit : - de l'évolution au cours du temps du désalignement qui, après filtrage des déformations dynamiques de structures, doit être constant (et évoluer uniquement au moment de l'évènement, par exemple un choc, à l'origine de son apparition) ; 10 et - du nombre de points utilisables pour calculer le déplacement de l'aéronef. Plus le nombre de points convergents est élevé, meilleurs sont le taux de confiance et la précision. Le système de détection 1, tel que décrit ci-dessus, permet de réaliser une 15 détection automatique du désalignement d'un capteur de surveillance, en étant mis en oeuvre par logiciel (« software »), et en ne nécessitant pas d'ajout matériel (« hardware ») spécifique, ceci en prévoyant un algorithme approprié, comme décrit ci-dessus. Le système de détection 1 peut ainsi être implémenté sur des systèmes existant sur l'aéronef et ayant des disponibilités suffisantes en termes 20 d'interface et de ressources de processeurs.

Claims (11)

  1. REVENDICATIONS1. Procédé de détection automatique d'un désalignement en opération d'un capteur de surveillance solidaire d'un aéronef, ledit capteur de surveillance (2) étant apte à générer des images de l'environnement externe de l'aéronef (AC), caractérisé en ce qu'il comprend des étapes successives consistant, en opération, a: a) analyser une pluralité d'images (11, 12) successives générées par le capteur de surveillance (2) pour déterminer, dans au moins une première desdites images, une position, dite position réelle, d'un axe représentatif du déplacement de l'aéronef (AC) entre ladite première image et une seconde image ; b) acquérir d'au moins un système embarqué sur l'aéronef (AC), des données relatives au déplacement de l'aéronef (AC) entre un instant de génération de ladite première image et un instant de génération de ladite seconde image ; c) calculer à partir de ces données et du positionnement du capteur de surveillance (2) sur l'aéronef (AC), une position dans ladite première image d'un axe représentatif du déplacement de l'aéronef (AC), dite position théorique ; d) estimer l'écart angulaire entre la position réelle et la position théorique de l'axe représentatif du déplacement de l'aéronef (AC) ; et e) comparer cet écart angulaire à au moins une valeur prédéfinie de manière à détecter un désalignement lorsque cet écart angulaire est supérieur à ladite valeur prédéfinie.
  2. 2. Procédé selon la revendication 1, caractérisé en ce qu'il comprend une étape de transmission de l'écart angulaire estimé à l'étape d) et/ou d'une information relative à un désalignement détecté à l'étape e), à au moins un système utilisateur (21).
  3. 3. Procédé selon l'une des revendications 1 et 2, caractérisé en ce que l'étape a) consiste à: - analyser les images générées par le capteur de surveillance (2) pour sélectionner des points caractéristiques (P1 à P4) ; - pour chacun des points caractéristiques (P1 à P4) sélectionnés, analyser les images pour déterminer le mouvement de chacun de ces points caractéristiques ; 3030091 17 - pour le mouvement de chacun des points caractéristiques( P1 à P4), séparer une première composante du mouvement due à un déplacement de l'aéronef (AC) d'une seconde composante du mouvement due à un mouvement propre d'un élément auquel appartient le point caractéristique ; et 5 - déterminer ladite position réelle de l'axe représentatif du déplacement de l'aéronef (AC) à l'aide des premières composantes du mouvement desdits points caractéristiques (P1 à P4).
  4. 4. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que l'analyse des images, mise en oeuvre à l'étape a), est 10 limitée à au moins une zone (F) dite d'intérêt desdites images (12).
  5. 5. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que l'analyse des images, mise en oeuvre à l'étape a), est réalisée uniquement pour toutes les n images successives, n étant un entier supérieur à 1. 15
  6. 6. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape a) consiste à déterminer une position dite réelle d'un foyer d'expansion (31), illustrant ladite position réelle de l'axe représentatif du déplacement de l'aéronef (AC), l'étape c) consiste à déterminer une position dite théorique du foyer d'expansion (32), illustrant ladite position théorique de l'axe 20 représentatif du déplacement de l'aéronef (AC), et l'étape d) consiste à estimer l'écart entre la position réelle du foyer d'expansion (31) et la position théorique du foyer d'expansion (32).
  7. 7. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une étape de détermination d'un taux de 25 confiance de l'écart angulaire estimé à l'étape d).
  8. 8. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une étape de filtrage temporel de l'écart angulaire estimé à l'étape d).
  9. 9. Système de détection automatique d'un désalignement en opération 30 d'un capteur de surveillance solidaire d'un aéronef, ledit capteur de surveillance (2) étant apte à générer des images de l'environnement externe de l'aéronef (AC), caractérisé en ce qu'il comporte : 3030091 18 - une unité d'analyse (4) configurée pour analyser une pluralité d'images successives (11, 12) générées par le capteur de surveillance (2) pour déterminer, dans au moins une première desdites images, une position, dite position réelle, d'un axe représentatif du déplacement de l'aéronef (AC) entre ladite première 5 image et une seconde image ; - une unité d'acquisition (6) configurée pour acquérir de systèmes (7) embarqués sur l'aéronef, des données relatives au déplacement de l'aéronef (AC) entre un instant de génération de ladite première image et un instant de génération de ladite seconde image ;
  10. 10 - une unité de calcul (9) configurée pour calculer, à partir de ces données et du positionnement du capteur de surveillance (2) sur l'aéronef (AC), une position dans ladite première image d'un axe représentatif du déplacement de l'aéronef, dite position théorique ; - une unité d'estimation (13) configurée pour estimer l'écart angulaire entre la 15 position réelle et la position théorique de l'axe représentatif du déplacement de l'aéronef (AC) ; et - une unité de comparaison (16) configurée pour comparer cet écart angulaire à au moins une valeur prédéfinie de manière à détecter un désalignement lorsque cet écart angulaire est supérieur à ladite valeur prédéfinie. 20 10. Système selon la revendication 10, caractérisé en ce qu'il comporte une unité de transmission (18, 20) configurée pour transmettre l'écart angulaire estimé par l'unité d'estimation (13) et/ou une information relative à un désalignement détecté par l'unité de comparaison (16), à au moins un système utilisateur (21). 25
  11. 11. Aéronef, caractérisé en ce qu'il comporte un système (1) selon l'une des revendications 9 et 10.
FR1462316A 2014-12-12 2014-12-12 Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef. Active FR3030091B1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1462316A FR3030091B1 (fr) 2014-12-12 2014-12-12 Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef.
US14/965,124 US10417520B2 (en) 2014-12-12 2015-12-10 Method and system for automatically detecting a misalignment during operation of a monitoring sensor of an aircraft
CN201511036038.5A CN105716625B (zh) 2014-12-12 2015-12-11 用于自动地检测飞行器的监测传感器的失准的方法和系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1462316 2014-12-12
FR1462316A FR3030091B1 (fr) 2014-12-12 2014-12-12 Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef.

Publications (2)

Publication Number Publication Date
FR3030091A1 true FR3030091A1 (fr) 2016-06-17
FR3030091B1 FR3030091B1 (fr) 2018-01-26

Family

ID=52988173

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1462316A Active FR3030091B1 (fr) 2014-12-12 2014-12-12 Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef.

Country Status (3)

Country Link
US (1) US10417520B2 (fr)
CN (1) CN105716625B (fr)
FR (1) FR3030091B1 (fr)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9538334B2 (en) 2015-01-15 2017-01-03 GEOTAB Incorporated Telematics furtherance visualization system
US10788316B1 (en) 2016-09-21 2020-09-29 Apple Inc. Multi-sensor real-time alignment and calibration
US9776731B1 (en) * 2016-09-29 2017-10-03 The Boeing Company Methods and apparatus for detecting aircraft surface deformations
FR3066755B1 (fr) * 2017-05-23 2019-06-07 Airbus Operations Procede et dispositif de surveillance et d'estimation de parametres relatifs au vol d'un aeronef.
FR3098729B1 (fr) * 2019-07-18 2023-11-24 Ski Rossignol Systeme d’analyse des performances d’utilisation d’une planche de glisse
CN111099037B (zh) * 2019-12-16 2023-02-10 中国航空工业集团公司洛阳电光设备研究所 一种民机平视显示器显示画面安全性监控的方法
CN117689859B (zh) * 2024-02-02 2024-05-10 深圳市双翌光电科技有限公司 一种高精度的视觉对位方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2665037A1 (fr) * 2012-05-15 2013-11-20 Toshiba Alpine Automotive Technology Corporation Appareil d'étalonnage automatique de caméra embarquée

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995681A (en) * 1997-06-03 1999-11-30 Harris Corporation Adjustment of sensor geometry model parameters using digital imagery co-registration process to reduce errors in digital imagery geolocation data
DE10115043A1 (de) * 2000-04-25 2002-04-04 Iteris Inc Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems, insbesondere eines auf einem Fahrzeug angeordneten Kamerasystems
US6735348B2 (en) * 2001-05-01 2004-05-11 Space Imaging, Llc Apparatuses and methods for mapping image coordinates to ground coordinates
US20040257441A1 (en) * 2001-08-29 2004-12-23 Geovantage, Inc. Digital imaging system for airborne applications
US20030048357A1 (en) * 2001-08-29 2003-03-13 Geovantage, Inc. Digital imaging system for airborne applications
US6653650B2 (en) * 2001-11-26 2003-11-25 Northrop Grumman Corporation Streamlined method and apparatus for aligning a sensor to an aircraft
US7209161B2 (en) * 2002-07-15 2007-04-24 The Boeing Company Method and apparatus for aligning a pair of digital cameras forming a three dimensional image to compensate for a physical misalignment of cameras
US6792369B2 (en) * 2002-08-09 2004-09-14 Raytheon Company System and method for automatically calibrating an alignment reference source
US7602415B2 (en) * 2003-01-17 2009-10-13 Insitu, Inc. Compensation for overflight velocity when stabilizing an airborne camera
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
US7605774B1 (en) * 2004-07-02 2009-10-20 Rockwell Collins, Inc. Enhanced vision system (EVS) processing window tied to flight path
US7337650B1 (en) * 2004-11-09 2008-03-04 Medius Inc. System and method for aligning sensors on a vehicle
JP4681856B2 (ja) * 2004-11-24 2011-05-11 アイシン精機株式会社 カメラの校正方法及びカメラの校正装置
US7379619B2 (en) * 2005-03-09 2008-05-27 Texas Instruments Incorporated System and method for two-dimensional keystone correction for aerial imaging
US7382448B1 (en) * 2005-03-16 2008-06-03 Celestron Acquisition, Llc Alignment system for observation instruments
DE102005014954A1 (de) * 2005-04-01 2006-10-05 Audi Ag Korrektur der Messfehler des Gierwinkels bei Sensoren zur Fahrspurerkennung
JP4820221B2 (ja) * 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 車載カメラのキャリブレーション装置およびプログラム
IL181889A (en) * 2007-03-13 2010-11-30 Israel Aerospace Ind Ltd Method and system for providing a known reference point for an airborne imaging platform
RU2460187C2 (ru) * 2008-02-01 2012-08-27 Рокстек Аб Переходная рама с встроенным прижимным устройством
US8497905B2 (en) * 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
AU2009242513A1 (en) * 2008-05-02 2009-11-05 Eyelc, Inc. System for using image alignment to map objects across disparate images
JP4555876B2 (ja) * 2008-05-30 2010-10-06 株式会社日本自動車部品総合研究所 車載カメラのキャリブレーション方法
JP4690476B2 (ja) * 2009-03-31 2011-06-01 アイシン精機株式会社 車載カメラの校正装置
US20110010026A1 (en) * 2009-07-13 2011-01-13 Utah State University Calibration Method for Aerial Vehicles
JP5299231B2 (ja) * 2009-11-17 2013-09-25 富士通株式会社 キャリブレーション装置
FR2954494B1 (fr) * 2009-12-18 2012-07-27 Thales Sa Procede de calibrage d'un instrument de mesure d'un systeme optronique
US9160980B2 (en) * 2011-01-11 2015-10-13 Qualcomm Incorporated Camera-based inertial sensor alignment for PND
CN103733234B (zh) * 2011-02-21 2017-05-10 斯特拉特克系统有限公司 用于检测飞机场中的外物、碎片或损坏的监视系统和方法
US20120224058A1 (en) * 2011-03-02 2012-09-06 Rosemount Aerospace Inc. Airplane cockpit video system
US10325350B2 (en) * 2011-06-10 2019-06-18 Pictometry International Corp. System and method for forming a video stream containing GIS data in real-time
CN102829762B (zh) * 2011-06-17 2015-02-11 刘正千 无人飞行载具的图像处理系统及方法
US9215383B2 (en) * 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
US9051695B2 (en) * 2011-10-18 2015-06-09 Herzog Railroad Services, Inc. Automated track surveying and ballast replacement
IL220815A (en) * 2012-07-08 2016-12-29 Israel Aerospace Ind Ltd Sensor calibration method and system
KR101282718B1 (ko) * 2012-12-28 2013-07-05 한국항공우주연구원 선형배열 영상센서와 자세제어 센서 간의 절대 오정렬 보정방법
US20140300736A1 (en) * 2013-04-09 2014-10-09 Microsoft Corporation Multi-sensor camera recalibration
US9025825B2 (en) * 2013-05-10 2015-05-05 Palo Alto Research Center Incorporated System and method for visual motion based object segmentation and tracking
US9394059B2 (en) * 2013-08-15 2016-07-19 Borealis Technical Limited Method for monitoring autonomous accelerated aircraft pushback

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2665037A1 (fr) * 2012-05-15 2013-11-20 Toshiba Alpine Automotive Technology Corporation Appareil d'étalonnage automatique de caméra embarquée

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHRISTIAN HERDTWECK ET AL: "Monocular heading estimation in non-stationary urban environment", MULTISENSOR FUSION AND INTEGRATION FOR INTELLIGENT SYSTEMS (MFI), 2012 IEEE CONFERENCE ON, IEEE, 13 September 2012 (2012-09-13), pages 244 - 250, XP032470292, ISBN: 978-1-4673-2510-3, DOI: 10.1109/MFI.2012.6343057 *
GUERRERO J J ET AL: "Uncalibrated vision based on lines for robot navigation", MECHATRONICS, PERGAMON PRESS, OXFORD, GB, vol. 11, no. 6, 1 September 2001 (2001-09-01), pages 759 - 777, XP004297192, ISSN: 0957-4158, DOI: 10.1016/S0957-4158(00)00032-5 *
VAN LEEUWEN M B ET AL: "Motion estimation with a mobile camera for traffic applications", INTELLIGENT VEHICLES SYMPOSIUM, 2000. IV 2000. PROCEEDINGS OF THE IEEE DEARBORN, MI, USA 3-5 OCT. 2000, PISCATAWAY, NJ, USA,IEEE, US, 3 October 2000 (2000-10-03), pages 58 - 63, XP010528913, ISBN: 978-0-7803-6363-2, DOI: 10.1109/IVS.2000.898318 *
WOELK F ET AL: "A monocular image based intersection assistant", INTELLIGENT VEHICLES SYMPOSIUM, 2004 IEEE PARMA, ITALY JUNE 14-17, 2004, PISCATAWAY, NJ, USA,IEEE, 14 June 2004 (2004-06-14), pages 286 - 291, XP010727483, ISBN: 978-0-7803-8310-4, DOI: 10.1109/IVS.2004.1336396 *

Also Published As

Publication number Publication date
CN105716625B (zh) 2021-01-22
US20160171700A1 (en) 2016-06-16
CN105716625A (zh) 2016-06-29
FR3030091B1 (fr) 2018-01-26
US10417520B2 (en) 2019-09-17

Similar Documents

Publication Publication Date Title
FR3030091A1 (fr) Procede et systeme de detection automatique d&#39;un desalignement en operation d&#39;un capteur de surveillance d&#39;un aeronef.
US10884110B2 (en) Calibration of laser and vision sensors
EP2795580B1 (fr) Procédé d&#39;estimation de flot optique à partir d&#39;un capteur asynchrone de lumière
CN108139476A (zh) 信息处理设备、信息处理方法和程序
FR3038109A1 (fr) Systeme et procede de localisation d&#39;impacts sur une surface externe
EP2947628B1 (fr) Procédé de traitement d&#39;informations locales
CA2891149A1 (fr) Procede de projection de donnees virtuelles et dispositif permettant cette projection
FR3070527A1 (fr) Procede et dispositif d&#39;evitement d&#39;un objet par detection de son rapprochement d&#39;un aeronef
EP1936330B1 (fr) Procédé et système de traitement et de visualisation d&#39;images de l&#39;environnement d&#39;un aéronef
Brunner et al. Combining multiple sensor modalities for a localisation robust to smoke
FR3118493A1 (fr) Procede et dispositif de contrôle de determination de positionnement d&#39;un dispositif de visualisation d&#39;informations porte
FR2949852A1 (fr) Procede et systeme de determination de limites de protection avec extrapolation integre sur un horizon temporel donne
FR3013117A1 (fr) Dispositif de supervision pour un aeronef, systeme de supervision, procede de supervision et produit programme d&#39;ordinateur associes
FR3066303B1 (fr) Procede de calibration d&#39;un dispositif de surveillance d&#39;un conducteur dans un vehicule
FR3116906A1 (fr) Procédé et système de détection d’obstacles avec un senseur d’obstacles pour un aéronef
FR3096129A1 (fr) procédé de géolocalisation de plateformes se déplaçant en formation, produit programme d&#39;ordinateur et module de géolocalisation associés
EP3072110B1 (fr) Procédé d&#39;estimation du mouvement d&#39;un objet
FR3029618A1 (fr) Systeme de visualisation synthetique comprenant des moyens d&#39;adaptation du paysage affiche
FR3071624A1 (fr) Systeme d&#39;affichage, procede d&#39;affichage et programme d&#39;ordinateur associes
EP4212825B1 (fr) Procédé d alignement d&#39;une caméra sur une route
Doehler et al. Image-based drift and height estimation for helicopter landings in brownout
FR3072479A1 (fr) Methode de visualisation synthetique d&#39;une scene vue a partir d&#39;un aeronef et systeme de vision synthetique pour mettre en œuvre une telle methode
FR3069689B1 (fr) Procede d&#39;estimation du mouvement d&#39;un point dans une sequence d&#39;images
FR3073655B1 (fr) Procede de determination d&#39;un vecteur vitesse visuel d&#39;un engin mobile, produit programme d&#39;ordinateur et systeme de determination associes
WO2019016473A1 (fr) Procédé d&#39;estimation du mouvement d&#39;un objet évoluant dans un environnement et un champ magnétique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160617

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11