[go: up one dir, main page]

WO2022018381A1 - Procede et systeme pour detecter une ou plusieurs cibles dans l'espace a partir d'images prises depuis un engin spatial tel qu'un satellite d'inspection visuelle, et satellite equipe d'un tel systeme - Google Patents

Procede et systeme pour detecter une ou plusieurs cibles dans l'espace a partir d'images prises depuis un engin spatial tel qu'un satellite d'inspection visuelle, et satellite equipe d'un tel systeme Download PDF

Info

Publication number
WO2022018381A1
WO2022018381A1 PCT/FR2021/051367 FR2021051367W WO2022018381A1 WO 2022018381 A1 WO2022018381 A1 WO 2022018381A1 FR 2021051367 W FR2021051367 W FR 2021051367W WO 2022018381 A1 WO2022018381 A1 WO 2022018381A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
target
image
pixels
targets
Prior art date
Application number
PCT/FR2021/051367
Other languages
English (en)
Inventor
Thierry OLLIVIER
Julien CANTEGREIL
Original Assignee
Spaceable
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spaceable filed Critical Spaceable
Priority to EP21754815.5A priority Critical patent/EP4185532A1/fr
Publication of WO2022018381A1 publication Critical patent/WO2022018381A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/242Orbits and trajectories
    • B64G1/2423Sun-synchronous orbits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Definitions

  • TITLE Method and system for detecting one or more targets in space from images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system
  • the present invention relates to a method for detecting one or more targets in space from images taken from a spacecraft such as a visual inspection satellite. It also relates to a system for implementing this process, as well as a satellite equipped with such a system.
  • the field of the invention is more particularly that of the visual inspection of space objects.
  • Satellite operators are faced with maintenance issues for their equipment, which involves being able to carry out a visual inspection in space by taking images of the target using an imager from a satellite dedicated to these operations.
  • the onboard imager can also be used to detect the position of the target so that the satellite approaches at the right distance.
  • the imagers on board the satellites essentially serve three functions: to take images of the Earth.
  • the viewing angle of the imager is then low to have good resolution; take pictures of their solar panels to ensure they are deployed.
  • the angle of view is then very wide. allow a "hard docking" type docking operation, when an aircraft clings to another [2] There, too, the viewing angle is wide.
  • the approach of a target is carried out using a radar which allows significant detection distances.
  • US 5512743 discloses a satellite system for the detection of near-Earth objects. This system periodically captures two images of the celestial sphere around the earth using a pair of linear arrays of optical detectors oriented so that the image lines of the detectors on the celestial sphere are separated by the same angle. for each pixel in the azimuth. The position of the linear detectors is adjusted for each orbit of the earth by the satellite so that the entire celestial sphere can be imaged.
  • the document EPI 168003 Al discloses a device for measuring space pollution, intended to be embarked on a satellite, comprising: at least one passive imager capable of providing images of space; means for detecting the space debris present on the images of space, determining the trace of said debris; means for locating the distance of the detected debris, determining the distances of the detected debris with respect to the satellite; means for classifying the localized debris, determining for each localized debris its class which is the product of its average albedo by its apparent surface (surf).
  • the object of the present invention is therefore to propose a method and system for detecting one or more targets in space from images taken from a visual inspection satellite, which can provide detections of targets at several kilometers away from the satellite and to determine their trajectory.
  • This objective is achieved with a method for remotely detecting one or more targets in space in low orbit around the Earth from an imager on board a spacecraft in a heliosynchronous orbit and having to approach one or more targets located on a close orbital plane, comprising the following steps: an acquisition of images taken sequentially of an area of space potentially containing said one or more targets, said images being spaced apart by a predetermined period of time, timestamped and associated with the corresponding inertial position of the spacecraft, a realignment of said images thus acquired by means of reference points represented by stars,
  • the detection method according to the invention corresponding to the detection of a single target, the latter comprises the following steps: acquiring two images, spaced apart by a predetermined period of time, to generate a first and a second image of an area of space potentially containing the target, said first and second images being time-stamped and associated with the corresponding inertial position of the spacecraft, realigning the two images by means of reference points represented by stars , performing a difference of the two realigned images, then processing this difference to produce a differential image, processing the differential image to detect therein a target in the form of a group of nearly fixed pixels, following the target thus detected, by acquisition of images of the target thus detected and positioned, until the image thus acquired is shifted by a predetermined number of pixels with respect to a reference image previously chosen from among the images already acquired, said images thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft, measuring a lapse of time between the shooting of the reference image and the shooting of the last image acquired, and processing of
  • At least one of the acquisition, realignment, or difference phases can be carried out several times, to confirm the location of the target and overcome any erroneous detections due to stars or errors of acquisition.
  • the realignment step can also comprise an intermediate calculation to correct a deformation of the images according to the focal length of the lens of the imager.
  • a system for remotely detecting one or more targets in space in low orbit around the Earth from an imager on board a spacecraft in a heliosynchronous orbit and in front of approaching one or more targets situated on a close orbital plane implementing the detection method according to the invention, this system comprising: means for acquiring images taken sequentially of a zone of space potentially containing said one or more targets, said images being spaced apart by a predetermined period of time, time-stamped and associated with the corresponding inertial position of the spacecraft, means for realigning said images thus acquired by means of reference points represented by stars,
  • (iii) means for processing this time measurement to provide position information of said one or more targets relative to said imager.
  • the detection system can advantageously comprise; means for acquiring two images, separated by a predetermined period of time, to generate a first and a second image of an area of space potentially containing one or more targets, said first and second images being timestamped and associated with the corresponding inertial position of the spacecraft, means for realigning the two images by means of reference points represented by stars, means producing a difference between the two realigned images, then processing this difference to produce a differential image, means to process the differential image to detect a target therein in the form of a group of quasi-fixed pixels, means for following the target thus detected, by acquiring images of the target thus detected and positioned, until the image thus acquired is shifted by a predetermined number of pixels with respect to a reference image previously chosen from among the images already acquired, said images are thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft, and means for measuring a lapse of time between the shooting of the reference image and the shooting of the last image acquired, and processing of this lapse of time thus
  • the image acquisition means can advantageously comprise an imager on board a visual inspection satellite.
  • the acquisition, realignment or image difference means can be implemented several times, to confirm the location of the target and overcome any erroneous detections due to stars or acquisition errors .
  • a visual inspection satellite comprising a system for the remote detection of a target in space in low orbit according to the invention.
  • This visual inspection satellite may further comprise means for controlling the orientation of an imager integrated in the detection system according to the invention towards the target.
  • the principle of the method according to the invention is thus to detect, in a first step, almost fixed pixels and then, in a second step, to measure the duration necessary for a shift of these pixels.
  • This method is effective even with a target represented by a few pixels, that is to say when the target is several kilometers away.
  • Altitude height of a satellite above the Earth's surface
  • Orbital speed speed at which a satellite orbits the Earth Orbital period: time taken by a satellite to complete one complete revolution around the Earth
  • Pixel base unit used to measure the definition of a digital raster image
  • Figure 1 illustrates sun-synchronous orbits, with the sun in the observer's position (drawing not to scale);
  • Figure 3 illustrates, in inverted color mode, two images representing the same scene but with a lateral offset due to the movement of the satellite in its orbit
  • Figure 4 shows, in inverted color mode, the two images of Figure 3, realigned and differentiated
  • Figure 5 is a block diagram of an embodiment of a detection system/method according to the invention.
  • the detection method according to the invention comprises, with reference to FIG. 5, five phases:
  • the detection, positioning and target-imager relative distance data are then transmitted from the satellite 2 to a terrestrial reception station 3 connected to a server 4 for processing and supplying spatial data.
  • these detection, positioning and target-imager relative distance data are not transmitted to the ground but are used locally in a feedback loop during an approach phase of the satellite 2.
  • a first image is taken (Image 1), then, after a predetermined period of time, a second image is taken (Image 2).
  • Figure 2 shows the angles of view.
  • the two images In the second phase called realignment P2, the two images must be realigned with each other thanks to the stars located on the two images.
  • the gap between the two images is theoretically known since the time lapse between the shooting of the 2 images is fixed. It is enough to adjust within a few pixels in the four directions to have the best possible precision.
  • An intermediate calculation may be necessary to correct the deformation of the images according to the focal length of the lens.
  • the advantage of this realignment is that it also makes it possible to correct changes in the attitude of the satellite.
  • the difference between the two realigned images is calculated.
  • the luminosity of the stars is substantially the same on the two images, the groups of pixels representing the stars are removed, and it is easy to detect the pixels which have not changed place between Image 1 and Image 2 because they are shifted further to realignment, as shown in Figure 4, the colors of which have been reversed to allow reproduction.
  • the shooting, realignment and difference phases can be carried out several times to confirm the location of the target and overcome bad detections due to stars and acquisition errors.
  • positioning P4 we calculate the spatial position of the target in 2D when we know the position of the target on the images, the field covered by the imager, the definition of the sensor, and the position of the satellite and its attitude (orientation) when taking each image.
  • the difference in angular velocity between the satellite and the target causes a slow lag.
  • the time measurement necessary for this offset makes it possible to calculate the relative angular velocity of the target, therefore its altitude and therefore consequently the distance between the satellite and the target.
  • the definition of the sensor (Height and Width) is:
  • the angular resolution in Height is:
  • RTearth 6378 km (mean radius of the Earth)
  • m 398600.4418 km 3 .s 2 (standard gravitational parameter for the Earth)
  • the relative angular velocity of the satellite relative to the target is:
  • the maximum time between Image 1 and Image 2 must be chosen to have a target offset of less than one pixel between the two images, i.e. it is linked to the relative angular velocity and the angular resolution of the sensor :
  • the offset of the stars must be less than or equal to 10% of the width of the sensor:
  • the minimum time between the shooting of Image 1 and that of Image 2 must be chosen to have a star shift greater than or equal to a few pixels three pixels between the two images, i.e. it is linked to the Satellite angular velocity and sensor angular resolution: He
  • the value of the star offset can be expressed as a function of the time between the shooting of image 1 and that of image 2:
  • the value of the target shift is, for her:
  • DecTarget time x
  • the time lapse between Image 1 and Image 2 must be between 166 ms and 11 seconds. For example, with a time lapse of 1 second between Image 1 and Image 2, we have a star offset of 18 pixels, and a target offset of 0.02 pixels.
  • the relative angular velocity of the target can be calculated in relation to the time required (TimeDec) to have a one-pixel shift between Image 1 and Image 2.
  • VARel NPix x -
  • VARel value in °/s
  • NPix target offset value in pixels
  • VACib VASat - VARel or
  • VACib VASat - NPix x -
  • the estimated period of a target orbit is the time to travel 360° at this speed angular:
  • the altitude is deduced according to (1):
  • the distance between the satellite and the target is the distance between the satellite and the target:
  • the Satellite-Target distance is 4.329 km.
  • the Satellite-Target distance is 4.265 km, which gives a resolution of 7.2 meters. Calculations over a shorter distance
  • the distance resolution is 1 meter with one shot and one scan every second. Distance accuracy increases as distance decreases.
  • the image taken represents an area of: which makes it possible to give the resolution of the image according to the distance:
  • the target must represent at least a square of 2x2 pixels on each image, we can detect: a target of 60 cm side at a distance of 5 km. a target of 100 cm side at a distance of 8 km.
  • pixels represent areas illuminated by the sun, the moon, or the

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Procédé et système pour détecter une cible dans l'espace, à partir d'images prises depuis un engin spatial tel qu'un satellite d'inspection visuelle. Procédé pour détecter à distance une ou plusieurs cibles (1) dans l'espace en orbite basse autour de la Terre à partir d'un imageur embarqué dans un engin spatial (2) sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, comprenant une acquisition d'images prises séquentiellement d'une zone de l'espace contenant potentiellement lesdites une ou plusieurs cibles, un réalignement des images ainsi acquises au moyen de points de référence représentés par des étoiles, une détection, au sein des images prises séquentiellement et réalignées, de groupes de pixels quasiment fixes représentant chacun une cible, une mesure d'un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d'un nombre prédéterminé de pixels, et un traitement de cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles (1) par rapport à l'imageur.

Description

DESCRIPTION
TITRE : Procédé et système pour détecter une ou plusieurs cibles dans l’espace à partir d’images prises depuis un engin spatial tel qu’un satellite d’inspection visuelle, et satellite équipé d’un tel système
DOMAINE DE G INVENTION
La présente invention concerne un procédé pour détecter une ou plusieurs cibles dans l’espace à partir d’images prises depuis un engin spatial tel qu’un satellite d’inspection visuelle. Elle vise également un système pour la mise en œuvre de ce procédé, ainsi qu’un satellite équipé d’un tel système. Le domaine de l’invention est plus particulièrement celui de l’inspection visuelle d’objets spatiaux.
ETAT DE LA TECHNIQUE
Les opérateurs de satellites sont confrontés à des problématiques de maintenance de leurs équipements, ce qui implique de pouvoir réaliser une inspection visuelle dans l’espace en prenant des images de la cible à l'aide d'un imageur depuis un satellite dédié à ces opérations. L’imageur embarqué peut également servir à détecter la position de la cible pour que le satellite s'approche à la bonne distance.
Les imageurs embarqués dans les satellites servent essentiellement à trois fonctions : prendre des images de la Terre. L'angle de vue de l'imageur est alors faible pour avoir une bonne résolution ; prendre des images de leurs panneaux solaires pour s'assurer de leur déploiement. L'angle de vue est alors très large. permettre une opération d’arrimage de type « hard docking », quand un aeronef s'accroche à un autre [2] Là, également, l'angle de vue est large.
Habituellement, l'approche d'une cible est réalisée à l'aide d'un radar qui autorise des distances de détection importantes.
Il existe déjà des procédés de détection d’objet dans l’espace, tel qu’un procédé de détection d’objets spatiaux dans des images satellite vidéo utilisant des informations de mouvement [3] Ce procédé de détection utilise des images de vidéo, c'est à-dire avec un temps réduit entre les images. Les étoiles sont quasiment à la place d'une image à l'autre. Un objet non stellaire se détecte alors facilement car il n’est pas fixe. Ce procédé ne fonctionne que si la cible a une vitesse angulaire vraiment différente de celle du satellite ce qui n'est pas notre cas car le satellite et la cible se trouvent sur des orbites très proches et donc avec des vitesses angulaires très proches.
Il existe des procédés de détection par comparaison avec un catalogue d’étoiles [4], implémentant la prise de vue d’une image unique et une recherche des étoiles visibles sur l'image dans le catalogue embarqué. On peut alors distinguer un objet non stellaire sur l'image. Ce procédé nécessite d'embarquer un catalogue d'étoiles spécifique à l'angle de vue de l'imageur embarqué. Les Star Trackers (ou poursuiveurs d’étoile), possédant ce genre de catalogue, utilisent une optique avec un angle de champ plus large.
Le document US 5512743 divulgue un système satellitaire pour la détection d’objets proches de la Terre. Ce système capture périodiquement deux images de la sphère céleste autour de la terre à l'aide d'une paire de réseaux linéaires de détecteurs optiques orientés de sorte que les lignes d'image des détecteurs sur la sphère céleste sont séparés d’un même angle pour chaque pixel dans l’azimuth. La position des détecteurs linéaires est réglée pour chaque orbite de la terre par le satellite de telle sorte que toute la sphère céleste puisse être imagée.
Le document EPI 168003 Al divulgue un dispositif de mesure de pollution spatiale, destiné à être embarqué sur satellite, comportant : au moins un imageur passif pouvant fournir des images de l'espace; des moyens de détection des débris spatiaux présents sur les images de l'espace, déterminant la trace desdits débris; des moyens de localisation distance des débris détectés, déterminant les distances des débris détectés par rapport au satellite; des moyens de classification des débris localisés, déterminant pour chaque débris localisé sa classe qui est le produit de son albédo moyen par sa surface apparente (surf).
Le but de la présente invention est alors de proposer un procédé et système de détection d’une ou de plusieurs cibles dans l’espace à partir d’images prises depuis un satellite d’inspection visuelle, qui puisse procurer des détections de cibles à plusieurs kilomètres de distance du satellite et d’en déterminer leur trajectoire. EXPOSE DE L’INVENTION
Cet objectif est atteint avec un procédé pour détecter à distance une ou plusieurs cibles dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, comprenant les étapes suivantes: une acquisition d’images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial, un réalignement desdites images ainsi acquises au moyen de points de référence représentés par des étoiles,
(i) une détection, au sein des images prises séquentiellement et réalignées, de groupes de pixels quasiment fixes représentant chacun une cible,
(ii) une mesure d’un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et
(iii) un traitement de cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles (1) par rapport audit imageur.
Dans une mise en œuvre avantageuse du procédé de détection selon l’invention correspondant à la détection d’une seule cible, celui-ci comprend les étapes suivantes : acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement la cible, lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial, réaligner les deux images au moyen de points de référence représentés par des étoiles, réaliser une différence des deux images réalignées, puis traitement de cette différence pour produire une image différentielle, traiter l’image différentielle pour y détecter une cible sous la forme d’un groupe de pixels quasiment fixes, suivre la cible ainsi détectée, par acquisition d’images de la cible ainsi détectée et positionnée, jusqu’à ce que l’image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial, mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible.
Au moins l’une des phases d’acquisition, de réalignement, ou de différence peuvent être réalisées plusieurs fois, pour confirmer l’emplacement de la cible et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition.
L’étape de réalignement peut en outre comprendre un calcul intermédiaire pour corriger une déformation des images en fonction de la focale de l’objectif de l’imageur.
Suivant un autre aspect de l’invention, il est proposé un système pour détecter à distance une ou plusieurs cibles dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, mettant en œuvre le procédé de détection selon l’invention, ce système comprenant: des moyens pour acquérir des images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial, des moyens pour réaligner lesdites images ainsi acquises au moyen de points de référence représentés par des étoiles,
(i) des moyens pour détecter, au sein des images prises séquentiellement et réalignées, des groupes de pixels quasiment fixes représentant chacun une cible,
(ii) des moyens pour mesurer un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et
(iii) des moyens pour traiter cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles par rapport audit imageur.
Le système de détection selon l’invention peut avantageusement comprendre ; des moyens pour acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement une ou plusieurs cibles, lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial, des moyens pour réaligner les deux images au moyen de points de référence représentés par des étoiles, des moyens réaliser une différence des deux images réalignées, puis traitement de cette différence pour produire une image différentielle, des moyens pour traiter l’image différentielle pour y détecter une cible sous la forme d’un groupe de pixels quasiment fixes, des moyens pour suivre la cible ainsi détectée, par acquisition d’images de la cible ainsi détectée et positionnée, jusqu’à ce que l’image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial, et des moyens pour mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible.
Les moyens d’acquisition d’image peuvent avantageusement comprendre un imageur embarqué dans un satellite d’inspection visuelle.
Les moyens d’acquisition, de réalignement ou de différence d’images peuvent être mis en œuvre plusieurs fois, pour confirmer l’emplacement de la cible et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition.
Suivant encore un autre aspect de l’invention, il est proposé un satellite d’inspection visuelle, comprenant un système de détection à distance d’une cible dans l’espace en orbite basse selon l’invention.
Ce satellite d’inspection visuelle peut en outre comprendre des moyens pour contrôler l’orientation d’un imageur intégré dans le système de détection selon l’invention vers la cible. On utilise la caractéristique de la parallaxe, à savoir le déplacement de la position apparente dû au changement de position de l'observateur. En prenant deux images décalées dans le temps et dans l'espace puis en les analysant, on peut détecter des objets fixes ou mobiles et calculer leurs caractéristiques comme leur position, leur vitesse car les objets fixes ne vont pas être affichés au même endroit sur les deux images en fonction de leur éloignement.
Le principe du procédé selon l’invention est ainsi de détecter, dans un premier temps, des pixels quasiment fixes puis, dans un second temps, de mesurer la durée nécessaire à un décalage de ces pixels. Ce procédé est efficace même avec une cible représentée par quelques pixels c'est à dire quand la cible est éloignée de plusieurs kilomètres.
DEFINITIONS
Altitude : hauteur d’un satellite au-dessus de la surface de la Terre Vitesse orbitale: vitesse à laquelle un satellite orbite autour de la Terre Période orbitale: durée mise par un satellite pour accomplir une révolution complète autour de la Terre
Pixel : unité de base permettant de mesurer la définition d’une image numérique matricielle
DESCRIPTION DES FIGURES
D’autres avantages et particularités de l’invention apparaîtront à la lecture de la description détaillée de mises en œuvre et de modes de réalisation nullement limitatifs, et des dessins annexés suivants :
• La figure 1 illustre des orbites héliosynchrones, avec le soleil se trouvant à la place de l'observateur (dessin non à l'échelle) ;
• La figure 2 illustre des prises de vue décalées réalisées dans le procédé de détection selon l’invention ;
• La figure 3 illustre, en mode de couleurs inversées, deux images représentant la même scène mais avec un décalage latéral dû au déplacement du satellite sur son orbite ; • La figure 4 représente, en mode de couleurs inversées, les deux images de la figure 3, réalignées et différenciées ; et
• la figure 5 est un schéma synoptique d’un exemple de réalisation d’un système/procédé de détection selon l’invention.
DESCRIPTION DETAILLEE
Si on considère, en référence aux figures 1 et 2, l'exemple d'un satellite 2 sur une orbite héliosynchrone (qui permet d’avoir un éclairement latéral de la cible sensiblement constant) devant se rapprocher d’une cible 1 située un plan orbital proche, en référence à la figure 1, ce satellite embarquant l’imageur se trouve entre la Terre et la cible, ainsi ni la Terre ni le Soleil ne se trouvent dans le champ de vision.
Le procédé de détection selon l'invention comprend, en référence à la figure 5, cinq phases:
- prise de vues (PI)
- réalignement (P2)
- différence (P3)
- positionnement (P4)
- suivi (tracking) (P5)
Les données de détection, de positionnement et de distance relative cible-imageur sont ensuite transmises depuis le satellite 2 vers une station de réception terrestre 3 reliée à un serveur 4 de traitement et de fourniture de données spatiales.
On peut aussi prévoir que ces données de détection, de positionnement et de distance relative cible-imageur ne soient pas transmises au sol mais soient exploitées localement dans une boucle d’asservissement lors d’une phase d’approche du satellite 2.
Description des phases
Dans la première phase dite de prise de vues PI, on prend une première image (Image 1), puis, après un laps de temps prédéterminé, on prend une deuxième image (Image 2). La figure 2 représente les angles de vue.
On obtient deux images (figure 3) représentant la même scène mais avec un décalage latéral dû au déplacement du satellite sur son orbite. Note : les couleurs ont été inversées afin de faciliter l’interprétation de cette figure et en permettre la reproduction. Ces images possèdent des caractéristiques particulières : la cible apparaît au même endroit sur les deux images, tandis que les étoiles, elles, sont décalées.
Il est à noter que sur cette figure, la cible est indiquée juste pour information car dans cette phase de prise de vues, on ne connaît pas encore sa position.
Dans la seconde phase dite de réalignement P2, Il faut réaligner les deux images entre elles grâce aux étoiles se trouvant sur les deux images. On connaît théoriquement le décalage entre les deux images puisqu'on fixe le laps de temps entre la prise de vue des 2 images. Il suffît d'ajuster à quelques pixels près dans les quatre directions pour avoir la meilleure précision possible. Un calcul intermédiaire peut être nécessaire pour corriger la déformation des images suivant la focale de l’objectif. L’avantage de ce réalignement est qu'il permet également de corriger les changements d'attitude du satellite.
Dans la troisième phase dite de différence P3, on calcule la différence entre les deux images réalignées. Comme la luminosité des étoiles est sensiblement la même sur les deux images, les groupes de pixels représentant les étoiles sont supprimés, et on détecte facilement les pixels qui n’ont pas changé de place entre Image 1 et Image 2 car ils se retrouvent décalés suite au réalignement, comme l’illustre la figure 4 dont les couleurs ont été inversées pour en permettre la reproduction.
Il est à noter que les phases de prise de vues, de réalignement et de différence peuvent être réalisées plusieurs fois pour confirmer l’emplacement de la cible et s'affranchir de mauvaises détections dues aux étoiles et des erreurs d'acquisition.
Dans la quatrième phase dite de positionnement P4, on calcule la position spatiale de la cible en 2D dès lors qu’on connaît la position de la cible sur les images, le champ couvert par l’imageur, la définition du capteur, et la position du satellite et son attitude (orientation) lors de la prise de vue de chaque image.
Dans cinquième phase dite de suivi (tracking) P5, mise en œuvre une fois que la cible est repérée sur une image, on va se concentrer sur cette zone de l'image, ce qui permet de diminuer le temps d'analyse.
On conserve Image 1 comme référence et on va prendre des images en continu jusqu'à ce que la cible soit décalée de 1 pixel sur la nouvelle image (Image 2) par rapport à Image 1.
En effet, la différence de vitesse angulaire entre le satellite et la cible occasionne un décalage lent. La mesure de temps nécessaire à ce décalage permet de calculer la vitesse angulaire relative de la cible, donc son altitude et donc par conséquent la distance entre le satellite et la cible.
Exemples de formule de calcul et applications numériques
Données concernant l'Imageur
L'imageur possède un angle de vue (Field of View) side-to-side égal à FoV= 7.1° La définition du capteur (Hauteur et Largeur) est :
ResH = 2048 pixels et ResL = 2048 pixels La résolution angulaire en largeur est :
FoV
ResAL = 0.0034667969 ° /pixel
ResL
La résolution angulaire en Hauteur est de :
FnV
ResAH = — — = 0.0034667969 ° /pixel R6SH
Données concernant le Satellite
Quand le satellite se trouve à une altitude AltSat = 550 km, sa période orbitale est, selon les Lois de Kepler [1] :
5738.8226 secondes
Figure imgf000011_0001
avec
RTerre = 6378 km (rayon moyen de la Terre) m = 398600.4418 km3. s 2 (Paramètre gravitationnel standard pour la Terre)
Sa vitesse angulaire est
360
VASat = - = 0.062730637 ° / seconde
PSat Données concernant la Cible
Quand la cible se trouve à une altitude AltCib = 555 km, sa période orbitale est selon les lois de Kepler : 5745.0363 secondes (1)
Figure imgf000012_0001
avec
RTerre = 6378 km (rayon moyen de la Terre) m = 398600.4418 km3.s 2 (Paramètre gravitationnel standard pour la Terre)
Sa vitesse angulaire est :
360
VACib = - - = 0.062662789 °/ seconde
PCib '
Calculs pour trouver le temps optimal entre deux images :
La vitesse angulaire relative du satellite par rapport à la cible est :
VARel = VASat - VACib = 6.7848 x 10 5 ° /seconde (2)
Le temps maximum entre Image 1 et Image 2 doit être choisi pour avoir un décalage de la cible inférieur à un pixel entre les deux images, c'est à dire qu'il est lié à la vitesse angulaire relative et à la résolution angulaire du capteur :
ResAL
TempsMaxl = NPixel x - - = 51 secondes VARel avec NPixel = 1
Mais pour que le réalignement sur les étoiles puisse se faire correctement, il faut que le décalage des étoiles soit inférieur ou égal à 10% de la largeur du capteur :
ResAL
TempsMax2 = 0.1 x ResL x = 11 secondes
VASat
Il faut alors prendre la valeur minimale entre TempsMaxl et TempsMax2.
Le temps minimum entre la prise de vue de Image 1 et celle de Image 2 doit être choisi pour avoir un décalage des étoiles supérieur ou égal à quelques pixels trois pixels entre les deux images, c'est à dire qu'il est lié à la vitesse angulaire du Satellite et la résolution angulaire du capteur : Il
ResAL
TempsMin = N Pixel x = 166 ms
VASat avec NPixel = 3
La valeur du décalage des étoiles peut s'exprimer en fonction du temps entre la prise de vue d’image 1 et celle d’image 2 :
VASat
DecEtoiles = temps x
ResAL
La valeur du décalage de la cible est, quand à elle :
VARel
DecCible = temps x
ResAL
Conclusion : pour la phase prise de vues, le laps de temps entre Image 1 et Image 2 doit être compris entre 166 ms et 11 secondes. Par exemple, avec un laps de temps de 1 seconde entre Image 1 et Image 2, on a un décalage des étoiles de 18 pixels, et un décalage de la cible de 0.02 pixels.
Calculs pour estimer la distance entre le satellite et la cible :
Lors de la phase de suivi (tracking), la vitesse angulaire relative de la cible peut être calculée par rapport au temps nécessaire ( TempsDec ) pour avoir un décalage de un pixel entre Image 1 et Image 2.
Il est à noter que plus le temps nécessaire est important et plus cela implique que la distance entre la cible et le satellite soit faible car la vitesse angulaire relative est faible.
ResAL
VARel = NPix x -
TempsDec avec
VARel = valeur en °/s
NPix = valeur du décalage de la cible en pixels
TempsDec = temps nécessaire pour avoir le décalage de NPix
L'équation (2) précitée permet de trouver la vitesse angulaire de la cible puisque l'on connaît la vitesse angulaire du satellite :
VACib = VASat - VARel ou
ResAL
VACib = VASat - NPix x -
TempsDec
La période estimée d'une orbite de la cible est la durée pour parcourir 360° à cette vitesse angulaire :
360
Figure imgf000014_0001
ou
360
PCib =
ResAL
VASat — NPix x TempsDec
L'altitude se déduit d'après (1) :
Figure imgf000014_0002
RTerre = 6378 km (rayon moyen de la Terre) m = 398600.4418 km3. s 2 (Paramètre gravitationnel standard pour la Terre)
La distance entre le satellite et la cible :
Figure imgf000014_0003
Avec par exemple un temps mesuré de 60 secondes pour avoir un décalage de 1 pixel de la cible entre Image 1 et Image 2, cela donne une distance satellite-cible de 4.257 km.
Précision sur le calcul de la distance
Si le temps nécessaire n'est plus 60 secondes mais 59 secondes, la distance Satellite-Cible est 4.329 km.
On a donc une résolution de 72 mètres lorsqu'on fait une prise de vue et une analyse chaque seconde. Mais la précision de la mesure peut être augmentée en diminuant le laps de temps entre deux images : puisque dans la phase de suivi (tracking), on se concentre sur une toute petite zone de l'image, le temps d'analyse est fortement réduit.
Avec une prise de vue et son analyse toutes les 100 ms, si le temps nécessaire est de 59.9 secondes, la distance Satellite-Cible est 4.265 km, ce qui donne une résolution de 7.2 mètres. Calculs sur une distance plus courte
Lorsque la cible est représentée sur une image par un groupe avec un nombre de pixels plus important, le principe reste le même, il suffît de prendre le centre de ce groupe ou son bord et de détecter le décalage d'une image à l'autre.
Si le temps nécessaire pour détecter un décalage de 1 pixel de la cible est de 500 secondes, on obtient une distance de 0.510 km
A cette distance, la résolution de la distance est de 1 mètre avec une prise de vue et une analyse chaque seconde. La précision sur la distance augmente lorsque la distance diminue.
Résolution de l'image
A une distance donnée, l'image prise représente une zone de :
Figure imgf000015_0001
ce qui permet de donner la résolution de l’image en fonction de la distance :
Figure imgf000015_0002
A 5 km de distance, 1 pixel représente 30.29 cm A 500 m de distance, 1 pixel représente 3.29 cm
Si l'on considère que la cible doit représenter au moins un carré de 2x2 pixels sur chaque image, on peut détecter : une cible de 60 cm de côté à une distance de 5 km. une cible de 100 cm de côté à une distance de 8 km.
Il est à noter que ces pixels représentent des zones éclairées par le soleil, la lune, ou la
Terre. Les zones non éclairées de la cible ne seront pas détectées.
Bien entendu, l’invention n’est pas limitée aux exemples qui viennent d’être décrits et de nombreux autres modes de réalisation peuvent être envisagés sans sortir du cadre de la présente invention. En particulier, on peut envisager que le système de détection différentielle selon l’invention puisse être embarqué dans toutes sortes d’engins spatiaux opérant en orbite basse. REFERENCES
[1] "Les 3 lois de Kepler" https://fr.wikipedia.0rg/wiki/Satellite_artificiel#Les_trois_lois_de_Kepler
[2] "Docking with précision" (NASA, 22 Nov 2007) https://www.nasa.gov/missions/shuttle/f_docking.html
[3] Xueyang Zhang, Junhua Xiang and Yulin Zhang "Space Object Détection in Video Satellite Images Using Motion Information" (17 Oct 2017)
[4] J. Cheng, W. Zhang, M. Y. Cong, and H. B. Pan, “Research of detecting algorithm for space object based on star map récognition” (May 2010)

Claims

REVENDICATIONS
1. Procédé pour détecter à distance une ou plusieurs cibles (1) dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial (2) sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, comprenant les étapes suivantes: une acquisition d’images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial (2), un réalignement desdites images ainsi acquises au moyen de points de référence représentés par des étoiles,
(i) une détection, au sein des images prises séquentiellement et réalignées, de groupes de pixels quasiment fixes représentant chacun une cible, - (ii) une mesure d’un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et
(iii) un traitement de cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles (1) par rapport audit imageur.
2. Procédé selon la revendication 1, mis en œuvre pour la détection d’une seule cible, caractérisé en ce qu’il comprend les étapes suivantes: acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement ladite cible, lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), réaligner les deux images au moyen de points de référence représentés par des étoiles, réaliser une différence des deux images réalignées, puis un traitement de cette différence pour produire une image différentielle, traiter l'image différentielle pour y détecter une cible (1) sous la forme d’un groupe de pixels quasiment fixes, suivre la cible (1) ainsi détectée, par acquisition d’images de la cible (1) ainsi détectée et positionnée, jusqu’à ce que l’image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible (1).
3. Procédé selon la revendication 2, caractérisé en ce qu’au moins l’une des phases d’acquisition, de réalignement, ou de différence sont réalisés plusieurs fois, pour confirmer l’emplacement de la cible (1) et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition.
4. Procédé selon l’une des revendications 2 ou 3, caractérisé en ce que l’étape de réalignement comprend en outre un calcul intermédiaire pour corriger une déformation des images en fonction de la focale de l’objectif de l’imageur.
5. Système pour détecter à distance une ou plusieurs cibles (1) dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial (2) sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, mettant en œuvre le procédé de détection selon Tune quelconque des revendications précédentes, ce système comprenant: des moyens pour acquérir des images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial (2), des moyens pour réaligner lesdites images ainsi acquises au moyen de points de référence représentés par des étoiles, (i) des moyens pour détecter, au sein des images prises séquentiellement et réalignées, des groupes de pixels quasiment fixes représentant chacun une cible,
(ii) des moyens pour mesurer un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et
(iii) des moyens pour traiter cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles (1) par rapport audit imageur.
6. Système selon la revendication 5, mis en œuvre pour la détection d’une seule cible, caractérisé en ce qu’il comprend : des moyens pour acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement la cible (1), lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), des moyens pour réaligner les deux images au moyen de points de référence représentés par des étoiles, des moyens réaliser une différence des deux images réalignées, puis traitement de cette différence pour produire une image différentielle, des moyens pour traiter l’image différentielle pour y détecter une cible (1) sous la forme d’un groupe de pixels quasiment fixes, des moyens pour suivre la cible (1) ainsi détectée, par acquisition d’images de la cible (1) ainsi détectée et positionnée, jusqu’à ce que la dernière image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), et des moyens pour mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible (1).
7. Système de détection selon la revendication 6, caractérisé en ce que les moyens d’acquisition d’image comprennent un imageur embarqué dans un satellite d’inspection visuelle.
8. Système de détection selon l’une des revendications 6 ou 7, caractérisé en ce que les moyens d’acquisition, de réalignement ou de différence d’images sont mis en œuvre plusieurs fois, pour confirmer l’emplacement de la cible (1) et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition.
9. Satellite d’inspection visuelle, comprenant un système de détection à distance d’une cible (1) dans l’espace en orbite basse selon l’une quelconque des revendications 5 à
8.
10. Satellite d’inspection visuelle selon la revendication 9, caractérisé en ce qu’il comprend en outre des moyens pour contrôler l’orientation d’un imageur intégré dans le système de détection selon l’une quelconque des revendications 5 à 8, vers la cible
(1)·
PCT/FR2021/051367 2020-07-22 2021-07-22 Procede et systeme pour detecter une ou plusieurs cibles dans l'espace a partir d'images prises depuis un engin spatial tel qu'un satellite d'inspection visuelle, et satellite equipe d'un tel systeme WO2022018381A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP21754815.5A EP4185532A1 (fr) 2020-07-22 2021-07-22 Procede et systeme pour detecter une ou plusieurs cibles dans l'espace a partir d'images prises depuis un engin spatial tel qu'un satellite d'inspection visuelle, et satellite equipe d'un tel systeme

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2007711 2020-07-22
FR2007711A FR3112849B1 (fr) 2020-07-22 2020-07-22 Procédé et système pour détecter une ou plusieurs cibles dans l’espace à partir d’images prises depuis un engin spatial tel qu’un satellite d’inspection visuelle, et satellite équipé d’un tel système

Publications (1)

Publication Number Publication Date
WO2022018381A1 true WO2022018381A1 (fr) 2022-01-27

Family

ID=73401650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2021/051367 WO2022018381A1 (fr) 2020-07-22 2021-07-22 Procede et systeme pour detecter une ou plusieurs cibles dans l'espace a partir d'images prises depuis un engin spatial tel qu'un satellite d'inspection visuelle, et satellite equipe d'un tel systeme

Country Status (3)

Country Link
EP (1) EP4185532A1 (fr)
FR (1) FR3112849B1 (fr)
WO (1) WO2022018381A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115388859A (zh) * 2022-07-18 2022-11-25 北京空间飞行器总体设计部 适用于地外天体表面第三视角多目标航天器工程状态监测方法
CN118068291A (zh) * 2024-02-26 2024-05-24 中国科学院国家天文台长春人造卫星观测站 一种基于白天导星图像的空间碎片暗弱目标快速识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0168003A1 (fr) 1984-07-06 1986-01-15 Otsuka Pharmaceutical Co., Ltd. Composés oxindoliques, compositions les contenant et procédés pour leur préparation
US5309159A (en) * 1991-02-19 1994-05-03 Israel Aircraft Industries Ltd. Method and system for moving object detection
US5512743A (en) 1994-01-25 1996-04-30 The United States Of America As Represented By The Secretary Of The Navy Space-based asteroid detection and monitoring system
EP1168003A1 (fr) * 2000-06-22 2002-01-02 Thales Dispositif de mesure de pollution spatiale

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0168003A1 (fr) 1984-07-06 1986-01-15 Otsuka Pharmaceutical Co., Ltd. Composés oxindoliques, compositions les contenant et procédés pour leur préparation
US5309159A (en) * 1991-02-19 1994-05-03 Israel Aircraft Industries Ltd. Method and system for moving object detection
US5512743A (en) 1994-01-25 1996-04-30 The United States Of America As Represented By The Secretary Of The Navy Space-based asteroid detection and monitoring system
EP1168003A1 (fr) * 2000-06-22 2002-01-02 Thales Dispositif de mesure de pollution spatiale

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
J. CHENGW. ZHANGM. Y. CONGH. B. PAN, RESEARCH OF DETECTING ALGORITHM FOR SPACE OBJECT BASED ON STAR MAP RECOGNITION, May 2010 (2010-05-01)
LES 3 LOIS DE KEPLER, Retrieved from the Internet <URL:https://fr.wikipedia.0rg/wiki/Satellite_artificiel#Les_tr0is_l0is_de_Kepler>
MICHAEL GARTLEY ET AL: "Serendipitous Imaging of Space Objects With the Advanced Land Imager", IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING, IEEE, USA, vol. 6, no. 2, 1 April 2013 (2013-04-01), pages 440 - 445, XP011510040, ISSN: 1939-1404, DOI: 10.1109/JSTARS.2012.2222874 *
NASA, DOCKING WITH PRECISION, 22 November 2007 (2007-11-22), Retrieved from the Internet <URL:https://www.nasa.gov/missions/shuttle/f_docking.html>
XUEYANG ZHANGJUNHUA XIANGYULIN ZHANG, SPACE OBJECT DÉTECTION IN VIDEO SATELLITE IMAGES USING MOTION INFORMATION, 17 October 2017 (2017-10-17)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115388859A (zh) * 2022-07-18 2022-11-25 北京空间飞行器总体设计部 适用于地外天体表面第三视角多目标航天器工程状态监测方法
CN118068291A (zh) * 2024-02-26 2024-05-24 中国科学院国家天文台长春人造卫星观测站 一种基于白天导星图像的空间碎片暗弱目标快速识别方法
CN118068291B (zh) * 2024-02-26 2025-04-29 中国科学院国家天文台长春人造卫星观测站 一种基于白天导星图像的空间碎片暗弱目标快速识别方法

Also Published As

Publication number Publication date
FR3112849A1 (fr) 2022-01-28
FR3112849B1 (fr) 2022-10-21
EP4185532A1 (fr) 2023-05-31

Similar Documents

Publication Publication Date Title
EP1843295B1 (fr) Procédé de restitution de mouvements de la ligne de visée d&#39;un instrument optique
CA2804991C (fr) Systeme optique de veille pour systeme de veille spatiale de surveillance de l&#39;espace proche
EP2593367B1 (fr) Systeme de veille spatiale pour la surveillance de l&#39;espace proche
WO2016156352A1 (fr) Procede de determination d&#39;une direction d&#39;un objet a partir d&#39;une image de l&#39;objet
EP2593368B1 (fr) Procede de realisation d&#39;un systeme de veille spatiale pour la surveillance de l&#39;espace proche
WO2006064051A1 (fr) Procede de traitement d&#39;images mettant en oeuvre le georeferencement automatique d&#39;images issues d&#39;un couple d&#39;images pris dans le meme plan focal
WO2022018381A1 (fr) Procede et systeme pour detecter une ou plusieurs cibles dans l&#39;espace a partir d&#39;images prises depuis un engin spatial tel qu&#39;un satellite d&#39;inspection visuelle, et satellite equipe d&#39;un tel systeme
FR2991785A1 (fr) Stabilisation d&#39;une ligne de visee d&#39;un systeme d&#39;imagerie embarque a bord d&#39;un satellite
EP4526212B1 (fr) Procédé et dispositif pour la détermination d&#39;une loi de pointage d&#39;un satellite par détermination d&#39;une distribution spatio-temporelle
EP0920677B1 (fr) Procede et dispositif de reconnaissance air-sol pour equipement optronique
Shtofenmakher et al. Effects of phase angle and sensor properties on on-orbit debris detection using commercial star trackers
US11879838B2 (en) Vicarious calibration using solar glint over water
FR2597985A1 (fr) Procede et dispositif de prise de vues d&#39;un objet ligne par ligne
EP1168003B1 (fr) Dispositif de mesure de pollution spatiale
EP4205406B1 (fr) Procédé d&#39;acquisition d&#39;images d&#39;un objet spatial en orbite terrestre par un engin spatial en orbite terrestre
EP2113460B1 (fr) Procédé de caractérisation des vibrations pour un satellite d&#39;observation.
Surdej et al. The 4m international liquid mirror telescope (ILMT)
FR2979022A1 (fr) Dispositif de visee a chercheur de nord stellaire et procede de recalage d&#39;un compas magnetique d&#39;un tel dispositif
FR2981149A1 (fr) Aeronef comprenant un senseur optique diurne et nocturne, et procede de mesure d&#39;attitude associe
EP2194353B1 (fr) Procédé et système de détection d&#39;engins explosifs improvisés ou analogues.
EP4542250A1 (fr) Procédé d amélioration des performances de capteurs dans un système comportant une pluralité de plateformes embarquant chacune au moins un capteur et un module de traitement électronique
FR2701762A1 (fr) Dispositif de restitution d&#39;orbite de corps célestes, notamment de satellites artificiels, par écartométrie.
FR2611266A1 (fr) Dispositif et procede de localisation de vues au sol prises d&#39;un satellite
FR2934055A1 (fr) Procede pour elaborer une commande de balayage d&#39;antenne pour realiser une image sar
FR2831265A1 (fr) Procede d&#39;observation d&#39;un objet et satellite le mettant en oeuvre

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21754815

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021754815

Country of ref document: EP

Effective date: 20230222