[go: up one dir, main page]

EP4185532A1 - Method and system for detecting one or more targets in space based on images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system - Google Patents

Method and system for detecting one or more targets in space based on images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system

Info

Publication number
EP4185532A1
EP4185532A1 EP21754815.5A EP21754815A EP4185532A1 EP 4185532 A1 EP4185532 A1 EP 4185532A1 EP 21754815 A EP21754815 A EP 21754815A EP 4185532 A1 EP4185532 A1 EP 4185532A1
Authority
EP
European Patent Office
Prior art keywords
images
target
image
pixels
targets
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP21754815.5A
Other languages
German (de)
French (fr)
Inventor
Thierry OLLIVIER
Julien CANTEGREIL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spaceable SAS
Original Assignee
Spaceable SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spaceable SAS filed Critical Spaceable SAS
Publication of EP4185532A1 publication Critical patent/EP4185532A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/242Orbits and trajectories
    • B64G1/2423Sun-synchronous orbits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Definitions

  • TITLE Method and system for detecting one or more targets in space from images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system
  • the present invention relates to a method for detecting one or more targets in space from images taken from a spacecraft such as a visual inspection satellite. It also relates to a system for implementing this process, as well as a satellite equipped with such a system.
  • the field of the invention is more particularly that of the visual inspection of space objects.
  • Satellite operators are faced with maintenance issues for their equipment, which involves being able to carry out a visual inspection in space by taking images of the target using an imager from a satellite dedicated to these operations.
  • the onboard imager can also be used to detect the position of the target so that the satellite approaches at the right distance.
  • the imagers on board the satellites essentially serve three functions: to take images of the Earth.
  • the viewing angle of the imager is then low to have good resolution; take pictures of their solar panels to ensure they are deployed.
  • the angle of view is then very wide. allow a "hard docking" type docking operation, when an aircraft clings to another [2] There, too, the viewing angle is wide.
  • the approach of a target is carried out using a radar which allows significant detection distances.
  • US 5512743 discloses a satellite system for the detection of near-Earth objects. This system periodically captures two images of the celestial sphere around the earth using a pair of linear arrays of optical detectors oriented so that the image lines of the detectors on the celestial sphere are separated by the same angle. for each pixel in the azimuth. The position of the linear detectors is adjusted for each orbit of the earth by the satellite so that the entire celestial sphere can be imaged.
  • the document EPI 168003 Al discloses a device for measuring space pollution, intended to be embarked on a satellite, comprising: at least one passive imager capable of providing images of space; means for detecting the space debris present on the images of space, determining the trace of said debris; means for locating the distance of the detected debris, determining the distances of the detected debris with respect to the satellite; means for classifying the localized debris, determining for each localized debris its class which is the product of its average albedo by its apparent surface (surf).
  • the object of the present invention is therefore to propose a method and system for detecting one or more targets in space from images taken from a visual inspection satellite, which can provide detections of targets at several kilometers away from the satellite and to determine their trajectory.
  • This objective is achieved with a method for remotely detecting one or more targets in space in low orbit around the Earth from an imager on board a spacecraft in a heliosynchronous orbit and having to approach one or more targets located on a close orbital plane, comprising the following steps: an acquisition of images taken sequentially of an area of space potentially containing said one or more targets, said images being spaced apart by a predetermined period of time, timestamped and associated with the corresponding inertial position of the spacecraft, a realignment of said images thus acquired by means of reference points represented by stars,
  • the detection method according to the invention corresponding to the detection of a single target, the latter comprises the following steps: acquiring two images, spaced apart by a predetermined period of time, to generate a first and a second image of an area of space potentially containing the target, said first and second images being time-stamped and associated with the corresponding inertial position of the spacecraft, realigning the two images by means of reference points represented by stars , performing a difference of the two realigned images, then processing this difference to produce a differential image, processing the differential image to detect therein a target in the form of a group of nearly fixed pixels, following the target thus detected, by acquisition of images of the target thus detected and positioned, until the image thus acquired is shifted by a predetermined number of pixels with respect to a reference image previously chosen from among the images already acquired, said images thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft, measuring a lapse of time between the shooting of the reference image and the shooting of the last image acquired, and processing of
  • At least one of the acquisition, realignment, or difference phases can be carried out several times, to confirm the location of the target and overcome any erroneous detections due to stars or errors of acquisition.
  • the realignment step can also comprise an intermediate calculation to correct a deformation of the images according to the focal length of the lens of the imager.
  • a system for remotely detecting one or more targets in space in low orbit around the Earth from an imager on board a spacecraft in a heliosynchronous orbit and in front of approaching one or more targets situated on a close orbital plane implementing the detection method according to the invention, this system comprising: means for acquiring images taken sequentially of a zone of space potentially containing said one or more targets, said images being spaced apart by a predetermined period of time, time-stamped and associated with the corresponding inertial position of the spacecraft, means for realigning said images thus acquired by means of reference points represented by stars,
  • (iii) means for processing this time measurement to provide position information of said one or more targets relative to said imager.
  • the detection system can advantageously comprise; means for acquiring two images, separated by a predetermined period of time, to generate a first and a second image of an area of space potentially containing one or more targets, said first and second images being timestamped and associated with the corresponding inertial position of the spacecraft, means for realigning the two images by means of reference points represented by stars, means producing a difference between the two realigned images, then processing this difference to produce a differential image, means to process the differential image to detect a target therein in the form of a group of quasi-fixed pixels, means for following the target thus detected, by acquiring images of the target thus detected and positioned, until the image thus acquired is shifted by a predetermined number of pixels with respect to a reference image previously chosen from among the images already acquired, said images are thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft, and means for measuring a lapse of time between the shooting of the reference image and the shooting of the last image acquired, and processing of this lapse of time thus
  • the image acquisition means can advantageously comprise an imager on board a visual inspection satellite.
  • the acquisition, realignment or image difference means can be implemented several times, to confirm the location of the target and overcome any erroneous detections due to stars or acquisition errors .
  • a visual inspection satellite comprising a system for the remote detection of a target in space in low orbit according to the invention.
  • This visual inspection satellite may further comprise means for controlling the orientation of an imager integrated in the detection system according to the invention towards the target.
  • the principle of the method according to the invention is thus to detect, in a first step, almost fixed pixels and then, in a second step, to measure the duration necessary for a shift of these pixels.
  • This method is effective even with a target represented by a few pixels, that is to say when the target is several kilometers away.
  • Altitude height of a satellite above the Earth's surface
  • Orbital speed speed at which a satellite orbits the Earth Orbital period: time taken by a satellite to complete one complete revolution around the Earth
  • Pixel base unit used to measure the definition of a digital raster image
  • Figure 1 illustrates sun-synchronous orbits, with the sun in the observer's position (drawing not to scale);
  • Figure 3 illustrates, in inverted color mode, two images representing the same scene but with a lateral offset due to the movement of the satellite in its orbit
  • Figure 4 shows, in inverted color mode, the two images of Figure 3, realigned and differentiated
  • Figure 5 is a block diagram of an embodiment of a detection system/method according to the invention.
  • the detection method according to the invention comprises, with reference to FIG. 5, five phases:
  • the detection, positioning and target-imager relative distance data are then transmitted from the satellite 2 to a terrestrial reception station 3 connected to a server 4 for processing and supplying spatial data.
  • these detection, positioning and target-imager relative distance data are not transmitted to the ground but are used locally in a feedback loop during an approach phase of the satellite 2.
  • a first image is taken (Image 1), then, after a predetermined period of time, a second image is taken (Image 2).
  • Figure 2 shows the angles of view.
  • the two images In the second phase called realignment P2, the two images must be realigned with each other thanks to the stars located on the two images.
  • the gap between the two images is theoretically known since the time lapse between the shooting of the 2 images is fixed. It is enough to adjust within a few pixels in the four directions to have the best possible precision.
  • An intermediate calculation may be necessary to correct the deformation of the images according to the focal length of the lens.
  • the advantage of this realignment is that it also makes it possible to correct changes in the attitude of the satellite.
  • the difference between the two realigned images is calculated.
  • the luminosity of the stars is substantially the same on the two images, the groups of pixels representing the stars are removed, and it is easy to detect the pixels which have not changed place between Image 1 and Image 2 because they are shifted further to realignment, as shown in Figure 4, the colors of which have been reversed to allow reproduction.
  • the shooting, realignment and difference phases can be carried out several times to confirm the location of the target and overcome bad detections due to stars and acquisition errors.
  • positioning P4 we calculate the spatial position of the target in 2D when we know the position of the target on the images, the field covered by the imager, the definition of the sensor, and the position of the satellite and its attitude (orientation) when taking each image.
  • the difference in angular velocity between the satellite and the target causes a slow lag.
  • the time measurement necessary for this offset makes it possible to calculate the relative angular velocity of the target, therefore its altitude and therefore consequently the distance between the satellite and the target.
  • the definition of the sensor (Height and Width) is:
  • the angular resolution in Height is:
  • RTearth 6378 km (mean radius of the Earth)
  • m 398600.4418 km 3 .s 2 (standard gravitational parameter for the Earth)
  • the relative angular velocity of the satellite relative to the target is:
  • the maximum time between Image 1 and Image 2 must be chosen to have a target offset of less than one pixel between the two images, i.e. it is linked to the relative angular velocity and the angular resolution of the sensor :
  • the offset of the stars must be less than or equal to 10% of the width of the sensor:
  • the minimum time between the shooting of Image 1 and that of Image 2 must be chosen to have a star shift greater than or equal to a few pixels three pixels between the two images, i.e. it is linked to the Satellite angular velocity and sensor angular resolution: He
  • the value of the star offset can be expressed as a function of the time between the shooting of image 1 and that of image 2:
  • the value of the target shift is, for her:
  • DecTarget time x
  • the time lapse between Image 1 and Image 2 must be between 166 ms and 11 seconds. For example, with a time lapse of 1 second between Image 1 and Image 2, we have a star offset of 18 pixels, and a target offset of 0.02 pixels.
  • the relative angular velocity of the target can be calculated in relation to the time required (TimeDec) to have a one-pixel shift between Image 1 and Image 2.
  • VARel NPix x -
  • VARel value in °/s
  • NPix target offset value in pixels
  • VACib VASat - VARel or
  • VACib VASat - NPix x -
  • the estimated period of a target orbit is the time to travel 360° at this speed angular:
  • the altitude is deduced according to (1):
  • the distance between the satellite and the target is the distance between the satellite and the target:
  • the Satellite-Target distance is 4.329 km.
  • the Satellite-Target distance is 4.265 km, which gives a resolution of 7.2 meters. Calculations over a shorter distance
  • the distance resolution is 1 meter with one shot and one scan every second. Distance accuracy increases as distance decreases.
  • the image taken represents an area of: which makes it possible to give the resolution of the image according to the distance:
  • the target must represent at least a square of 2x2 pixels on each image, we can detect: a target of 60 cm side at a distance of 5 km. a target of 100 cm side at a distance of 8 km.
  • pixels represent areas illuminated by the sun, the moon, or the

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Disclosed is a method and system for detecting a target in space, based on images taken from a spacecraft such as a visual inspection satellite. The invention relates to a method for remotely detecting one or more targets (1) in space in low orbit around the Earth based on an imager installed on-board a spacecraft (2) that is in a sun-synchronous orbit and having to approach one or more targets located in a near orbital plane, comprising: acquiring sequentially taken images of a region of space potentially containing the one or more targets; realigning the images thus acquired by means of reference points represented by stars; detecting, within the sequentially taken and realigned images, groups of virtually stationary pixels each representing a target; measuring a time-lapse necessary for these groups of pixels thus detected to be shifted by a predetermined number of pixels; and processing this time measurement in order to deliver information on the position of the one or more targets (1) relative to the imager.

Description

DESCRIPTION DESCRIPTION

TITRE : Procédé et système pour détecter une ou plusieurs cibles dans l’espace à partir d’images prises depuis un engin spatial tel qu’un satellite d’inspection visuelle, et satellite équipé d’un tel système TITLE: Method and system for detecting one or more targets in space from images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system

DOMAINE DE G INVENTION FIELD OF INVENTION

La présente invention concerne un procédé pour détecter une ou plusieurs cibles dans l’espace à partir d’images prises depuis un engin spatial tel qu’un satellite d’inspection visuelle. Elle vise également un système pour la mise en œuvre de ce procédé, ainsi qu’un satellite équipé d’un tel système. Le domaine de l’invention est plus particulièrement celui de l’inspection visuelle d’objets spatiaux. The present invention relates to a method for detecting one or more targets in space from images taken from a spacecraft such as a visual inspection satellite. It also relates to a system for implementing this process, as well as a satellite equipped with such a system. The field of the invention is more particularly that of the visual inspection of space objects.

ETAT DE LA TECHNIQUE STATE OF THE ART

Les opérateurs de satellites sont confrontés à des problématiques de maintenance de leurs équipements, ce qui implique de pouvoir réaliser une inspection visuelle dans l’espace en prenant des images de la cible à l'aide d'un imageur depuis un satellite dédié à ces opérations. L’imageur embarqué peut également servir à détecter la position de la cible pour que le satellite s'approche à la bonne distance. Satellite operators are faced with maintenance issues for their equipment, which involves being able to carry out a visual inspection in space by taking images of the target using an imager from a satellite dedicated to these operations. . The onboard imager can also be used to detect the position of the target so that the satellite approaches at the right distance.

Les imageurs embarqués dans les satellites servent essentiellement à trois fonctions : prendre des images de la Terre. L'angle de vue de l'imageur est alors faible pour avoir une bonne résolution ; prendre des images de leurs panneaux solaires pour s'assurer de leur déploiement. L'angle de vue est alors très large. permettre une opération d’arrimage de type « hard docking », quand un aeronef s'accroche à un autre [2] Là, également, l'angle de vue est large. The imagers on board the satellites essentially serve three functions: to take images of the Earth. The viewing angle of the imager is then low to have good resolution; take pictures of their solar panels to ensure they are deployed. The angle of view is then very wide. allow a "hard docking" type docking operation, when an aircraft clings to another [2] There, too, the viewing angle is wide.

Habituellement, l'approche d'une cible est réalisée à l'aide d'un radar qui autorise des distances de détection importantes. Usually, the approach of a target is carried out using a radar which allows significant detection distances.

Il existe déjà des procédés de détection d’objet dans l’espace, tel qu’un procédé de détection d’objets spatiaux dans des images satellite vidéo utilisant des informations de mouvement [3] Ce procédé de détection utilise des images de vidéo, c'est à-dire avec un temps réduit entre les images. Les étoiles sont quasiment à la place d'une image à l'autre. Un objet non stellaire se détecte alors facilement car il n’est pas fixe. Ce procédé ne fonctionne que si la cible a une vitesse angulaire vraiment différente de celle du satellite ce qui n'est pas notre cas car le satellite et la cible se trouvent sur des orbites très proches et donc avec des vitesses angulaires très proches. There are already methods for detecting objects in space, such as a method for detecting space objects in video satellite images using motion information [3] This detection method uses video images, c that is to say with a reduced time between images. The stars are almost in place from one image to another. A non-stellar object is then easily detected because it is not fixed. This process only works if the target has an angular speed that is really different from that of the satellite, which is not our case because the satellite and the target are in very close orbits and therefore with very close angular speeds.

Il existe des procédés de détection par comparaison avec un catalogue d’étoiles [4], implémentant la prise de vue d’une image unique et une recherche des étoiles visibles sur l'image dans le catalogue embarqué. On peut alors distinguer un objet non stellaire sur l'image. Ce procédé nécessite d'embarquer un catalogue d'étoiles spécifique à l'angle de vue de l'imageur embarqué. Les Star Trackers (ou poursuiveurs d’étoile), possédant ce genre de catalogue, utilisent une optique avec un angle de champ plus large. There are detection methods by comparison with a catalog of stars [4], implementing the shooting of a single image and a search for the stars visible on the image in the on-board catalog. We can then distinguish a non-stellar object on the image. This method requires onboarding a catalog of stars specific to the viewing angle of the onboard imager. Star Trackers (or star chasers), with this kind of catalog, use optics with a wider angle of view.

Le document US 5512743 divulgue un système satellitaire pour la détection d’objets proches de la Terre. Ce système capture périodiquement deux images de la sphère céleste autour de la terre à l'aide d'une paire de réseaux linéaires de détecteurs optiques orientés de sorte que les lignes d'image des détecteurs sur la sphère céleste sont séparés d’un même angle pour chaque pixel dans l’azimuth. La position des détecteurs linéaires est réglée pour chaque orbite de la terre par le satellite de telle sorte que toute la sphère céleste puisse être imagée. US 5512743 discloses a satellite system for the detection of near-Earth objects. This system periodically captures two images of the celestial sphere around the earth using a pair of linear arrays of optical detectors oriented so that the image lines of the detectors on the celestial sphere are separated by the same angle. for each pixel in the azimuth. The position of the linear detectors is adjusted for each orbit of the earth by the satellite so that the entire celestial sphere can be imaged.

Le document EPI 168003 Al divulgue un dispositif de mesure de pollution spatiale, destiné à être embarqué sur satellite, comportant : au moins un imageur passif pouvant fournir des images de l'espace; des moyens de détection des débris spatiaux présents sur les images de l'espace, déterminant la trace desdits débris; des moyens de localisation distance des débris détectés, déterminant les distances des débris détectés par rapport au satellite; des moyens de classification des débris localisés, déterminant pour chaque débris localisé sa classe qui est le produit de son albédo moyen par sa surface apparente (surf). The document EPI 168003 Al discloses a device for measuring space pollution, intended to be embarked on a satellite, comprising: at least one passive imager capable of providing images of space; means for detecting the space debris present on the images of space, determining the trace of said debris; means for locating the distance of the detected debris, determining the distances of the detected debris with respect to the satellite; means for classifying the localized debris, determining for each localized debris its class which is the product of its average albedo by its apparent surface (surf).

Le but de la présente invention est alors de proposer un procédé et système de détection d’une ou de plusieurs cibles dans l’espace à partir d’images prises depuis un satellite d’inspection visuelle, qui puisse procurer des détections de cibles à plusieurs kilomètres de distance du satellite et d’en déterminer leur trajectoire. EXPOSE DE L’INVENTION The object of the present invention is therefore to propose a method and system for detecting one or more targets in space from images taken from a visual inspection satellite, which can provide detections of targets at several kilometers away from the satellite and to determine their trajectory. DISCLOSURE OF THE INVENTION

Cet objectif est atteint avec un procédé pour détecter à distance une ou plusieurs cibles dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, comprenant les étapes suivantes: une acquisition d’images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial, un réalignement desdites images ainsi acquises au moyen de points de référence représentés par des étoiles, This objective is achieved with a method for remotely detecting one or more targets in space in low orbit around the Earth from an imager on board a spacecraft in a heliosynchronous orbit and having to approach one or more targets located on a close orbital plane, comprising the following steps: an acquisition of images taken sequentially of an area of space potentially containing said one or more targets, said images being spaced apart by a predetermined period of time, timestamped and associated with the corresponding inertial position of the spacecraft, a realignment of said images thus acquired by means of reference points represented by stars,

(i) une détection, au sein des images prises séquentiellement et réalignées, de groupes de pixels quasiment fixes représentant chacun une cible, (i) detection, within the images taken sequentially and realigned, of groups of almost fixed pixels each representing a target,

(ii) une mesure d’un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et(ii) a measurement of a lapse of time necessary for these groups of pixels thus detected to be shifted by a predetermined number of pixels, and

(iii) un traitement de cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles (1) par rapport audit imageur. (iii) a processing of this time measurement to deliver position information of said one or more targets (1) with respect to said imager.

Dans une mise en œuvre avantageuse du procédé de détection selon l’invention correspondant à la détection d’une seule cible, celui-ci comprend les étapes suivantes : acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement la cible, lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial, réaligner les deux images au moyen de points de référence représentés par des étoiles, réaliser une différence des deux images réalignées, puis traitement de cette différence pour produire une image différentielle, traiter l’image différentielle pour y détecter une cible sous la forme d’un groupe de pixels quasiment fixes, suivre la cible ainsi détectée, par acquisition d’images de la cible ainsi détectée et positionnée, jusqu’à ce que l’image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial, mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible. In an advantageous implementation of the detection method according to the invention corresponding to the detection of a single target, the latter comprises the following steps: acquiring two images, spaced apart by a predetermined period of time, to generate a first and a second image of an area of space potentially containing the target, said first and second images being time-stamped and associated with the corresponding inertial position of the spacecraft, realigning the two images by means of reference points represented by stars , performing a difference of the two realigned images, then processing this difference to produce a differential image, processing the differential image to detect therein a target in the form of a group of nearly fixed pixels, following the target thus detected, by acquisition of images of the target thus detected and positioned, until the image thus acquired is shifted by a predetermined number of pixels with respect to a reference image previously chosen from among the images already acquired, said images thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft, measuring a lapse of time between the shooting of the reference image and the shooting of the last image acquired, and processing of this lapse of time thus measured to deliver position information of the target.

Au moins l’une des phases d’acquisition, de réalignement, ou de différence peuvent être réalisées plusieurs fois, pour confirmer l’emplacement de la cible et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition. At least one of the acquisition, realignment, or difference phases can be carried out several times, to confirm the location of the target and overcome any erroneous detections due to stars or errors of acquisition.

L’étape de réalignement peut en outre comprendre un calcul intermédiaire pour corriger une déformation des images en fonction de la focale de l’objectif de l’imageur. The realignment step can also comprise an intermediate calculation to correct a deformation of the images according to the focal length of the lens of the imager.

Suivant un autre aspect de l’invention, il est proposé un système pour détecter à distance une ou plusieurs cibles dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, mettant en œuvre le procédé de détection selon l’invention, ce système comprenant: des moyens pour acquérir des images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial, des moyens pour réaligner lesdites images ainsi acquises au moyen de points de référence représentés par des étoiles, According to another aspect of the invention, there is proposed a system for remotely detecting one or more targets in space in low orbit around the Earth from an imager on board a spacecraft in a heliosynchronous orbit and in front of approaching one or more targets situated on a close orbital plane, implementing the detection method according to the invention, this system comprising: means for acquiring images taken sequentially of a zone of space potentially containing said one or more targets, said images being spaced apart by a predetermined period of time, time-stamped and associated with the corresponding inertial position of the spacecraft, means for realigning said images thus acquired by means of reference points represented by stars,

(i) des moyens pour détecter, au sein des images prises séquentiellement et réalignées, des groupes de pixels quasiment fixes représentant chacun une cible,(i) means for detecting, within the images taken sequentially and realigned, groups of almost fixed pixels each representing a target,

(ii) des moyens pour mesurer un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et(ii) means for measuring a period of time necessary for these groups of pixels thus detected to be shifted by a predetermined number of pixels, and

(iii) des moyens pour traiter cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles par rapport audit imageur. (iii) means for processing this time measurement to provide position information of said one or more targets relative to said imager.

Le système de détection selon l’invention peut avantageusement comprendre ; des moyens pour acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement une ou plusieurs cibles, lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial, des moyens pour réaligner les deux images au moyen de points de référence représentés par des étoiles, des moyens réaliser une différence des deux images réalignées, puis traitement de cette différence pour produire une image différentielle, des moyens pour traiter l’image différentielle pour y détecter une cible sous la forme d’un groupe de pixels quasiment fixes, des moyens pour suivre la cible ainsi détectée, par acquisition d’images de la cible ainsi détectée et positionnée, jusqu’à ce que l’image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial, et des moyens pour mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible. The detection system according to the invention can advantageously comprise; means for acquiring two images, separated by a predetermined period of time, to generate a first and a second image of an area of space potentially containing one or more targets, said first and second images being timestamped and associated with the corresponding inertial position of the spacecraft, means for realigning the two images by means of reference points represented by stars, means producing a difference between the two realigned images, then processing this difference to produce a differential image, means to process the differential image to detect a target therein in the form of a group of quasi-fixed pixels, means for following the target thus detected, by acquiring images of the target thus detected and positioned, until the image thus acquired is shifted by a predetermined number of pixels with respect to a reference image previously chosen from among the images already acquired, said images are thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft, and means for measuring a lapse of time between the shooting of the reference image and the shooting of the last image acquired, and processing of this lapse of time thus measured to deliver information on the position of the target.

Les moyens d’acquisition d’image peuvent avantageusement comprendre un imageur embarqué dans un satellite d’inspection visuelle. The image acquisition means can advantageously comprise an imager on board a visual inspection satellite.

Les moyens d’acquisition, de réalignement ou de différence d’images peuvent être mis en œuvre plusieurs fois, pour confirmer l’emplacement de la cible et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition. The acquisition, realignment or image difference means can be implemented several times, to confirm the location of the target and overcome any erroneous detections due to stars or acquisition errors .

Suivant encore un autre aspect de l’invention, il est proposé un satellite d’inspection visuelle, comprenant un système de détection à distance d’une cible dans l’espace en orbite basse selon l’invention. According to yet another aspect of the invention, a visual inspection satellite is proposed, comprising a system for the remote detection of a target in space in low orbit according to the invention.

Ce satellite d’inspection visuelle peut en outre comprendre des moyens pour contrôler l’orientation d’un imageur intégré dans le système de détection selon l’invention vers la cible. On utilise la caractéristique de la parallaxe, à savoir le déplacement de la position apparente dû au changement de position de l'observateur. En prenant deux images décalées dans le temps et dans l'espace puis en les analysant, on peut détecter des objets fixes ou mobiles et calculer leurs caractéristiques comme leur position, leur vitesse car les objets fixes ne vont pas être affichés au même endroit sur les deux images en fonction de leur éloignement. This visual inspection satellite may further comprise means for controlling the orientation of an imager integrated in the detection system according to the invention towards the target. We use the characteristic of parallax, namely the displacement of the apparent position due to the change of position of the observer. By taking two images shifted in time and space and then analyzing them, we can detect fixed or mobile objects and calculate their characteristics such as their position, their speed because the fixed objects will not be displayed in the same place on the two images according to their distance.

Le principe du procédé selon l’invention est ainsi de détecter, dans un premier temps, des pixels quasiment fixes puis, dans un second temps, de mesurer la durée nécessaire à un décalage de ces pixels. Ce procédé est efficace même avec une cible représentée par quelques pixels c'est à dire quand la cible est éloignée de plusieurs kilomètres. The principle of the method according to the invention is thus to detect, in a first step, almost fixed pixels and then, in a second step, to measure the duration necessary for a shift of these pixels. This method is effective even with a target represented by a few pixels, that is to say when the target is several kilometers away.

DEFINITIONS DEFINITIONS

Altitude : hauteur d’un satellite au-dessus de la surface de la Terre Vitesse orbitale: vitesse à laquelle un satellite orbite autour de la Terre Période orbitale: durée mise par un satellite pour accomplir une révolution complète autour de la Terre Altitude: height of a satellite above the Earth's surface Orbital speed: speed at which a satellite orbits the Earth Orbital period: time taken by a satellite to complete one complete revolution around the Earth

Pixel : unité de base permettant de mesurer la définition d’une image numérique matricielle Pixel: base unit used to measure the definition of a digital raster image

DESCRIPTION DES FIGURES DESCRIPTION OF FIGURES

D’autres avantages et particularités de l’invention apparaîtront à la lecture de la description détaillée de mises en œuvre et de modes de réalisation nullement limitatifs, et des dessins annexés suivants : Other advantages and particularities of the invention will appear on reading the detailed description of implementations and non-limiting embodiments, and of the following appended drawings:

• La figure 1 illustre des orbites héliosynchrones, avec le soleil se trouvant à la place de l'observateur (dessin non à l'échelle) ; • Figure 1 illustrates sun-synchronous orbits, with the sun in the observer's position (drawing not to scale);

• La figure 2 illustre des prises de vue décalées réalisées dans le procédé de détection selon l’invention ; • Figure 2 illustrates offset shots taken in the detection method according to the invention;

• La figure 3 illustre, en mode de couleurs inversées, deux images représentant la même scène mais avec un décalage latéral dû au déplacement du satellite sur son orbite ; • La figure 4 représente, en mode de couleurs inversées, les deux images de la figure 3, réalignées et différenciées ; et • Figure 3 illustrates, in inverted color mode, two images representing the same scene but with a lateral offset due to the movement of the satellite in its orbit; • Figure 4 shows, in inverted color mode, the two images of Figure 3, realigned and differentiated; and

• la figure 5 est un schéma synoptique d’un exemple de réalisation d’un système/procédé de détection selon l’invention. • Figure 5 is a block diagram of an embodiment of a detection system/method according to the invention.

DESCRIPTION DETAILLEE DETAILED DESCRIPTION

Si on considère, en référence aux figures 1 et 2, l'exemple d'un satellite 2 sur une orbite héliosynchrone (qui permet d’avoir un éclairement latéral de la cible sensiblement constant) devant se rapprocher d’une cible 1 située un plan orbital proche, en référence à la figure 1, ce satellite embarquant l’imageur se trouve entre la Terre et la cible, ainsi ni la Terre ni le Soleil ne se trouvent dans le champ de vision. If we consider, with reference to FIGS. 1 and 2, the example of a satellite 2 in a heliosynchronous orbit (which makes it possible to have a substantially constant lateral illumination of the target) which must approach a target 1 situated on a plane close orbital, with reference to FIG. 1, this satellite carrying the imager is located between the Earth and the target, thus neither the Earth nor the Sun are in the field of vision.

Le procédé de détection selon l'invention comprend, en référence à la figure 5, cinq phases: The detection method according to the invention comprises, with reference to FIG. 5, five phases:

- prise de vues (PI) - shooting (PI)

- réalignement (P2) - realignment (P2)

- différence (P3) - difference (P3)

- positionnement (P4) - positioning (P4)

- suivi (tracking) (P5) - tracking (P5)

Les données de détection, de positionnement et de distance relative cible-imageur sont ensuite transmises depuis le satellite 2 vers une station de réception terrestre 3 reliée à un serveur 4 de traitement et de fourniture de données spatiales. The detection, positioning and target-imager relative distance data are then transmitted from the satellite 2 to a terrestrial reception station 3 connected to a server 4 for processing and supplying spatial data.

On peut aussi prévoir que ces données de détection, de positionnement et de distance relative cible-imageur ne soient pas transmises au sol mais soient exploitées localement dans une boucle d’asservissement lors d’une phase d’approche du satellite 2. It is also possible to provide that these detection, positioning and target-imager relative distance data are not transmitted to the ground but are used locally in a feedback loop during an approach phase of the satellite 2.

Description des phases Description of the phases

Dans la première phase dite de prise de vues PI, on prend une première image (Image 1), puis, après un laps de temps prédéterminé, on prend une deuxième image (Image 2). La figure 2 représente les angles de vue. In the first phase called PI shooting, a first image is taken (Image 1), then, after a predetermined period of time, a second image is taken (Image 2). Figure 2 shows the angles of view.

On obtient deux images (figure 3) représentant la même scène mais avec un décalage latéral dû au déplacement du satellite sur son orbite. Note : les couleurs ont été inversées afin de faciliter l’interprétation de cette figure et en permettre la reproduction. Ces images possèdent des caractéristiques particulières : la cible apparaît au même endroit sur les deux images, tandis que les étoiles, elles, sont décalées. Two images are obtained (figure 3) representing the same scene but with a lateral offset due to the movement of the satellite in its orbit. Note: the colors have been reversed in order to facilitate the interpretation of this figure and allow its reproduction. These images have special characteristics: the target appears in the same place on both images, while the stars are shifted.

Il est à noter que sur cette figure, la cible est indiquée juste pour information car dans cette phase de prise de vues, on ne connaît pas encore sa position. It should be noted that in this figure, the target is indicated just for information because in this shooting phase, we do not yet know its position.

Dans la seconde phase dite de réalignement P2, Il faut réaligner les deux images entre elles grâce aux étoiles se trouvant sur les deux images. On connaît théoriquement le décalage entre les deux images puisqu'on fixe le laps de temps entre la prise de vue des 2 images. Il suffît d'ajuster à quelques pixels près dans les quatre directions pour avoir la meilleure précision possible. Un calcul intermédiaire peut être nécessaire pour corriger la déformation des images suivant la focale de l’objectif. L’avantage de ce réalignement est qu'il permet également de corriger les changements d'attitude du satellite. In the second phase called realignment P2, the two images must be realigned with each other thanks to the stars located on the two images. The gap between the two images is theoretically known since the time lapse between the shooting of the 2 images is fixed. It is enough to adjust within a few pixels in the four directions to have the best possible precision. An intermediate calculation may be necessary to correct the deformation of the images according to the focal length of the lens. The advantage of this realignment is that it also makes it possible to correct changes in the attitude of the satellite.

Dans la troisième phase dite de différence P3, on calcule la différence entre les deux images réalignées. Comme la luminosité des étoiles est sensiblement la même sur les deux images, les groupes de pixels représentant les étoiles sont supprimés, et on détecte facilement les pixels qui n’ont pas changé de place entre Image 1 et Image 2 car ils se retrouvent décalés suite au réalignement, comme l’illustre la figure 4 dont les couleurs ont été inversées pour en permettre la reproduction. In the third so-called P3 difference phase, the difference between the two realigned images is calculated. As the luminosity of the stars is substantially the same on the two images, the groups of pixels representing the stars are removed, and it is easy to detect the pixels which have not changed place between Image 1 and Image 2 because they are shifted further to realignment, as shown in Figure 4, the colors of which have been reversed to allow reproduction.

Il est à noter que les phases de prise de vues, de réalignement et de différence peuvent être réalisées plusieurs fois pour confirmer l’emplacement de la cible et s'affranchir de mauvaises détections dues aux étoiles et des erreurs d'acquisition. It should be noted that the shooting, realignment and difference phases can be carried out several times to confirm the location of the target and overcome bad detections due to stars and acquisition errors.

Dans la quatrième phase dite de positionnement P4, on calcule la position spatiale de la cible en 2D dès lors qu’on connaît la position de la cible sur les images, le champ couvert par l’imageur, la définition du capteur, et la position du satellite et son attitude (orientation) lors de la prise de vue de chaque image. In the fourth phase called positioning P4, we calculate the spatial position of the target in 2D when we know the position of the target on the images, the field covered by the imager, the definition of the sensor, and the position of the satellite and its attitude (orientation) when taking each image.

Dans cinquième phase dite de suivi (tracking) P5, mise en œuvre une fois que la cible est repérée sur une image, on va se concentrer sur cette zone de l'image, ce qui permet de diminuer le temps d'analyse. In the fifth phase called P5 tracking, implemented once the target is located on an image, we will focus on this area of the image, which makes it possible to reduce the analysis time.

On conserve Image 1 comme référence et on va prendre des images en continu jusqu'à ce que la cible soit décalée de 1 pixel sur la nouvelle image (Image 2) par rapport à Image 1.We keep Image 1 as a reference and we will take images continuously until the target is shifted by 1 pixel on the new image (Image 2) compared to Image 1.

En effet, la différence de vitesse angulaire entre le satellite et la cible occasionne un décalage lent. La mesure de temps nécessaire à ce décalage permet de calculer la vitesse angulaire relative de la cible, donc son altitude et donc par conséquent la distance entre le satellite et la cible. Indeed, the difference in angular velocity between the satellite and the target causes a slow lag. The time measurement necessary for this offset makes it possible to calculate the relative angular velocity of the target, therefore its altitude and therefore consequently the distance between the satellite and the target.

Exemples de formule de calcul et applications numériquesCalculation formula examples and numerical applications

Données concernant l'Imageur Imager Data

L'imageur possède un angle de vue (Field of View) side-to-side égal à FoV= 7.1° La définition du capteur (Hauteur et Largeur) est : The imager has an angle of view (Field of View) side-to-side equal to FoV= 7.1° The definition of the sensor (Height and Width) is:

ResH = 2048 pixels et ResL = 2048 pixels La résolution angulaire en largeur est : ResH = 2048 pixels and ResL = 2048 pixels The angular resolution in width is:

FoV FoV

ResAL = 0.0034667969 ° /pixel ResAL = 0.0034667969°/pixel

ResL ResL

La résolution angulaire en Hauteur est de : The angular resolution in Height is:

FnV FnV

ResAH = — — = 0.0034667969 ° /pixel R6SH ResAH = — — = 0.0034667969°/pixel R6SH

Données concernant le Satellite Satellite Data

Quand le satellite se trouve à une altitude AltSat = 550 km, sa période orbitale est, selon les Lois de Kepler [1] : When the satellite is at an altitude AltSat = 550 km, its orbital period is, according to Kepler's Laws [1]:

5738.8226 secondes avec 5738.8226 seconds with

RTerre = 6378 km (rayon moyen de la Terre) m = 398600.4418 km3. s 2 (Paramètre gravitationnel standard pour la Terre) RTearth = 6378 km (average radius of the Earth) m = 398600.4418 km 3 . s 2 (Standard gravitational parameter for Earth)

Sa vitesse angulaire est Its angular velocity is

360 360

VASat = - = 0.062730637 ° / seconde VASat=-=0.062730637°/second

PSat Données concernant la Cible PSat Target Data

Quand la cible se trouve à une altitude AltCib = 555 km, sa période orbitale est selon les lois de Kepler : 5745.0363 secondes (1) avec When the target is at an altitude AltCib = 555 km, its orbital period is according to Kepler's laws: 5745.0363 seconds (1) with

RTerre = 6378 km (rayon moyen de la Terre) m = 398600.4418 km3.s 2 (Paramètre gravitationnel standard pour la Terre) RTearth = 6378 km (mean radius of the Earth) m = 398600.4418 km 3 .s 2 (standard gravitational parameter for the Earth)

Sa vitesse angulaire est : Its angular velocity is:

360 360

VACib = - - = 0.062662789 °/ seconde VACib = - - = 0.062662789 °/ second

PCib ' PCib'

Calculs pour trouver le temps optimal entre deux images : Calculations to find the optimal time between two images:

La vitesse angulaire relative du satellite par rapport à la cible est : The relative angular velocity of the satellite relative to the target is:

VARel = VASat - VACib = 6.7848 x 10 5 ° /seconde (2)VARel = VASat - VACib = 6.7848 x 10 5 °/second (2)

Le temps maximum entre Image 1 et Image 2 doit être choisi pour avoir un décalage de la cible inférieur à un pixel entre les deux images, c'est à dire qu'il est lié à la vitesse angulaire relative et à la résolution angulaire du capteur : The maximum time between Image 1 and Image 2 must be chosen to have a target offset of less than one pixel between the two images, i.e. it is linked to the relative angular velocity and the angular resolution of the sensor :

ResAL ResAL

TempsMaxl = NPixel x - - = 51 secondes VARel avec NPixel = 1 TimeMaxl = NPixel x - - = 51 seconds VARel with NPixel = 1

Mais pour que le réalignement sur les étoiles puisse se faire correctement, il faut que le décalage des étoiles soit inférieur ou égal à 10% de la largeur du capteur : But for the realignment on the stars to be done correctly, the offset of the stars must be less than or equal to 10% of the width of the sensor:

ResAL ResAL

TempsMax2 = 0.1 x ResL x = 11 secondes MaxTime2 = 0.1 x ResL x = 11 seconds

VASat VASat

Il faut alors prendre la valeur minimale entre TempsMaxl et TempsMax2. It is then necessary to take the minimum value between TimeMaxl and TimeMax2.

Le temps minimum entre la prise de vue de Image 1 et celle de Image 2 doit être choisi pour avoir un décalage des étoiles supérieur ou égal à quelques pixels trois pixels entre les deux images, c'est à dire qu'il est lié à la vitesse angulaire du Satellite et la résolution angulaire du capteur : Il The minimum time between the shooting of Image 1 and that of Image 2 must be chosen to have a star shift greater than or equal to a few pixels three pixels between the two images, i.e. it is linked to the Satellite angular velocity and sensor angular resolution: He

ResAL ResAL

TempsMin = N Pixel x = 166 ms MinTime = N Pixel x = 166 ms

VASat avec NPixel = 3 VASat with NPixel = 3

La valeur du décalage des étoiles peut s'exprimer en fonction du temps entre la prise de vue d’image 1 et celle d’image 2 : The value of the star offset can be expressed as a function of the time between the shooting of image 1 and that of image 2:

VASat VASat

DecEtoiles = temps x DecStars = time x

ResAL ResAL

La valeur du décalage de la cible est, quand à elle : The value of the target shift is, for her:

VARel VAREL

DecCible = temps x DecTarget = time x

ResAL ResAL

Conclusion : pour la phase prise de vues, le laps de temps entre Image 1 et Image 2 doit être compris entre 166 ms et 11 secondes. Par exemple, avec un laps de temps de 1 seconde entre Image 1 et Image 2, on a un décalage des étoiles de 18 pixels, et un décalage de la cible de 0.02 pixels. Conclusion: for the shooting phase, the time lapse between Image 1 and Image 2 must be between 166 ms and 11 seconds. For example, with a time lapse of 1 second between Image 1 and Image 2, we have a star offset of 18 pixels, and a target offset of 0.02 pixels.

Calculs pour estimer la distance entre le satellite et la cible : Calculations to estimate the distance between the satellite and the target:

Lors de la phase de suivi (tracking), la vitesse angulaire relative de la cible peut être calculée par rapport au temps nécessaire ( TempsDec ) pour avoir un décalage de un pixel entre Image 1 et Image 2. During the tracking phase, the relative angular velocity of the target can be calculated in relation to the time required (TimeDec) to have a one-pixel shift between Image 1 and Image 2.

Il est à noter que plus le temps nécessaire est important et plus cela implique que la distance entre la cible et le satellite soit faible car la vitesse angulaire relative est faible. It should be noted that the longer the time required, the more this implies that the distance between the target and the satellite is low because the relative angular speed is low.

ResAL ResAL

VARel = NPix x -VARel = NPix x -

TempsDec avec TimeDec with

VARel = valeur en °/s VARel = value in °/s

NPix = valeur du décalage de la cible en pixels NPix = target offset value in pixels

TempsDec = temps nécessaire pour avoir le décalage de NPix TempsDec = time required to have the shift of NPix

L'équation (2) précitée permet de trouver la vitesse angulaire de la cible puisque l'on connaît la vitesse angulaire du satellite : The aforementioned equation (2) makes it possible to find the angular velocity of the target since we know the angular velocity of the satellite:

VACib = VASat - VARel ou VACib = VASat - VARel or

ResAL ResAL

VACib = VASat - NPix x -VACib = VASat - NPix x -

TempsDec TimeDec

La période estimée d'une orbite de la cible est la durée pour parcourir 360° à cette vitesse angulaire : The estimated period of a target orbit is the time to travel 360° at this speed angular:

360 ou 360 Where

360 360

PCib = PCB =

ResAL ResAL

VASat — NPix x TempsDec VASat — NPix x DecTime

L'altitude se déduit d'après (1) : The altitude is deduced according to (1):

RTerre = 6378 km (rayon moyen de la Terre) m = 398600.4418 km3. s 2 (Paramètre gravitationnel standard pour la Terre) RTearth = 6378 km (average radius of the Earth) m = 398600.4418 km 3 . s 2 (Standard gravitational parameter for Earth)

La distance entre le satellite et la cible : The distance between the satellite and the target:

Avec par exemple un temps mesuré de 60 secondes pour avoir un décalage de 1 pixel de la cible entre Image 1 et Image 2, cela donne une distance satellite-cible de 4.257 km. With for example a measured time of 60 seconds to have a shift of 1 pixel of the target between Image 1 and Image 2, this gives a satellite-target distance of 4.257 km.

Précision sur le calcul de la distance Precision on distance calculation

Si le temps nécessaire n'est plus 60 secondes mais 59 secondes, la distance Satellite-Cible est 4.329 km. If the time required is no longer 60 seconds but 59 seconds, the Satellite-Target distance is 4.329 km.

On a donc une résolution de 72 mètres lorsqu'on fait une prise de vue et une analyse chaque seconde. Mais la précision de la mesure peut être augmentée en diminuant le laps de temps entre deux images : puisque dans la phase de suivi (tracking), on se concentre sur une toute petite zone de l'image, le temps d'analyse est fortement réduit. So we have a resolution of 72 meters when we shoot and analyze every second. But the accuracy of the measurement can be increased by reducing the time lapse between two images: since in the tracking phase, we focus on a very small area of the image, the analysis time is greatly reduced .

Avec une prise de vue et son analyse toutes les 100 ms, si le temps nécessaire est de 59.9 secondes, la distance Satellite-Cible est 4.265 km, ce qui donne une résolution de 7.2 mètres. Calculs sur une distance plus courte With a capture and its analysis every 100 ms, if the time required is 59.9 seconds, the Satellite-Target distance is 4.265 km, which gives a resolution of 7.2 meters. Calculations over a shorter distance

Lorsque la cible est représentée sur une image par un groupe avec un nombre de pixels plus important, le principe reste le même, il suffît de prendre le centre de ce groupe ou son bord et de détecter le décalage d'une image à l'autre. When the target is represented on an image by a group with a larger number of pixels, the principle remains the same, just take the center of this group or its edge and detect the shift from one image to another .

Si le temps nécessaire pour détecter un décalage de 1 pixel de la cible est de 500 secondes, on obtient une distance de 0.510 km If the time required to detect a 1-pixel offset from the target is 500 seconds, we obtain a distance of 0.510 km

A cette distance, la résolution de la distance est de 1 mètre avec une prise de vue et une analyse chaque seconde. La précision sur la distance augmente lorsque la distance diminue. At this distance, the distance resolution is 1 meter with one shot and one scan every second. Distance accuracy increases as distance decreases.

Résolution de l'image Image resolution

A une distance donnée, l'image prise représente une zone de : ce qui permet de donner la résolution de l’image en fonction de la distance : At a given distance, the image taken represents an area of: which makes it possible to give the resolution of the image according to the distance:

A 5 km de distance, 1 pixel représente 30.29 cm A 500 m de distance, 1 pixel représente 3.29 cm At 5 km distance, 1 pixel represents 30.29 cm At 500 m distance, 1 pixel represents 3.29 cm

Si l'on considère que la cible doit représenter au moins un carré de 2x2 pixels sur chaque image, on peut détecter : une cible de 60 cm de côté à une distance de 5 km. une cible de 100 cm de côté à une distance de 8 km. If we consider that the target must represent at least a square of 2x2 pixels on each image, we can detect: a target of 60 cm side at a distance of 5 km. a target of 100 cm side at a distance of 8 km.

Il est à noter que ces pixels représentent des zones éclairées par le soleil, la lune, ou laIt should be noted that these pixels represent areas illuminated by the sun, the moon, or the

Terre. Les zones non éclairées de la cible ne seront pas détectées. Earth. Unlit areas of the target will not be detected.

Bien entendu, l’invention n’est pas limitée aux exemples qui viennent d’être décrits et de nombreux autres modes de réalisation peuvent être envisagés sans sortir du cadre de la présente invention. En particulier, on peut envisager que le système de détection différentielle selon l’invention puisse être embarqué dans toutes sortes d’engins spatiaux opérant en orbite basse. REFERENCES Of course, the invention is not limited to the examples which have just been described and many other embodiments can be envisaged without departing from the scope of the present invention. In particular, it can be envisaged that the differential detection system according to the invention can be embarked in all kinds of spacecraft operating in low orbit. REFERENCES

[1] "Les 3 lois de Kepler" https://fr.wikipedia.0rg/wiki/Satellite_artificiel#Les_trois_lois_de_Kepler [1] "Kepler's 3 laws" https://fr.wikipedia.0rg/wiki/Satellite_artificiel#Les_trois_lois_de_Kepler

[2] "Docking with précision" (NASA, 22 Nov 2007) https://www.nasa.gov/missions/shuttle/f_docking.html [2] "Docking with precision" (NASA, 22 Nov 2007) https://www.nasa.gov/missions/shuttle/f_docking.html

[3] Xueyang Zhang, Junhua Xiang and Yulin Zhang "Space Object Détection in Video Satellite Images Using Motion Information" (17 Oct 2017) [3] Xueyang Zhang, Junhua Xiang and Yulin Zhang "Space Object Detection in Video Satellite Images Using Motion Information" (17 Oct 2017)

[4] J. Cheng, W. Zhang, M. Y. Cong, and H. B. Pan, “Research of detecting algorithm for space object based on star map récognition” (May 2010) [4] J. Cheng, W. Zhang, M. Y. Cong, and H. B. Pan, “Research of detecting algorithm for space object based on star map recognition” (May 2010)

Claims

REVENDICATIONS 1. Procédé pour détecter à distance une ou plusieurs cibles (1) dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial (2) sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, comprenant les étapes suivantes: une acquisition d’images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial (2), un réalignement desdites images ainsi acquises au moyen de points de référence représentés par des étoiles, 1. Method for remotely detecting one or more targets (1) in space in low orbit around the Earth from an imager on board a spacecraft (2) in a heliosynchronous orbit and having to approach a or several targets located on a close orbital plane, comprising the following steps: an acquisition of images taken sequentially of an area of space potentially containing said one or several targets, said images being spaced apart by a predetermined period of time, timestamped and associated with the corresponding inertial position of the spacecraft (2), a realignment of said images thus acquired by means of reference points represented by stars, (i) une détection, au sein des images prises séquentiellement et réalignées, de groupes de pixels quasiment fixes représentant chacun une cible, - (ii) une mesure d’un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et (i) a detection, within the images taken sequentially and realigned, of groups of almost fixed pixels each representing a target, - (ii) a measurement of a lapse of time necessary for these groups of pixels thus detected to be shifted of a predetermined number of pixels, and (iii) un traitement de cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles (1) par rapport audit imageur. (iii) a processing of this time measurement to deliver position information of said one or more targets (1) with respect to said imager. 2. Procédé selon la revendication 1, mis en œuvre pour la détection d’une seule cible, caractérisé en ce qu’il comprend les étapes suivantes: acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement ladite cible, lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), réaligner les deux images au moyen de points de référence représentés par des étoiles, réaliser une différence des deux images réalignées, puis un traitement de cette différence pour produire une image différentielle, traiter l'image différentielle pour y détecter une cible (1) sous la forme d’un groupe de pixels quasiment fixes, suivre la cible (1) ainsi détectée, par acquisition d’images de la cible (1) ainsi détectée et positionnée, jusqu’à ce que l’image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible (1). 2. Method according to claim 1, implemented for the detection of a single target, characterized in that it comprises the following steps: acquiring two images, spaced apart by a predetermined period of time, to generate a first and a second image of an area of space potentially containing said target, said first and second images being timestamped and associated with the corresponding inertial position of the spacecraft (2), realigning the two images by means of reference points represented by stars, create a difference between the two realigned images, then process this difference to produce a differential image, processing the differential image to detect therein a target (1) in the form of a group of almost fixed pixels, following the target (1) thus detected, by acquiring images of the target (1) thus detected and positioned, until the image thus acquired is shifted by a predetermined number of pixels with respect to a reference image previously chosen from among the images already acquired, said images thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft (2), measuring a lapse of time between the shooting of the reference image and the shooting of the last acquired image, and processing of this lapse of time thus measured to deliver information on the position of the target (1). 3. Procédé selon la revendication 2, caractérisé en ce qu’au moins l’une des phases d’acquisition, de réalignement, ou de différence sont réalisés plusieurs fois, pour confirmer l’emplacement de la cible (1) et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition. 3. Method according to claim 2, characterized in that at least one of the phases of acquisition, realignment, or difference are carried out several times, to confirm the location of the target (1) and to overcome possible erroneous detections due to stars or acquisition errors. 4. Procédé selon l’une des revendications 2 ou 3, caractérisé en ce que l’étape de réalignement comprend en outre un calcul intermédiaire pour corriger une déformation des images en fonction de la focale de l’objectif de l’imageur. 4. Method according to one of Claims 2 or 3, characterized in that the realignment step further comprises an intermediate calculation to correct a distortion of the images as a function of the focal length of the lens of the imager. 5. Système pour détecter à distance une ou plusieurs cibles (1) dans l’espace en orbite basse autour de la Terre à partir d’un imageur embarqué dans un engin spatial (2) sur une orbite héliosynchrone et devant se rapprocher d'une ou plusieurs cibles situées sur un plan orbital proche, mettant en œuvre le procédé de détection selon Tune quelconque des revendications précédentes, ce système comprenant: des moyens pour acquérir des images prises séquentiellement d’une zone de l’espace contenant potentiellement lesdites une ou plusieurs cibles, lesdites images étant espacées d’un laps de temps prédéterminé, horodatées et associées à la position inertielle correspondante de l’engin spatial (2), des moyens pour réaligner lesdites images ainsi acquises au moyen de points de référence représentés par des étoiles, (i) des moyens pour détecter, au sein des images prises séquentiellement et réalignées, des groupes de pixels quasiment fixes représentant chacun une cible,5. System for remotely detecting one or more targets (1) in space in low orbit around the Earth from an imager on board a spacecraft (2) in a heliosynchronous orbit and having to approach a or several targets situated on a close orbital plane, implementing the detection method according to any one of the preceding claims, this system comprising: means for acquiring images taken sequentially of a zone of space potentially containing the said one or several targets, said images being spaced apart by a predetermined period of time, timestamped and associated with the corresponding inertial position of the spacecraft (2), means for realigning said images thus acquired by means of reference points represented by stars, (i) means for detecting, within the images taken sequentially and realigned, groups of almost fixed pixels each representing a target, (ii) des moyens pour mesurer un laps de temps nécessaire pour que ces groupes de pixels ainsi détectés se trouvent décalés d’un nombre prédéterminé de pixels, et(ii) means for measuring a period of time necessary for these groups of pixels thus detected to be shifted by a predetermined number of pixels, and (iii) des moyens pour traiter cette mesure de temps pour délivrer des informations de position de ladite une ou plusieurs cibles (1) par rapport audit imageur. (iii) means for processing this time measurement to deliver position information of said one or more targets (1) relative to said imager. 6. Système selon la revendication 5, mis en œuvre pour la détection d’une seule cible, caractérisé en ce qu’il comprend : des moyens pour acquérir deux images, espacées d’un laps de temps prédéterminé, pour générer une première et une seconde image d’une zone de l’espace contenant potentiellement la cible (1), lesdites première et seconde images étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), des moyens pour réaligner les deux images au moyen de points de référence représentés par des étoiles, des moyens réaliser une différence des deux images réalignées, puis traitement de cette différence pour produire une image différentielle, des moyens pour traiter l’image différentielle pour y détecter une cible (1) sous la forme d’un groupe de pixels quasiment fixes, des moyens pour suivre la cible (1) ainsi détectée, par acquisition d’images de la cible (1) ainsi détectée et positionnée, jusqu’à ce que la dernière image ainsi acquise soit décalée d’un nombre prédéterminé de pixels par rapport à une image de référence préalablement choisie parmi les images déjà acquises, lesdites images ainsi acquises étant horodatées et associées à la position inertielle correspondante de l’engin spatial (2), et des moyens pour mesurer un laps de temps entre la prise de vue de l’image de référence et la prise de vue de la dernière image acquise, et traitement de ce laps de temps ainsi mesuré pour délivrer des informations de position de la cible (1). 6. System according to claim 5, implemented for the detection of a single target, characterized in that it comprises: means for acquiring two images, spaced apart by a predetermined period of time, to generate a first and a second image of an area of space potentially containing the target (1), said first and second images being timestamped and associated with the corresponding inertial position of the spacecraft (2), means for realigning the two images by means reference points represented by stars, means for making a difference between the two realigned images, then processing this difference to produce a differential image, means for processing the differential image in order to detect a target (1) therein in the form of 'a group of almost fixed pixels, means for following the target (1) thus detected, by acquiring images of the target (1) thus detected and positioned, until the last image thus acquired is shifted by a predetermined number of pixels with respect to a reference image chosen beforehand from among the images already acquired, the said images thus acquired being timestamped and associated with the corresponding inertial position of the spacecraft (2), and means for measuring a lapse of time between the shooting of the reference image and the shooting of the last image acquired, and processing of this lapse of time thus measured to deliver information on the position of the target (1). 7. Système de détection selon la revendication 6, caractérisé en ce que les moyens d’acquisition d’image comprennent un imageur embarqué dans un satellite d’inspection visuelle. 7. Detection system according to claim 6, characterized in that the means image acquisition systems include an on-board imager in a visual inspection satellite. 8. Système de détection selon l’une des revendications 6 ou 7, caractérisé en ce que les moyens d’acquisition, de réalignement ou de différence d’images sont mis en œuvre plusieurs fois, pour confirmer l’emplacement de la cible (1) et s’affranchir d’éventuelles détections erronées dues à des étoiles ou à des erreurs d’acquisition. 8. Detection system according to one of claims 6 or 7, characterized in that the means of acquisition, realignment or image difference are implemented several times, to confirm the location of the target (1 ) and overcome any erroneous detections due to stars or acquisition errors. 9. Satellite d’inspection visuelle, comprenant un système de détection à distance d’une cible (1) dans l’espace en orbite basse selon l’une quelconque des revendications 5 à9. Visual inspection satellite, comprising a system for the remote detection of a target (1) in space in low orbit according to any one of claims 5 to 8. 8. 10. Satellite d’inspection visuelle selon la revendication 9, caractérisé en ce qu’il comprend en outre des moyens pour contrôler l’orientation d’un imageur intégré dans le système de détection selon l’une quelconque des revendications 5 à 8, vers la cible10. Visual inspection satellite according to claim 9, characterized in that it further comprises means for controlling the orientation of an imager integrated in the detection system according to any one of claims 5 to 8, towards target (1)· (1) ·
EP21754815.5A 2020-07-22 2021-07-22 Method and system for detecting one or more targets in space based on images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system Pending EP4185532A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2007711A FR3112849B1 (en) 2020-07-22 2020-07-22 Method and system for detecting one or more targets in space from images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system
PCT/FR2021/051367 WO2022018381A1 (en) 2020-07-22 2021-07-22 Method and system for detecting one or more targets in space based on images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system

Publications (1)

Publication Number Publication Date
EP4185532A1 true EP4185532A1 (en) 2023-05-31

Family

ID=73401650

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21754815.5A Pending EP4185532A1 (en) 2020-07-22 2021-07-22 Method and system for detecting one or more targets in space based on images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system

Country Status (3)

Country Link
EP (1) EP4185532A1 (en)
FR (1) FR3112849B1 (en)
WO (1) WO2022018381A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115388859B (en) * 2022-07-18 2025-01-10 北京空间飞行器总体设计部 Engineering state monitoring method applicable to extraterrestrial celestial body surface third view angle multi-target spacecraft
CN118068291B (en) * 2024-02-26 2025-04-29 中国科学院国家天文台长春人造卫星观测站 Rapid identification method for space debris dim target based on daytime star guiding image
CN120876836B (en) * 2025-09-24 2025-11-28 中国航天科工集团八五一一研究所 Methods and systems for close-range space target detection and intelligent identification of special components

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0168003B1 (en) 1984-07-06 1991-04-03 Otsuka Pharmaceutical Co., Ltd. Oxindol compounds, compositions containing same and processes for preparing same
IL97290A (en) * 1991-02-19 1995-12-31 Israel Aircraft Ind Ltd Method and system for moving object detection and classification
US5512743A (en) * 1994-01-25 1996-04-30 The United States Of America As Represented By The Secretary Of The Navy Space-based asteroid detection and monitoring system
FR2810744B1 (en) * 2000-06-22 2002-10-11 Thomson Csf SPATIAL POLLUTION MEASURING DEVICE

Also Published As

Publication number Publication date
WO2022018381A1 (en) 2022-01-27
FR3112849B1 (en) 2022-10-21
FR3112849A1 (en) 2022-01-28

Similar Documents

Publication Publication Date Title
EP1843295B1 (en) Method of recreating the movements of the line of sight of an optical instrument
EP4185532A1 (en) Method and system for detecting one or more targets in space based on images taken from a spacecraft such as a visual inspection satellite, and satellite equipped with such a system
CA2804991C (en) Optical watch system for a space watch system for near space monitoring
EP2593367B1 (en) Space surveillance system for surveying the near space
EP2593368B1 (en) Method of realisation of a space surveillance system for surveying the near space
WO2016156352A1 (en) Method of determining a direction of an object on the basis of an image of the object
WO2006064051A1 (en) Method for processing images using automatic georeferencing of images derived from a pair of images captured in the same focal plane
EP3359978B1 (en) Method for processing an sar image and associated target-detecting method
FR2991785A1 (en) STABILIZATION OF A VIEWING LINE OF AN IMAGING SYSTEM ON BOARD A SATELLITE
FR3137183A1 (en) Method and device for determining a satellite pointing law by determining a spatio-temporal distribution
EP0920677B1 (en) Method and device for air-ground recognition for optoelectronic equipment
Shtofenmakher et al. Effects of phase angle and sensor properties on on-orbit debris detection using commercial star trackers
EP4205406B1 (en) Process for the acquisition of images of a space object in terrestrial orbit by a spacecraft in terrestrial orbit
EP1168003B1 (en) Device for measuring space pollution
US11879838B2 (en) Vicarious calibration using solar glint over water
EP2113460B1 (en) Method for characterising vibrations for an observation satellite.
EP2194353B1 (en) Method and system for detecting improvised explosive devices or similar
EP4542250A1 (en) Method for improving the performance of sensors in a system comprising a plurality of platforms each on board at least one sensor and an electronic processing module
FR2701762A1 (en) Device for restoring the orbit of celestial bodies, particularly artificial satellites, by means of deviation.
FR2611266A1 (en) Device and method for locating views on the ground taken by a satellite
FR2934055A1 (en) Scanning parameters establishing method for realizing synthetic aperture radar image, involves determining aimed direction at instant from value of reference bearing angle, where direction is perpendicular to axis of observation zone
FR2831265A1 (en) METHOD FOR OBSERVING AN OBJECT AND SATELLITE IMPLEMENTING IT
FR2737071A1 (en) Matrix array camera movement system for site surveillance and e.g. being mounted on platform on boat - has random position camera with position picture and coordinate memorisation and display, and is provided with gyroscope

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230222

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
19U Interruption of proceedings before grant

Effective date: 20240606