[go: up one dir, main page]

ES2774080T3 - Procedimiento de adquisición de imágenes de una escena, desde un sensor a bordo de un portador en desplazamiento, con servocontrol de su línea de visión - Google Patents

Procedimiento de adquisición de imágenes de una escena, desde un sensor a bordo de un portador en desplazamiento, con servocontrol de su línea de visión Download PDF

Info

Publication number
ES2774080T3
ES2774080T3 ES16801744T ES16801744T ES2774080T3 ES 2774080 T3 ES2774080 T3 ES 2774080T3 ES 16801744 T ES16801744 T ES 16801744T ES 16801744 T ES16801744 T ES 16801744T ES 2774080 T3 ES2774080 T3 ES 2774080T3
Authority
ES
Spain
Prior art keywords
band
images
sight
terrain
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16801744T
Other languages
English (en)
Inventor
Raphaël Horak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Application granted granted Critical
Publication of ES2774080T3 publication Critical patent/ES2774080T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9029SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • G01S13/9052Spotlight mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/90Lidar systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Input (AREA)

Abstract

Procedimiento de adquisición de imágenes de una escena terrestre predeterminada, desde un portador (2) en desplazamiento según una trayectoria (20) y equipado con un sensor óptico que tiene una línea (3) de visión, que comprende una etapa de adquisición por el sensor de imágenes (1) sucesivas de la escena en el curso del desplazamiento del portador y una etapa de servocontrol de la dirección angular de la línea de visión por una unidad de procesamiento conectada al sensor, realizándose la adquisición: - para una primera posición (P1) del portador en su trayectoria, con un servocontrol de la dirección angular de la línea de visión que permita efectuar un barrido de una banda (4, 4a) de terreno predeterminada de la escena, llamado barrido hacia delante, combinado con un barrido en modo "step-and-stare" siendo así adquirida una banda (40, 40a1) de imágenes, - y porque al menos se adquiere otra banda (40a2) de imágenes sobre una misma zona de terreno que la primera banda reiterando estas etapas de barrido para al menos otra posición (P2) del portador en su trayectoria, siendo adquirida cada imagen de la otra banda para una porción de banda de terreno con una tasa de solapamiento con la imagen o las imágenes de la primera banda para la misma porción de banda de terreno, superior a una gran tasa predeterminada de solapamiento, siendo así adquiridas respectivamente las imágenes que solapan una banda a otra procedentes de una misma porción del terreno en el curso de estas iteraciones según diferentes direcciones de la línea de visión, caracterizado porque el modo "step-and-stare" que incluye unos micromovimientos de traslación llamados "steps" presenta una amplitud controlada por la unidad de procesamiento, comprende: - al menos un "step" de componente principal perpendicular al barrido hacia delante y llamado lateral (5), combinado con - al menos un "step" (7) de componente principal paralelo al barrido hacia delante y llamado longitudinal, - un micromovimiento de "stare" biaxial para compensar un movimiento de traslación de la línea de visión durante la adquisición de cada imagen, y porque el servocontrol de la dirección angular de la línea de visión se realiza por procesamiento de imágenes sobre las imágenes adquiridas.

Description

DESCRIPCIÓN
Procedimiento de adquisición de imágenes de una escena, desde un sensor a bordo de un portador en desplazamiento, con servocontrol de su línea de visión
El campo de la invención es el de la adquisición de imágenes por servocontrol de la línea de visión de un sensor conectado a un procesamiento de imágenes, por ejemplo para aplicaciones de supervisión o de reconocimiento.
El documento US 2005/177307 describe un sistema de reconocimiento aéreo y el documento US 2012/249739 presenta un procedimiento de barrido estereoscópico desde una plataforma en movimiento.
Las figuras de barrido de la línea de visión (LdV) de los sensores ópticos o de radares servocontrolados implementados en unos POD, aeronaves o vehículos terrestres son unas figuras clásicas del tipo:
- barrido lateral con ángulo constante, llamado también modo strip-map en el campo del radar,
- barrido "spotlight" sobre un punto fijo (= barrido de persecución sobre un punto fijo),
- barrido de persecución sobre un objetivo móvil,
- barrido circular para aplicaciones terrestres.
El primer barrido permite barrer una banda de terreno pero con un punto de vista constante entre la aeronave y el punto en el terreno que es barrido.
El segundo permite ver un objeto en el terreno según diferentes puntos de vista pero cubre una zona en el terreno muy limitada.
El tercero es una variante del segundo y no garantiza la multiplicidad de los puntos de vista.
El cuarto es similar al primero y presenta un ángulo de azimut constante.
Estas cuatro clases de barrido no permiten visualizar con buena resolución angular una gran extensión de terreno según diferentes puntos de vista.
El objeto de la invención es paliar estos inconvenientes.
La solución aportada consiste en aplicar un modo de servocontrol específico para la línea de visión del sensor mediante varias series de barridos hacia delante en el terreno, siendo seguido en general cada barrido hacia delante por un barrido de vuelta rápido en el terreno, en los que se combinan unos micromovimientos de "step-and-stare" (traslación y apuntado según una traducción somera) que permiten obtener imágenes suficientemente estables e iluminadas a pesar de los rápidos movimientos de los barridos. Un procesamiento de imágenes permite controlar este servocontrol para obtener precisión.
Más precisamente la invención tiene por objeto un procedimiento de adquisición de imágenes de una escena terrestre predeterminada, desde un portador en desplazamiento según una trayectoria y equipado con un sensor óptico que tiene una línea de visión, que comprende una etapa de adquisición por el sensor de imágenes sucesivas de la escena en el curso del desplazamiento del portador y una etapa de servocontrol de la dirección angular de la línea de visión por una unidad de procesamiento conectada al sensor, realizándose la adquisición:
- para una primera posición del portador en su trayectoria, con un servocontrol de la dirección angular de la línea de visión que permita efectuar un barrido de una banda de terreno predeterminada de la escena, llamado barrido hacia delante, combinado con un barrido en modo "step-and-stare" siendo así adquirida una banda de imágenes, - y porque al menos se adquiere otra banda de imágenes sobre una misma zona de terreno que la primera banda reiterando estas etapas de barrido para al menos otra posición del portador en su trayectoria, siendo adquirida cada imagen de la otra banda para una porción de la banda de terreno con una tasa de solapamiento con la imagen o las imágenes de la primera banda para la misma porción de banda de terreno, superior a una gran tasa predeterminada de solapamiento, siendo así adquiridas las imágenes que solapan una banda a otra procedentes de una misma porción del terreno en el curso de estas iteraciones según diferentes direcciones de la línea de visión.
Y se caracteriza principalmente porque el modo "step-and-stare" que incluye estos micromovimientos de traslación llamados "steps" presenta una amplitud controlada por la unidad de procesamiento, comprende:
o al menos un "step" de componente principal perpendicular al barrido hacia delante y llamado lateral, combinado con
o al menos un "step" de componente principal paralela al barrido hacia delante y llamado longitudinal, o con un micromovimiento de "stare" biaxial para compensar un movimiento de traslación de la línea de visión durante la adquisición de cada imagen,
y porque el servocontrol de la dirección angular de la línea de visión se realiza por procesamiento de imágenes sobre las imágenes adquiridas.
Esta solución con movimientos de barrido adaptados a la línea de visión, permite a la vez cubrir una zona grande eventualmente en la forma de diferentes bandas de terreno contiguas o no y visualizar el conjunto de estos puntos barridos según unos ángulos diferentes. Permite en particular proporcionar unas bandas de imágenes que cubren una gran superficie del terreno en unos instantes y unos ángulos de punto de vista diferentes.
Respeta gracias al movimiento específico de "step-and-stare" bidireccional, síncrono con el servocontrol principal de la línea de visión, un tiempo de iluminación suficientemente largo para cada imagen y permite de ese modo garantizar a las imágenes una calidad suficiente.
La solución también permite, después del procesamiento de las imágenes de las bandas, conteniendo estas los puntos en el terreno que son vistos según diferentes ángulos de visión, construir unas bandas de imágenes geométricamente conformes, es decir superponibles en una orto-fotografía o un mapa geográfico, lo que no permiten los otros procedimientos cuando el desplazamiento del portador es grande con relación al relieve de la zona.
La solución propuesta utiliza los nuevos conceptos siguientes:
- Barrido y contra-barrido frontal repetido de la línea de visión, seguido por adquisiciones, en una o varias bandas en el terreno, estando en movimiento el portador equipado con el sensor, de manera que vuelva varias veces (típicamente entre 5 y 20 veces) sobre el mismo punto del terreno con unos puntos de vista diferentes y esto para todos los puntos de una banda de terreno de gran extensión longitudinal (o si es necesario para todos los puntos de diferentes bandas de terreno recorridas en paralelo),
- Step-and-stare de dos ejes combinando además unos micromovimientos continuos de step-and-stare clásico, pudiendo ser de gran amplitud unos steps-and-stare laterales, todo combinado con el procesamiento de imágenes para ensamblar correctamente las imágenes de cada banda. Mientras que en el estado de la técnica el micromovimiento es mono-eje, otra particularidad de este step-and-stare es que introduce un micromovimiento de stare biaxial para eliminar el desenfoque y mejorar la calidad de la imagen durante su tiempo de integración. Deja también la posibilidad de añadir una componente rotativa de la imagen durante la stare, asegurando así un ensamblaje lo más perfecto posible de las imágenes en la banda de imágenes generada.
- Producción simultánea de diversas bandas de imágenes en la que cada banda corresponde a una banda de terreno que tiene una forma controlable en forma a la vez en anchura y longitud.
- Producción para una misma banda de terreno elegida en la escena de diferentes bandas superpuestas en diferentes instantes regulares y tomada según unos puntos de vista diferentes.
- Posibilidad de generalizar las bandas en unas escenas no limitadas en el sentido de la longitud (bandas que se desarrollan de acuerdo con el avance del portador).
El procedimiento puede realizarse en tiempo real a medida que se produce el avance del portador sin limitación impuesta sobre la trayectoria de este: el servocontrol compensa los movimientos del portador durante el barrido de las bandas en el terreno.
La primera posición y las otras posiciones sucesivas del portador que sirven de base para el barrido pueden ser o bien únicas durante el barrido, o bien múltiples y descompuestas en tantas posiciones como imágenes haya durante el barrido cuando el portador se desplaza en el transcurso del barrido.
Cada imagen de otra banda se adquiere ventajosamente para una porción de la banda de terreno, con una precisión de alineación con la imagen o las imágenes de la primera banda para la misma porción de banda de terreno, superior a una precisión de alineación predeterminada.
El servocontrol de la dirección angular de la línea de visión se realiza ventajosamente por procesamiento de las imágenes sobre las imágenes adquiridas para que en el seno de una misma banda, unas imágenes adyacentes estén alineadas con una calidad de alineación superior a una calidad predefinida.
El servocontrol de la dirección angular de la línea de visión se realiza ventajosamente por procesamiento de las imágenes sobre las imágenes adquiridas para que en el seno de una misma banda, unas imágenes adyacentes tengan una tasa de solapamiento superior a una reducida tasa de solapamiento predeterminada, de manera que se obtenga una banda continua.
El servocontrol de la dirección angular de la línea de visión se realiza preferentemente por procesamiento de las imágenes sobre las imágenes adquiridas para que las imágenes procedentes de dos bandas sobre una misma porción de la escena estén alineadas con una calidad de alineación superior a una calidad predefinida.
El micromovimiento "stare" biaxial puede asociarse además a un movimiento contra-rotativo de la línea de visión determinado por la unidad de procesamiento, para compensar un movimiento de rotación de la línea de visión durante la adquisición de la imagen o para alinear lo mejor posible las imágenes entre sí.
Según una característica de la invención, al menos otra banda de terreno predeterminada se asocia a la escena y es recorrida por el barrido efectuado desde dichas posiciones del portador y el modo "step-and-stare" comprende además al menos un movimiento lateral de cambio de banda, para pasar de una banda de terreno a otra banda de terreno.
Este movimiento lateral de cambio de banda puede combinarse con un movimiento frontal de cambio de banda.
El barrido hacia delante se efectúa en general en el sentido de la trayectoria.
Generalmente, un contra-barrido inverso al barrido hacia delante, llamado contra-barrido o barrido de vuelta, se efectúa a continuación del barrido hacia delante y antes de la reiteración.
El contra-barrido puede ser directo o combinarse a su vez con un barrido en modo step-and-stare. En efecto, se adquieren eventualmente unas imágenes durante el contra-barrido que se combina con un barrido el modo "step-andstare" con unos micromovimientos de traslación llamados "steps" que presentan una amplitud controlada por la unidad de procesamiento para que las imágenes sucesivamente adquiridas se solapen parcialmente, que comprende:
1. al menos un "step" perpendicular al contra-barrido y llamado lateral, para barrer la zona lateralmente, combinado con
2. al menos un "step" paralelo al contra-barrido y llamado step longitudinal para barrer la zona longitudinalmente, 3. un micromovimiento de "stare" biaxial para compensar un movimiento de traslación de la línea de visión durante la adquisición de cada imagen.
Se obtiene así un procedimiento que permite:
- servocontrolar la línea de visión del sensor de un portador en movimiento, de manera que esta barra una gran escena terrestre mientras se garantiza que cada punto del terreno es visto varias veces con ángulos de punto de vista diferentes cubriendo el mayor abanico de ángulos posibles;
- reproducir simultáneamente una o varias bandas de imágenes contiguas (o adyacentes) y que se solapan parcialmente y correspondientes a la escena libremente elegida por el operador;
- que no importa qué punto contenido en estas bandas se reconstituya temporalmente según diferentes puntos de vista, que cubre un gran dominio angular, haciendo posible por ejemplo procesamientos de restitución en 3D de los objetos contenidos en estas bandas;
- que las imágenes que sirven para la reconstrucción de bandas estén corregidas en términos de conformidad aprovechando las informaciones en 3D resultantes de la multiplicidad de los puntos de vista sobre un dominio angular bastante extendido.
Respeta además las limitaciones de servocontroles vinculados al sensor: velocidad de rotación y de aceleración de la línea de visión.
Pueden citarse otras ventajas del procedimiento como:
- permitir al operador ver en tiempo real, según diferentes puntos de vista, objetos de la escena designada por el mismo,
- hacer posible una cartografía en 3D sobre el conjunto de las bandas,
- hacer posible unos modos de bandas que se desarrollan continuamente (no limitados espacialmente en la dirección de movimiento del portador),
- hacer posible la concatenación de las bandas en una banda mayor en no importa qué momento de la trayectoria (noción de zona de supervisión programable en tiempo real),
- permitir una trayectoria del portador libremente elegida y unos movimientos de balanceo, cabeceo, y guiñada del portador, sin el límite impuesto por el sistema (línea de visión que debe continuar siendo capaz de barrer las bandas).
Surgirán otras características y ventajas de la invención con la lectura de la descripción detallada que sigue, realizada a título de ejemplo no limitativo y con referencia a los dibujos adjuntos en los que:
las figuras 1 ilustran esquemáticamente visto desde arriba un ejemplo de adquisición de imágenes desde un sensor embarcado a bordo de una aeronave y para una escena con 3 bandas de terreno disjuntas no cerradas sobre sí mismas (fig. 1a), con 3 bandas de terreno de las que 2 se cierran sobre sí mismas (fig. 1b), ilustrando la figura 1c de manera más detallada unos barridos consecutivos dispuestos en paralelo sobre dos bandas de terreno distintas, las figuras 2 ilustran esquemáticamente visto desde arriba un ejemplo de adquisición de imágenes el modo "stepand-stare" según el estado de la técnica (fig. 2a) y según la invención (fig. 2b),
la figura 3 ilustra esquemáticamente un ejemplo de movimiento de la línea de visión de un sensor según el procedimiento de la invención, expresándose el área y la capa en grados.
De una figura a otra, los mismos elementos se referencian mediante las mismas referencias.
Se describirá la invención considerando que la escena de la que se desea adquirir unas imágenes está predeterminada y dividida en varias bandas de terreno eventualmente disjuntas y eventualmente paralelas, pero no necesariamente. Se designa por banda, una zona del terreno de dimensión longitudinal media mayor que su dimensión lateral media. Esas bandas corresponden al espacio terrestre bajo el portador, que puede presentar unas infraestructuras, pero que puede generalizarse en no importa qué otro tipo de superficie de la escena visible desde el portador, por ejemplo fachadas de edificios vistos desde un vehículo terrestre.
Pudiendo ser la forma de la escena a barrer cualquiera, las bandas correspondientes pueden ser igualmente cualesquiera, así como su número y su orientación. La forma/anchura de la banda recorrida puede cubrir por ejemplo una forma de elipse o de S, la anchura de la banda puede así ampliarse o por el contrario disminuir en el transcurso del barrido. Pueden imaginarse formas más complejas como una forma en Y (unión de rutas), forma en estrella (cruce y sus rutas), forma que comprenda agujeros o no importa qué otra forma que pueda descomponerse en bandas elementales. La orientación de la banda en el terreno se elige libremente.
Se mostrarán unos ejemplos de bandas de terreno de barrido en relación con las figuras 1.
La figura 1a ilustra un primer barrido inicial de tres bandas 4a, 4b y 4c de terreno desde una primera posición P1 del portador 2 (que a su vez se desplaza en el transcurso de este primer barrido), siendo indicadas las líneas de visión en trazo continuo, y un segundo barrido de tres bandas desde una segunda posición P2 distinta del portador, indicándose las líneas de visión en trazos de puntos. Se entiende que pueden surgir varias hipótesis:
- el caso en el que el barrido inicial se realiza estrictamente a partir de la misma posición con un segundo barrido (y eventualmente otros barridos) realizados a partir de uno o unos puntos únicos diferentes del primero/precedente (lo que sería el caso para un portador en movimiento que realice saltos temporales para cambiar de posición, tal como un helicóptero mezclando posiciones fijas que sirven para barrer el terreno y movimientos de un punto a otro para cambiar de punto de vista).
- el caso en el que el barrido inicial y los siguientes se realizan durante el desplazamiento continuo del portador (los puntos (P1) correspondientes a cada imagen del barrido son entonces diferentes puntos sucesivos próximos entre sí). La proximidad de estos puntos depende de la velocidad de barrido supuesta suficientemente grande para que pueda hacerse un segundo barrido (incluso otros barridos) antes de comenzar otro barrido en un punto (Pi) suficientemente alejado del anterior, pero no demasiado alejado como para que puedan hacerse los diferentes barridos (al menos dos) antes de que las bandas de terreno recorridas por la línea de visión del sensor salgan del campo visual del sensor en situación de barrer.
- La tercera hipótesis es el caso que mezcla los 2 modos anteriores: es el caso de un portador que barre la escena con su sensor a todo lo largo de su desplazamiento sobre una porción de su trayectoria y que efectúa los barridos para diferentes posiciones espaciales diferentes fijas sobre el resto de la trayectoria (si el portador lo permite).
El barrido según la invención cubre estos diferentes casos, desde el momento que se considera en todos los casos un inicio del próximo barrido a unos puntos (P1), (P2), (Pi) diferentes. Se puede tener i=3 pero se tienen típicamente de 5 a 20 posiciones diferentes del portador, incluso más. Las figuras 1 y 2 no muestran más que el caso 1 o el caso 2 con un movimiento de barrido muy rápido (las líneas de visión parten cada una de los puntos (P1) casi confundidos). El caso 2 con un movimiento de barrido un poco más lento (pero igualmente también bastante rápido para que al final del barrido, el portador no haya tenido el tiempo de alcanzar la posición siguiente en la que inicia el próximo barrido) no se representa en las figuras.
En todas las hipótesis de este tipo, una imagen corresponde a una zona de terreno (es la huella de la imagen proyectada sobre el terreno según la línea de visión y el campo del sensor) y en un punto de la trayectoria del portador único. Se puede también decir que un punto del terreno barrido 2 veces o más, lo es a partir de puntos de trayectorias (Pi) forzosamente diferentes.
Los diferentes barridos se realizan de manera que la mayor parte de las imágenes 1 que proceden del primer barrido de las bandas del terreno están solapadas con las imágenes que proceden del segundo barrido (o de los barridos siguientes si existen).
La figura 1b ilustra diferentes direcciones de la línea de visión en el transcurso de un primer barrido de dos bandas 4a y 4b de terreno cerradas sobre sí mismas y que rodean en el caso actual al portador 2 y una tercera banda 4c de terreno. La única dirección de la línea de visión 3 p 1,..., 3p 5, se indica para cada una de las 5 posiciones P1,..., P5 del portador mostradas en la figura y desde la 5a dirección 3p 5 se adquieren unas imágenes que se superponen a ciertas imágenes adquiridas a partir de la posición PI del portador. El caso actual es un caso de manual que correspondería a un movimiento muy rápido del portador y más lento de la línea de visión, porque no se ha querido sobrecargar la figura. En realidad se pueden interpretar las 5 direcciones de la línea de visión como un ejemplo de líneas de visión que corresponden a 5 barridos completos de la línea de visión para 5 posiciones del portador.
El sentido del barrido hacia delante está vinculado en general al sentido de la trayectoria del portador, sin embargo para una banda cerrada sobre sí misma, (como se muestra en la figura Ib con las bandas 4a y 4b) o para una banda fuertemente inclinada con relación a la trayectoria del portador (véase la banda 4c de la figura Ib), el sentido del barrido "hacia delante" se determina por la unidad de procesamiento de manera que se minimicen las limitaciones de desviación de la línea de visión en el transcurso del movimiento del portador y se aumente en definitiva el número de idas y vueltas en cada banda.
Según la invención descrita en relación con las figuras 1 y 2, las imágenes 1 se adquieren por un sensor embarcado a bordo de un portador 2 en movimiento según una trayectoria 20.
Se considera inicialmente la adquisición de una primera banda de imágenes también designada banda inicial. Se realiza para una primera posición PI del portador 2 en su trayectoria, con un servocontrol de la línea de visión 3 que permite efectuar:
- un barrido de una primera banda 4 de terreno predeterminada de la escena, a partir de una posición inicial en el terreno de la línea de visión, llamado barrido hacia delante, combinado con un barrido en modo " step-and-stare" con micromovimientos de traslación llamados "steps", que comprende:
o al menos un "step" perpendicular al barrido hacia delante y llamado lateral 5, para barrer la banda 4 de terreno lateralmente (o relativamente de modo lateral), combinado con
o al menos un "step" 7 paralelo al barrido hacia delante y llamado step longitudinal para barrer la banda de terreno longitudinalmente (o relativamente de modo longitudinal),
o un micromovimiento de "stare" biaxial para compensar un movimiento de traslación de la línea de visión durante la adquisición de cada imagen 1.
La combinación de estos micromovimientos de "steps", su longitud y su número antes de cada micromovimiento "stare" se eligen por ejemplo por la unidad de procesamiento con el fin de optimizar el tiempo de recorrido del barrido global y/o el tiempo de adquisición de imágenes en las diferentes zonas de la banda de terreno. Ciertos steps más largos entre cada "stare" permiten también no adquirir imágenes en ciertas porciones de la banda de terreno.
Se adquiere así una primera banda de imágenes en una primera banda de terreno. Más generalmente si se considera al menos otra banda de terreno, las 2 bandas de terreno (o más) se barren simultáneamente en paralelo, gracias a unos movimientos de "steps" laterales o frontales suplementarios que permiten pasar de una banda a otra durante el barrido, realizando un conjunto de bandas de imágenes iniciales que cubren estas diferentes bandas de terreno. Preferentemente, para que esta banda de imágenes sea continua, las imágenes adyacentes están parcialmente solapadas entre sí. Es suficiente un reducido solapamiento de las imágenes adyacentes; esta tasa de solapamiento es superior a una reducida tasa de solapamiento predeterminada, típicamente 2o % incluso 10 %. Se opta la mayor parte del tiempo por una tasa de solapamiento mínima con el fin de maximizar el número de bandas almacenadas en la unidad de procesamiento.
Una vez que se ha adquirido esta banda inicial (eventualmente completada por otras bandas iniciales si se han predeterminado varias bandas de terreno), se adquieren otras bandas de imágenes para la misma banda de terreno (las mismas bandas de terreno en el caso general), reiterando estas etapas de barrido para una (y preferentemente varias) de las otras posiciones P2 del portador en su trayectoria 20. Cada imagen de otra banda se adquiere para una porción de la banda de terreno con una fuerte tasa de solapamiento con la imagen o las imágenes de la banda inicial para la misma porción de la banda de terreno. De este modo, las imágenes solapadas de una banda a otra, procedentes de una misma porción del terreno se adquieren respectivamente en el transcurso de estas iteraciones según diferentes direcciones de la línea de visión porque siguen diferentes posiciones del portador.
Generalmente, se asocia a la escena al menos otra banda de terreno predeterminada. En las figuras 1a y 1b, se pueden ver tres bandas de terreno distintas 4a, 4b y 4c. Entonces, el modo " step-and-stare" comprende además al menos un movimiento lateral 6 de cambio de banda de terreno, para pasar de una banda de terreno a otra banda de terreno. Las bandas de imágenes que corresponden a unas bandas de terreno distintas pueden adquirirse en paralelo. Se muestran 4 bandas de imágenes en la figura 2b: 40a, 40b, 40c, 40d.
Se detallarán ahora estas etapas. La línea de visión 3 del sensor se servocontrola de manera que:
1) le hará barrer en la ida unas bandas 4 de terreno predeterminadas. Este barrido hacia delante de la línea de visión (cuyo recorrido en el terreno puede alcanzar e incluso sobrepasar una velocidad de 1500 m/s en el caso del sensor embarcado a bordo de una aeronave) se combina además con
o una sucesión de micromovimientos locales de " step-and-stare" bidireccionales. En efecto, debido a la velocidad muy rápida de barrido por delante de la línea de visión (y de la evolución muy rápida de su realización en el terreno), es necesario introducir, en el movimiento general del barrido hacia delante, unos microbarridos " step-and-stare": microbarridos "stare" para asegurar, durante la toma de la imagen, una estabilidad de imagen y un tiempo de integración suficientes y microbarrido "step" para pasar de una imagen a otra. Se trata de efectuar el barrido "step" mediante unos saltos 5 o 7 muy rápidos entre cada adquisición de imagen (= para asegurar el paso de una imagen a otra en una misma banda 4) o unos saltos laterales 6 mayores (para pasar de una banda a otra), y posteriormente efectuar un barrido "stare" que consiste en aplicar durante la toma de la imagen un microbarrido que compense el movimiento de la línea de visión para permitir realizar unas imágenes, cada una con un tiempo de integración largo durante el que la toma de la vista se estabiliza en la banda de terreno.
Estos micromovimientos 5, 6, 7 de traslación no son todos idénticos de una imagen a la imagen siguiente; están controlados por la unidad de servocontrol. Esta debe hacer unas verificaciones para asegurar un solapamiento parcial controlado entre imágenes sucesivas en una misma banda, pero también entre imágenes adyacentes de la misma banda separadas temporalmente por un retorno de barrido lateral aplicado durante el paso de la primera banda a otras bandas de terreno y vuelta a la primera banda. Estas verificaciones consisten en medir mediante unos medios inerciales, combinados o no con el procesamiento de imágenes, la tasa de solapamiento entre las imágenes adyacentes de la misma banda y en verificar que existe un solapamiento mínimo (respetando un criterio preestablecido por el sistema) entre estas. De manera general, los micromovimientos de "step" se descomponen en una componente 5 o 6 perpendicular a la dirección del barrido hacia delante (5 es un "step" de pequeña amplitud correspondiente al paso de una imagen a la siguiente en el interior de una banda, 6 es un "step" de mayor amplitud correspondiente al paso de una banda a otra) y una componente 7 paralela a la dirección del barrido hacia delante. Los "steps" cuya componente principal es paralela a la dirección del barrido hacia delante se llaman "steps" frontales; los "steps" cuya componente principal es perpendicular a la dirección del barrido hacia delante se llaman "steps" laterales. Pueden efectuarse diferentes figuras de barrido de estos steps.
Cuando se ha de barrer una única banda, se puede realizar por ejemplo un barrido en lazadas, con una sucesión de steps 5 exclusivamente laterales (de componentes principales laterales) para recorrer la banda 40 lateralmente como se muestra en la figura 2a, seguida de un "step" 7 exclusivamente frontal (de componente principal frontal) para realizar un avance frontal de la banda, y posteriormente una sucesión de "steps" exclusivamente laterales en el sentido opuesto a los anteriores para recorrer la banda lateralmente en el otro sentido, etc. Se pueden prever por supuesto unas figuras de barrido menos simples utilizando los mismos "steps" elementales pero combinados de modo diferente.
Los micromovimientos de "stare" para compensar el movimiento de la LdV durante la toma de la imagen son igualmente movimientos de traslación bidireccionales; no se representan en las figuras. Lara incrementar la precisión en el conjunto de las imágenes, se aplica ventajosamente un micro-barrido contra-rotativo en rotación alrededor de la línea de visión entre cada movimiento de "step" y en cada toma de imagen durante la función "stare". Además de la precisión de ensamblaje, esto permite ofrecer un tiempo de integración (o de iluminación en el caso de un lidar) más largo.
o estos micromovimientos de "steps" se acompañan por unos movimientos laterales 6 adicionales y controlados de la línea de visión para pasar de una banda a otra, pudiendo ser estos movimientos cortos si las dos bandas están próximas o amplios si están alejadas. Incluso los movimientos para pasar de una banda a otra pueden descomponerse en componentes laterales y componentes frontales; pero estos movimientos 6 horizontales tienen una componente lateral generalmente mayor que su componente frontal, salvo si las dos bandas de terreno están desplazadas según el eje frontal. En la figura 2b se han representado cuatro bandas 40 (banda 40a, banda 40b, banda 40c, banda 40d) correspondientes respectivamente a cuatro bandas 4a, 4b, 4c y 4d de terreno (no representadas en esta figura). Si la escena no incluye más que una única banda, estos movimientos 6 para pasar de una banda a otra no existen.
La figura 1c ilustra una estrategia de barrido en la que se favorecen los saltos laterales (en azimut) de manera que inicialmente se recorran todas las bandas en paralelo en cualquier orden, y posteriormente unos saltos frontales en las bandas más alejadas del portador antes de volver a hacerla sobre unas bandas más próximas, esto con el fin de minimizar los saltos en lazada que pueden ser más largos de realizar que los saltos en azimut. De esta manera las bandas de terreno distintas se barren cuasi en paralelo. De manera más precisa, la figura 1c ilustra de manera más detallada 2 barridos consecutivos respectivamente efectuados desde dos posiciones P1 y P2, en dos bandas 4a y 4b de terreno próximas; en las imágenes referenciadas como 1 se indica el orden temporal de adquisición de las imágenes durante el barrido de las 2 bandas: t1, t2,..., t6. Una vez que para una banda de terreno, se ha generado una primera banda de imágenes (banda inicial) desde una posición (posición P1 en la figura para las dos bandas iniciales (banda 40a1 para la banda 4a y banda 40b1 para la banda 4b de las imágenes en trazos de puntos), una (o varias) otras bandas de imágenes de la misma banda de terreno se generarán en el transcurso de las iteraciones siguientes, obteniéndose cada una de las otras bandas a partir de otra posición del portador 2 (posición P2 en la figura para estas otras dos bandas (banda 40a2 para la banda 4a y banda 40b2 para la banda 4b de las imágenes rayadas). Esto permite adquirir varias veces unas imágenes desde un mismo punto del terreno con puntos de vista diferentes y esto para todos los puntos de la banda de terreno de anchura extendida. Las iteraciones determinan el número de veces que cada banda de terreno es recorrida.
Para cada una de las otras bandas, el procesamiento de servocontrol de la línea de visión de los barridos en esta misma banda de terreno, debe asegurar también que la imagen actual (= en curso de adquisición) proyectada en el terreno tenga una fuerte tasa de solapamiento con la imagen correspondiente de la primera banda generada. Dicho de otra manera, cada imagen de la otra banda se adquiere para una porción de la banda de terreno con una tasa de solapamiento con la imagen o las imágenes de la primera banda para la misma porción de banda de terreno. Esta tasa de solapamiento es superior a una fuerte tasa predeterminada de solapamiento, por ejemplo del 80 %. De este modo, las imágenes solapadas (según esta tasa) de una banda a otra, procedentes de la misma porción del terreno se adquieren respectivamente en el transcurso de estas iteraciones según diferentes direcciones de la línea de visión (consideradas en la referencia 3D de la escena) es decir según diferentes ángulos de visión. En efecto, para una tasa de solapamiento fijada por ejemplo en 80 %, al menos el 80 % de los puntos de la banda de terreno inicial están "repasados" durante unas adquisiciones de imágenes de cada iteración; dicho de otra manera, al menos el 80 % de los puntos de la banda de imágenes adquiridas inicialmente se encuentran en cada banda respectivamente adquirida en el curso de las iteraciones. Así por ejemplo, en la figura 1a, unos puntos de la escena abajo a la izquierda de la banda 4a, están presentes en dos imágenes 1: una toma cuando el portador 2 está en una primera posición P1 sobre su trayectoria 20, la otra toma cuando el portador está en otra posición P2. Se encuentra al mismo principio en la figura 1c, salvo que esta vez los nombres indican un ejemplo de posiciones sucesivas de la huella en el terreno de las imágenes adquiridas por el portador en la posición 2 durante el barrido de las 2 bandas iniciales, correspondiendo estas huellas sucesivas a unos instantes sucesivos t1, t2,..., t6 de adquisición de estas imágenes. Se observa que las imágenes adquiridas durante el segundo barrido pueden no corresponder a las imágenes adquiridas durante el primer barrido y superponerse, mientras garantiza un solapamiento máximo del conjunto de las imágenes en las 2 bandas iniciales. Puede sin embargo aplicarse también una rotación de la línea de visión del sensor para asegurar una alineación perfecta de las imágenes producidas. Esta rotación, si se efectúa, se realiza por servocontrol de sí misma pudiendo controlarse mediante procesamiento de imágenes. El procesamiento de las imágenes adquiridas permite generar unas bandas de imágenes extendidas vistas según diferentes ángulos de incidencia y cada banda de imágenes puede regenerarse temporalmente con el fin de que cada punto de la escena de la imagen en esta banda pueda ser visto temporalmente según diferentes direcciones. Se reitera por ejemplo hasta que la escena barrida no pueda ya ser recorrida por la línea de visión (sensor fuera de alcance o ángulo de la línea de visión sobrepasando un umbral admisible).
Se puede remarcar que un "step-and-stare" clásico que se ilustra en la figura 2a, es conocido y aplicado para barrer rápidamente el terreno lateralmente de modo continuo (con pequeños saltos frontales): genera así una banda de imágenes longitudinal extendida, pero la banda se genera una única vez mediante estos medios clásicos y es forzosamente vista según un único punto de vista (este modo de barrido se denomina "strip-map"). Difiere por tanto del barrido según la invención que genera varias bandas vistas según unos puntos de vista diferentes en una misma zona del terreno y excluye la posibilidad de cubrir varias bandas de terreno. Otro modo conocido es el del modo "spotlight" que consiste en servocontrolar la línea de visión en un mismo lugar del terreno. Aprovecha si es necesario el procesamiento de las imágenes para servocontrolar y estabilizar la línea de visión sobre un mismo entorno del terreno (el procesamiento de las imágenes correlaciona las diferentes imágenes sucesivas del sensor para mantener un punto fijo en el terreno). De donde resulta de este modo una sucesión de imágenes cuya huella en el terreno no sobrepasa el tamaño de cada imagen proyectada en el terreno. La intersección de las imágenes proyectadas define entonces la zona del terreno vista según diferentes ángulos por las diferentes imágenes sucesivas. También en este caso, Este modo difiere mucho del barrido según la invención puesto que la zona de terreno restituida está muy localizada (limitada a la intersección de las proyecciones de imágenes en el terreno) y no corresponde a una banda de terreno extendida como la aplicación que se propone. Según la invención, se generan una o varias bandas de imágenes que recorren una o varias bandas de terreno de gran extensión longitudinal, que se reiteran al menos dos veces, típicamente entre 5 y 20 veces incluso más, recorriendo la o las bandas de terreno mediante unos barridos sucesivos como se muestra en la figura 2b, lo que tiene como consecuencia que cada punto de la escena presente en unas bandas sucesivas sea visto temporalmente según diferentes direcciones de ángulos de la línea de visión del sensor. Las diferencias angulares de dirección de los ángulos de las líneas de visión del sensor en una misma porción de la zona de terreno están limitadas típicamente a un ángulo máximo de 30° de manera que puedan utilizarse más fácilmente en un procesamiento de imágenes de correspondencia para extraer las características o hacer la reconstrucción 3D. La unidad de procesamiento favorece el establecimiento de un número mínimo de puntos de vista diferentes (típicamente entre 5 a 20 vistas diferentes en una porción de imagen adquirida) con relación a la extensión de las adquisiciones sobre el terreno.
Para cada una de las otras bandas, el procesamiento de servocontrol de la línea de visión de los barridos en esta misma banda de terreno, debe así asegurar que en el seno de cada una de las otras bandas, las imágenes adyacentes solapadas lo estén preferentemente con una reducida tasa de solapamiento mínima predeterminada, para que cada una de las otras bandas de imágenes sea igualmente una banda continua, como ya se indicado para la banda inicial.
Este procesamiento de la línea de visión garantiza que las imágenes tomadas en una misma porción cualquiera de una banda de terreno en instantes y líneas de visión diferentes, están todas solapadas con una fuerte tasa de solapamiento (80 % en nuestro ejemplo). Se puede así extraer una zona de terreno común que contiene todas las imágenes y que es suficientemente grande y aprovechable para obtener en una larga extensión de terreno que corresponde a la intersección de las bandas longitudinales restituidas (cerradas o no sobre sí mismas, véanse las figuras 1a o 1b) una zona cualquiera sobre la que se pueden visualizar unas imágenes con los puntos de vista diferentes del portador que visualiza esta zona. Para una zona de terreno dada cubierta por las diferentes bandas restituidas, es muy fácil, conociendo las coordenadas geográficas de la zona elegida, extraer en las diferentes bandas las imágenes correspondientes que visualizan las zonas según los diferentes puntos de vista del portador que haya barrido esta zona. Así un mismo punto del terreno es visto varias veces en instantes diferentes y con puntos de vista diferentes.
El procesamiento de servocontrol aplicado para controlar los movimientos de la línea de visión puede realizarse según diferentes modos de realización.
Según un primer modo de realización basado en la utilización de medios inerciales, este procesamiento consiste en:
- proyectar las imágenes en el terreno utilizando los medios inerciales y calcular los solapamientos entre dos imágenes adyacentes proyectadas en el terreno cuando estas imágenes forman parte de una misma banda de imágenes (la técnica utilizada calcula por ejemplo la proyección en el terreno de la imagen actual y de la imagen adyacente para medir la transformación geométrica que existe entre estas dos imágenes proyectadas y medir su tasa de solapamiento así como su alineación efectiva),
- hacer lo mismo entre la imagen actualmente adquirida en la banda de imágenes actual (suponiendo que la banda actual proviene de un barrido de la línea de visión que sea distinto del barrido inicial) y la de o las de la banda de imágenes inicial resultado del primer barrido en la misma zona de terreno que la de la imagen actual,
- verificar que el solapamiento es inferior a la consigna (= tasa predeterminada) de visión para el reducido solapamiento entre dos imágenes de una misma banda (inferior a 10% por ejemplo) y que sea superior a la consigna relativa al gran solapamiento que debe existir entre las imágenes de otra banda con las de la banda inicial (superior al 80 % por ejemplo),
- verificar lo mismo para la alineación deseada entre imágenes,
- si el solapamiento es inferior a la consigna de visión, ralentizar el movimiento relativo de la línea de visión y acelerarla en el caso contrario (o a la inversa según que el solapamiento se realice a la izquierda en el sentido del movimiento o a la derecha, o según que se trate del solapamiento entre imágenes sobre una misma zona de terreno tomada en instantes diferentes y para un barrido diferente o del solapamiento de imágenes adyacentes en el interior de la misma banda y en el transcurso del mismo barrido),
- lo mismo para la alineación de las imágenes, corrigiéndolo si es necesario actuando sobre el movimiento rotativo de la línea de visión (cuando es posible este movimiento).
Este tipo de servocontrol es suficiente cuando las informaciones de posición angular de la línea de visión son suficientemente precisas con relación al movimiento del portador (posición absoluta de la línea de visión que tiene una reducida deriva con respecto al desplazamiento del portador) y que se tiene un conocimiento suficientemente preciso del entorno para poder calcular una proyección de la imagen en el terreno, a partir del modelo del terreno suministrado por el sistema de navegación por ejemplo. Estas condiciones se reúnen en muchas aplicaciones, por ejemplo para un vehículo terrestre que tenga un GPS y un IMU MEMS, provisto de la cámara de campo medio (típicamente 40°) que barre rápidamente la escena próxima; pero ya no es este el caso para un portador que se desplaza muy rápidamente y que tiene una cámara de muy pequeño campo barriendo una escena a una distancia muy grande con una central inercial cuyos errores de medición o de deriva angular son ampliamente superiores a la resolución del píxel de la cámara.
En el caso en el que la precisión de la información sobre la posición angular de la línea de visión y/o sobre el terreno, obtenida por los medios inerciales, sea insuficiente para permitir una proyección de las imágenes en el terreno suficientemente precisa para obtener los solapamientos y alineaciones requeridas, se emplea preferentemente un servocontrol de un segundo tipo basado en un procesamiento de imágenes:
o Correspondencia de las imágenes mediante técnicas conocidas de procesamiento de imágenes (correlación de píxeles de sub-imágenes, correspondencia de primitivas), cálculo de las transformaciones geométricas existentes entre estas imágenes a partir de las correspondencias anteriores, para medir directamente el solapamiento y la alineación de estas una vez proyectadas en el terreno. Esta correspondencia se aplica sobre unas imágenes adyacentes que proceden de un primer barrido sobre la banda de terreno, pero también sobre unas imágenes solapadas que proceden de barridos sucesivos en una misma zona de terreno.
o Medidas de las correlaciones y transformaciones geométricas entre imágenes proyectadas y las de la banda inicial para medir con precisión la posición de las imágenes proyectadas en la referencia de las bandas iniciales, restitución a partir de estas medidas de la posición angular de los movimientos de la línea de visión (relativamente y de modo absoluto si se tiene una referencia angular precisa para la primera banda).
o Utilización de la posición angular medida de la línea de visión para aplicar en consecuencia las correlaciones angulares con un eventual filtro temporal adaptado. Estas correcciones angulares tienen en cuenta la posición angular medida de la línea de visión y la que debería tener imponiendo el criterio de solapamiento "reducido" sobre las imágenes adyacentes y el criterio de solapamiento "grande" que debe existir entre imágenes solapadas obtenidas durante barridos sucesivos en la misma zona de terreno subyacente en unos instantes diferentes.
De donde resulta un posicionamiento muy fino de la línea de visión en el terreno que no se hubiera podido realizar sin la aportación del procesamiento de imágenes a pesar del hecho de que el sistema no esté dotado de medida directa suficientemente precisa de la posición angular de la línea de visión. En efecto, cuando los medios inerciales son insuficientes y el marco de la aplicación no puede contentarse con la técnica de servocontrol presentada más arriba, el procesamiento de imágenes permite garantizar de manera precisa, que un porcentaje mínimo de los puntos de cada banda de terreno elegida será revisitada por varios barridos sucesivos bajo ángulos de punto de vista y líneas de visión diferentes y las imágenes sucesivas de cada banda estarán correctamente unidas y alineadas. Como recordatorio: la línea de visión es la dirección que conecta el sensor de imágenes del portador a un punto del terreno visto por este y los ángulos de punto de vista son los ángulos de esta línea de visión en la referencia terrestre, dicho de otra manera los ángulos absolutos de la línea de visión. Por definición, estos ángulos son también los ángulos según los que un punto del terreno es visto por el sensor (y viceversa los ángulos según los que un punto del terreno "ve" el sensor).
2) Una vez que la banda 4 de terreno ha sido barrida mediante este barrido hacia delante combinado o que las bandas 4a, 4b, 4c de terreno han sido barridas en paralelo, hacer barrer la línea de visión directamente hacia atrás como se indica en la figura 2b por la flecha hacia abajo, en línea de puntos o la fecha 8 de la figura 1a, de manera que se restablezca la línea de visión en (o casi en) la posición inicial elegida en la escena, pero bajo un punto de vista diferente debido al avance del portador. Este barrido hacia atrás o contra-barrido puede ser directo es decir efectuarse en un único "step" (o salto): entonces es más rápido que el barrido hacia delante. Este contra-barrido puede también no ser directo. En efecto durante el barrido hacia atrás, se pueden realizar eventualmente operaciones de "step-and-stare" tal como se han descrito anteriormente, según la velocidad y el tiempo impartido a este. Esta posición en el terreno de la LdV, logro en este caso de este barrido posterior (= posición de vuelta) puede no coincidir exactamente con la posición en el terreno inicial de la LdV obtenida inicialmente en la primera banda: un desplazamiento, previamente fijado por el sistema y típicamente del 20 % del tamaño de la primera imagen se admite sobre todo en caso de banda desplazable como se verá más adelante. Esta posición de vuelta se determina por la unidad de procesamiento de las imágenes adquiridas hasta ese instante. La posición prevista de vuelta, lo más próxima a la posición de la línea de visión inicial en la primera banda tiene en cuenta las limitaciones prohibidas del servocontrol (llamadas limitaciones "dead-lock") y la deformación máxima permitida por el sistema para la línea de visión. Una deriva del portador puede ocasionar correcciones de servocontrol por el sistema con el fin de restaurar la línea de visión hacia el punto previsto. Un procesamiento de imágenes, si se aplica este, permite también medir precisamente la desviación angular entre la línea de visión de la imagen actual y la de la imagen inicial con el fin de corregir el servocontrol en consecuencia.
La descripción anterior se basa en un barrido hacia delante, es decir en el sentido de la trayectoria del portador y un contra-barrido en el sentido opuesto. Más generalmente se considera un barrido hacia delante y un contra-barrido de vuelta que no están forzosamente ligados a la trayectoria del portador, pero cuyo sentido se elige de tal manera que se minimicen las limitaciones de desviación de la línea de visión y para optimizar el número de idas y vueltas efectuadas por la línea de visión. Se puede adaptar así la elección del sentido de barrido a unas bandas cerradas sobre sí mismas o fuertemente inclinadas con relación a la trayectoria. Se puede tener también como barrido hacia delante un barrido según el sentido opuesto a la trayectoria (= un barrido hacia atrás), teniendo entonces como contra­ barrido, un barrido hacia delante.
Los movimientos frontales y laterales de "step-and-stare" impuestos en la línea de visión permiten barrer el número de bandas deseadas y determinar el número de veces que son recorridas así como la forma y la orientación deseadas de cada banda.
Según un caso particular ilustrado en la figura 1b, la escena terrestre forma una o varias bandas 4 que pueden ser abiertas o cerradas para adoptar por ejemplo la forma de un círculo o de un rectángulo. Pueden establecerse simultáneamente varias formas concéntricas alrededor de una forma inicial, reuniendo la idea de bandas distintas. El barrido de una banda cerrada puede hacerse en un barrido hacia delante solo repetido en bucle a todo lo largo de las bandas cerradas (en el caso de que estas rodeen el portador como es el caso en la figura 1b, el barrido en bucle de la línea de visión se realiza a todo alrededor del portador barriendo sucesivamente las diferentes bandas como se ilustra más particularmente en la figura 1c) o en barridos hacia delante y vuelta repetidos entre 2 puntos de la banda, según la elección hecha en el servocontrol. Las bandas pueden así cruzarse o tocarse en lugares.
El procedimiento propone 2 modos de barrido hacia delante y vuelta según que se desee o no maximizar el número de puntos de vista sobre el terreno.
Un primer modo de barrido y contra-barrido repetidos está adaptado a maximizar el número de puntos de vista sobre el terreno para un tamaño de banda dado. La figura 3 ilustra los movimientos de la línea de visión en el caso de barridos hacia delante y vuelta en área/capa efectuados para una escena terrestre de 10 km de longitud sobre 500 m de ancho, a partir de un POD embarcado bajo un avión que barre esta escena a 6 km de altura con una distancia lateral de la banda con relación a la vertical del POD de 8 km y una desviación angular máxima de /- 45°. En el ejemplo representado, los diferentes puntos del terreno pueden ser vistos hasta 16 veces en instantes diferentes y desde puntos de vista diferentes.
Según un segundo modo de realización, la escena terrestre forma una o varias bandas que evolucionan en el transcurso del avance del portador. Se trata por ejemplo de bandas continuas que se desarrollan según el avance del portador y que no están limitadas en el sentido de la longitud. Las bandas de imágenes que se generan se reactualizan permanentemente según diferentes puntos de vista angulares durante toda la duración del desplazamiento del portador sin discontinuidad. La longitud de la banda corresponde por tanto de alguna forma a la distancia recorrida por el portador (varias decenas o centenares de kilómetros en el caso de una aeronave).
En el caso del segundo modo en el que se desea visualizar varias bandas según diferentes puntos de vista de modo continuo, se demuestra que es suficiente tener una desviación constante en las figuras de barrido hacia delante y vuelta y convenientemente sincronizadas, se llega a la producción de bandas correspondientes a unas bandas desplazadas en el terreno (según la dirección de la trayectoria del portador) cuyos puntos se vuelven a ver sucesivamente en el tiempo según diferentes puntos de vista angulares. El número de veces que todos los puntos de la banda son vistos depende directamente de la velocidad máxima de barrido del haz en el terreno, pero será siempre menor que el primer modo de barrido y contra-barrido descrito anteriormente. En nuestro ejemplo, habrá 5 vistas angulares diferentes de cada punto del terreno sobrevolado de modo continuo.
Previamente a la implementación de este servocontrol de la LdV según la invención, se optimizan los parámetros de servocontrol en función:
- de la distancia media y de la extensión espacial de la escena a barrer,
- de las limitaciones de forma de las bandas asociadas a esta escena,
- de la tasa media deseada de solapamiento de las imágenes de varias bandas y procedentes de una misma porción de la banda de terreno a barrer y de la tasa de solapamiento medio de dos imágenes adyacentes de la misma banda,
- de la velocidad máxima y de la aceleración máxima del barrido,
- de la inclinación, del campo de visión, de la resolución del sensor y,
- del tiempo de integración necesario para captar correctamente la imagen de la escena,
para determinar:
- el tamaño de las imágenes en el terreno barridas por el sensor en un instante t,
- el desplazamiento mínimo (en step lateral y frontal) que debe efectuarse por el barrido para solapar parcialmente las diferentes imágenes entre ellas, con el fin de producir una banda de imágenes continua. Este desplazamiento se calcula en cada instante teniendo en cuenta la disposición en el terreno de 2 imágenes adyacentes actuales, pero puede también ajustarse gradualmente después de un primer barrido angular completo;
- la velocidad de barrido instantánea o la velocidad de barrido media necesaria para realizar la condición anterior y para respetar el tiempo de integración necesario así como el tiempo necesario para realizar la figura de microbarrido "step-and-stare" asociada;
- el desplazamiento angular máximo (= ángulo máximo de recorrido de la LdV) que puede realizarse que garantiza que no se sobrepasarán las limitaciones de velocidad de barrido y de aceleración máxima del sensor;
- el número máximo de barridos hacia delante y vuelta para cubrir la escena terrestre y la desviación lateral máxima que pueden realizarse;
- la tasa media de solapamiento máxima que puede efectivamente realizarse en el solapamiento de las bandas sucesivas y de la tasa media mínima de solapamiento entre imágenes adyacentes de una misma banda que es necesario solicitar.
Los barridos hacia delante se realizan a una velocidad que tiene en cuenta como se ha indicado anteriormente las diferentes limitaciones del sistema: trayectoria del portador, tamaño en el terreno de las imágenes, tiempo de integración necesario, velocidad y aceleración máximas de los servocontroles según diferentes ejes (por ejemplo área/capa que tienen forzosamente las mismas limitaciones).
Los contra-barridos (barrido completo en sentido inverso del anterior) directos se hacen a velocidad máxima, sin tener en cuenta unos tiempos de integración o unos datos del sistema vinculados a la captación de imagen (salvo si el sistema lo permite) y están vinculados únicamente a las velocidades máximas y aceleraciones máximas de los servocontroles.
Los barridos hacia delante y vuelta deben adaptarse angularmente para asegurar un barrido o contra-barrido sobre una misma porción del terreno.
El objeto de estea servocontrol es permitir crear unas bandas de imágenes contiguas o solapadas, regeneradas a intervalos temporales regulares según los puntos de vista angulares diferentes. Esto permite al operador:
- Ver diferentes elementos de la escena según unos puntos de vista diferentes. Esto permite en particular el descubrimiento de objetos que podrían estar ocultos por elementos de la escena, pero también ver diferentes facetas de un objeto de la escena para reconocerlo mejor.
- Reconstruir con unos algoritmos y programas apropiados y conocidos las estructuras en 3D de la escena y habilitar esta reconstrucción con las diferentes imágenes de las bandas que solapan estas estructuras.
- Permitir a otros algoritmos y programas restituir una orto-fotografía de acuerdo con diferentes partes de la escena y según diferentes planos. Este aspecto no se obtiene o solamente sobre una reducida extensión mediante otras técnicas de barrido.
El procedimiento puede generalizarse para el servocontrol de otros tipos de sensores (radar, lidar,...).
El procedimiento es aplicable a una aeronave como en los ejemplos presentados, pero es completamente aplicable a cualquier portador en movimiento (vehículo terrestre, barco, dron de corto o largo alcance,.).
A partir de las imágenes adquiridas según este procedimiento, se pueden concebir como aplicaciones industriales:
- unas aplicaciones SAR o lidar específicas que requieren unas pasadas con inclinaciones diferentes,
- la generación de mapas de mosaico adaptados a alta resolución en una gran extensión, comprendidos en ellos una gran distancia utilizando una óptica de reducido campo y alta resolución,
- la generación de estos mismos mapas en instantes diferentes con ángulos de presentación diferentes, lo que permite facilitar la detección de objetos de reducido contraste o parcialmente ocultos,
- la posibilidad de hacer la reconstrucción en 3D con una gran extensión espacial, con alta resolución y a gran distancia.
La presente invención se puede implementar a partir de elementos materiales y/o de software. El servocontrol de la línea de visión puede implementarse particularmente a partir de un producto de programa informático, comprendiendo este programa informático instrucciones de código que permitan efectuar las etapas del procedimiento de servocontrol. Está registrado en un soporte legible por ordenador. El soporte puede ser electrónico, magnético, óptico, electromagnético o ser un soporte de difusión de tipo infrarrojo. Dichos soportes son por ejemplo, unas memorias de semiconductor (Random Access Memory RAM, Read-Only Memory ROM), unas cintas, unos disquetes o discos magnéticos u ópticos (Compact Disk - Read Only Memory (CD-ROM), Compact Disk - Read/Write (CD-R/W) y DVD).
Ċ

Claims (18)

REIVINDICACIONES
1. Procedimiento de adquisición de imágenes de una escena terrestre predeterminada, desde un portador (2) en desplazamiento según una trayectoria (20) y equipado con un sensor óptico que tiene una línea (3) de visión, que comprende una etapa de adquisición por el sensor de imágenes (1) sucesivas de la escena en el curso del desplazamiento del portador y una etapa de servocontrol de la dirección angular de la línea de visión por una unidad de procesamiento conectada al sensor, realizándose la adquisición:
- para una primera posición (P1) del portador en su trayectoria, con un servocontrol de la dirección angular de la línea de visión que permita efectuar un barrido de una banda (4, 4a) de terreno predeterminada de la escena, llamado barrido hacia delante, combinado con un barrido en modo "step-and-stare" siendo así adquirida una banda (40, 40a1) de imágenes,
- y porque al menos se adquiere otra banda (40a2) de imágenes sobre una misma zona de terreno que la primera banda reiterando estas etapas de barrido para al menos otra posición (P2) del portador en su trayectoria, siendo adquirida cada imagen de la otra banda para una porción de banda de terreno con una tasa de solapamiento con la imagen o las imágenes de la primera banda para la misma porción de banda de terreno, superior a una gran tasa predeterminada de solapamiento, siendo así adquiridas respectivamente las imágenes que solapan una banda a otra procedentes de una misma porción del terreno en el curso de estas iteraciones según diferentes direcciones de la línea de visión,
caracterizado porque el modo "step-and-stare" que incluye unos micromovimientos de traslación llamados "steps" presenta una amplitud controlada por la unidad de procesamiento, comprende:
o al menos un "step" de componente principal perpendicular al barrido hacia delante y llamado lateral (5), combinado con
o al menos un "step" (7) de componente principal paralelo al barrido hacia delante y llamado longitudinal, o un micromovimiento de "stare" biaxial para compensar un movimiento de traslación de la línea de visión durante la adquisición de cada imagen,
y porque el servocontrol de la dirección angular de la línea de visión se realiza por procesamiento de imágenes sobre las imágenes adquiridas.
2. Procedimiento de adquisición de imágenes según la reivindicación anterior, caracterizado porque la primera posición (P1) y las posiciones (P2) sucesivas del portador que sirven de base al barrido son múltiples y descompuestas en tantas posiciones como imágenes haya durante el barrido cuando el portador se desplaza en el transcurso del barrido.
3. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque la adquisición se realiza para K posiciones del portador diferentes, estando comprendido K entre 5 y 20.
4. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque el servocontrol de la dirección angular de la línea de visión se realiza por procesamiento de las imágenes sobre las imágenes adquiridas para que en el seno de una misma banda, unas imágenes adyacentes estén alineadas con una calidad de alineación superior a una calidad predefinida.
5. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque el servocontrol de la dirección angular de la línea de visión se realiza por procesamiento de las imágenes sobre las imágenes adquiridas para que en el seno de una misma banda, unas imágenes adyacentes tengan una tasa de solapamiento superior a una reducida tasa de solapamiento predeterminada, de manera que se obtenga una banda continua.
6. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque el servocontrol de la dirección angular de la línea de visión se realiza por procesamiento de las imágenes sobre las imágenes adquiridas para que las imágenes procedentes de dos bandas sobre una misma porción de la escena estén alineadas con una calidad de alineación superior a una calidad predefinida.
7. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque el micromovimiento "stare" biaxial se asocia además a un movimiento contra-rotativo de la línea de visión (3) determinado por la unidad de procesamiento, para compensar un movimiento de rotación de la línea de visión durante la adquisición de la imagen.
8. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque al menos otra banda (4b, 4c) de terreno predeterminada se asocia a la escena y es recorrida por el barrido efectuado a partir de dichas posiciones del portador y porque el modo "step-and-stare" comprende además al menos un movimiento (6) lateral de cambio de banda de terreno, para pasar de una banda de terreno a otra banda de terreno.
9. Procedimiento de adquisición de imágenes según la reivindicación anterior, caracterizado porque el movimiento (6) lateral de cambio de banda de terreno se combina con un movimiento frontal de cambio de banda.
10. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque el barrido hacia delante se efectúa en general en el sentido de la trayectoria (20).
11. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque se efectúa un contra-barrido inverso al barrido hacia delante, llamado contra-barrido, a continuación del barrido hacia delante y antes de las reiteraciones.
12. Procedimiento de adquisición de imágenes según la reivindicación anterior, caracterizado porque el contra­ barrido es un contra-barrido (8) directo.
13. Procedimiento de adquisición de imágenes según la reivindicación 11, caracterizado porque se adquieren unas imágenes (1) durante el contra-barrido que se combina con un barrido en modo "step-and-stare" con unos micromovimientos de traslación llamados "steps" que presentan una amplitud controlada por la unidad de procesamiento para que las imágenes (1) sucesivamente adquiridas se solapen parcialmente, que comprende:
a. al menos un "step" perpendicular al contra-barrido y llamado lateral, para barrer la zona lateralmente, combinado con
b. al menos un "step" paralelo al contra-barrido y llamado step longitudinal para barrer la zona longitudinalmente, c. un micromovimiento de "stare" biaxial para compensar un movimiento de traslación de la línea de visión durante la adquisición de cada imagen.
14. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque se desarrolla al menos una banda de terreno con el avance del portador.
15. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque al menos una banda (4a, 4b) de terreno está cerrada sobre sí misma.
16. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque al menos dos bandas (4) de terreno recorridas por la línea de visión se cruzan o se tocan por sitios.
17. Procedimiento de adquisición de imágenes según una de las reivindicaciones anteriores, caracterizado porque el portador (2) es una aeronave.
18. Un producto de programa informático, comprendiendo dicho programa informático instrucciones de código que permiten efectuar las etapas del procedimiento de adquisición de imágenes según una cualquiera de las reivindicaciones 1 a 17, cuando dicho programa es ejecutado en un ordenador.
ES16801744T 2015-11-20 2016-11-18 Procedimiento de adquisición de imágenes de una escena, desde un sensor a bordo de un portador en desplazamiento, con servocontrol de su línea de visión Active ES2774080T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1502431A FR3044101B1 (fr) 2015-11-20 2015-11-20 Procede d'acquisition d'images d'une scene, a partir d'un capteur a bord d'un porteur en deplacement, avec asservissement de sa ligne de visee
PCT/EP2016/078146 WO2017085259A1 (fr) 2015-11-20 2016-11-18 Procédé d'acquisition d'images d'une scène, à partir d'un capteur à bord d'un porteur en déplacement, avec asservissement de sa ligne de visée

Publications (1)

Publication Number Publication Date
ES2774080T3 true ES2774080T3 (es) 2020-07-16

Family

ID=55971038

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16801744T Active ES2774080T3 (es) 2015-11-20 2016-11-18 Procedimiento de adquisición de imágenes de una escena, desde un sensor a bordo de un portador en desplazamiento, con servocontrol de su línea de visión

Country Status (10)

Country Link
US (1) US10616492B2 (es)
EP (1) EP3377854B1 (es)
KR (1) KR102710144B1 (es)
CN (1) CN108351208B (es)
CA (1) CA3005390C (es)
ES (1) ES2774080T3 (es)
FR (1) FR3044101B1 (es)
IL (1) IL259208B (es)
RU (1) RU2725776C2 (es)
WO (1) WO2017085259A1 (es)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10802450B2 (en) 2016-09-08 2020-10-13 Mentor Graphics Corporation Sensor event detection and fusion
CN109541595B (zh) * 2018-11-14 2022-05-20 北京遥感设备研究所 一种基于环扫雷达图像匹配的速度误差修正方法及系统
IL270565A (en) 2019-11-11 2021-05-31 Israel Aerospace Ind Ltd Image acquisition methods and systems
CN113808384B (zh) * 2020-06-16 2023-02-10 英业达科技有限公司 交通状况侦测方法
CN116449834B (zh) * 2023-03-31 2025-10-28 深圳市正浩创新科技股份有限公司 自移动设备的回充方法、自移动设备、回充装置和介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481479A (en) * 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US5557397A (en) * 1994-09-21 1996-09-17 Airborne Remote Mapping, Inc. Aircraft-based topographical data collection and processing system
FR2752619B1 (fr) * 1996-08-23 1998-11-13 Thomson Csf Procede et dispositif de reconnaissance air-sol pour equipement optronique
IL149934A (en) * 2002-05-30 2007-05-15 Rafael Advanced Defense Sys Airborne intelligence photography system
FR2884312B1 (fr) * 2005-04-08 2007-06-22 Thales Sa Systeme de designation et/ou d'illumination de cible et de reconnaissance aerienne
US8818076B2 (en) * 2005-09-01 2014-08-26 Victor Shenkar System and method for cost-effective, high-fidelity 3D-modeling of large-scale urban environments
US20070126867A1 (en) * 2005-12-02 2007-06-07 Mccutchen David High resolution surveillance camera
FR2899344B1 (fr) * 2006-04-03 2008-08-15 Eads Astrium Sas Soc Par Actio Procede de restitution de mouvements de la ligne de visee d'un instrument optique
FR2944110B1 (fr) * 2009-04-07 2013-02-15 Thales Sa Radar aeroporte de surveillance au sol multi-mode
IL198883A (en) * 2009-05-21 2015-03-31 Israel Aerospace Ind Ltd Method and system for stereoscopic scanning
FR2952743A3 (fr) * 2009-11-19 2011-05-20 Astrium Sas Procede d'estimation du mouvement d'un instrument d'observation a defilement survolant un corps celeste
IL207590A (en) * 2010-08-12 2016-11-30 Rafael Advanced Defense Systems Ltd A method and system for increasing the size of the area scanned at a given time by an airborne electro-optical photo system
RU107856U1 (ru) * 2011-05-16 2011-08-27 Государственное образовательное учреждение высшего профессионального образования "Московский государственный технический университет имени Н.Э. Баумана" (МГТУ им. Н.Э. Баумана") Подвижная автоматизированная система аэровизуального обследования территорий
RU2498378C1 (ru) * 2012-06-21 2013-11-10 Александр Николаевич Барышников Способ получения изображения земной поверхности с движущегося носителя и устройство для его осуществления
ITTO20130108A1 (it) * 2013-02-08 2014-08-09 Thales Alenia Space Italia S P A C On Unico Socio Innovativo metodo per generare immagini sar in modalita' stripmap
US9182483B2 (en) * 2013-03-15 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for random steerable SAR using compressive sensing
JP6211876B2 (ja) * 2013-10-01 2017-10-11 株式会社トプコン 測定方法及び測定装置
CN104061907B (zh) * 2014-07-16 2016-08-24 中南大学 基于步态三维轮廓匹配合成的视角大幅可变步态识别方法
CN104567815B (zh) * 2014-12-26 2017-04-19 北京航天控制仪器研究所 一种基于图像匹配的无人机载光电稳定平台自动侦察系统

Also Published As

Publication number Publication date
US20180332232A1 (en) 2018-11-15
IL259208B (en) 2021-07-29
WO2017085259A1 (fr) 2017-05-26
RU2018121631A (ru) 2019-12-25
KR20180084804A (ko) 2018-07-25
EP3377854A1 (fr) 2018-09-26
CA3005390C (en) 2024-04-02
RU2725776C2 (ru) 2020-07-06
IL259208A (en) 2018-07-31
CN108351208B (zh) 2021-05-07
FR3044101A1 (fr) 2017-05-26
KR102710144B1 (ko) 2024-09-25
EP3377854B1 (fr) 2019-12-25
FR3044101B1 (fr) 2020-04-24
CN108351208A (zh) 2018-07-31
US10616492B2 (en) 2020-04-07
CA3005390A1 (en) 2017-05-26
RU2018121631A3 (es) 2020-01-21

Similar Documents

Publication Publication Date Title
ES2774080T3 (es) Procedimiento de adquisición de imágenes de una escena, desde un sensor a bordo de un portador en desplazamiento, con servocontrol de su línea de visión
Stöcker et al. Quality assessment of combined IMU/GNSS data for direct georeferencing in the context of UAV-based mapping
CN103092210B (zh) 用于调整相对导航系统的方法
CA2975758C (en) Corridor capture
ES2885863T3 (es) Procedimiento de determinación de la dirección de un objeto a partir de una imagen del mismo
ES2778083T3 (es) Un sistema de cámara aérea
ES2662895T3 (es) Procedimiento para enfocar un haz de alta energía en un punto de referencia en la superficie de un objeto volador en vuelo
CN103038761B (zh) 自校准的远程成像和数据处理系统
US9322651B2 (en) System and method for utilizing multiple sensors
CN105444781B (zh) 星载自主引导成像地面验证方法
JP2016080572A (ja) レーザ計測システム
US10424105B2 (en) Efficient airborne oblique image collection
Lavigne et al. Step-stare technique for airborne high-resolution infrared imaging
CN110362120A (zh) 一种二维扫描宽幅成像平台扫描控制方法
ES2976759B2 (es) Procedimiento de determinacion de la velocidad de un vehiculo a partir de un cinemometro y sistema que comprende al cinemometro
Toth et al. Recovery of sensor platform trajectory from LiDAR data using reference surfaces
WO2022003215A1 (es) Método y dispositivo para obtener modelos de representación de elementos estructurales
Gelbart et al. Signal processing, image registration, and visualization of FLASH lidar data
Bobbe et al. 6D SLAM MAV using a rotating LiDAR
RU2012146963A (ru) Способ наведения летательных аппаратов на наземные объекты