[go: up one dir, main page]

FR2847699A1 - Vehicule autonome, et procede et appareil pour estimer son mouvement et detecter une information tridimensionnelle d'un objet apparaissant devant lui - Google Patents

Vehicule autonome, et procede et appareil pour estimer son mouvement et detecter une information tridimensionnelle d'un objet apparaissant devant lui Download PDF

Info

Publication number
FR2847699A1
FR2847699A1 FR0306170A FR0306170A FR2847699A1 FR 2847699 A1 FR2847699 A1 FR 2847699A1 FR 0306170 A FR0306170 A FR 0306170A FR 0306170 A FR0306170 A FR 0306170A FR 2847699 A1 FR2847699 A1 FR 2847699A1
Authority
FR
France
Prior art keywords
autonomous vehicle
information
orientation
movement
vehicle according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0306170A
Other languages
English (en)
Other versions
FR2847699B1 (fr
Inventor
Kyoung Sig Roh
Young Son
Joo Young Kwak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of FR2847699A1 publication Critical patent/FR2847699A1/fr
Application granted granted Critical
Publication of FR2847699B1 publication Critical patent/FR2847699B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Un véhicule autonome (100) mesure son orientation en utilisant un capteur d'accélération (131) et un capteur de flux magnétique (132), et extrait une information géométrique épipolaire en utilisant l'information d'orientation mesurée. Du fait que les points correspondants entre des images nécessaires pour extraire l'information géométrique épipolaire peuvent être réduits à deux, il est possible d'obtenir plus aisément et correctement une information de mouvement du véhicule autonome et une information tridimensionnelle d'un objet se trouvant devant le véhicule autonome.

Description

La présente invention concerne la détection et la poursuite d'un objet en
utilisant un système de traitement d'image embarqué dans un système automatique ou un système de véhicule intelligent. La présente invention concerne plus particulièrement un véhicule autonome, et de façon plus spécifique un appareil et un procédé pour estimer le mouvement d'un véhicule autonome tel qu'un robot mobile et détecter une information tridimensionnelle (3D) d'un objet
apparaissant devant le véhicule autonome en mouvement.
A l'heure actuelle, avec le développement constant de l'intérêt porté aux robots, diverses sortes de robots sont proposées et développées de façon active. Bien que les robots soient fabriqués pour de nombreuses applications, la commande de mouvement est une exigence pour toute application de robotique. En particulier, pour commander de façon précise le mouvement d'un véhicule autonome tel qu'un robot mobile, il est nécessaire d'avoir non seulement une information concernant le mouvement du véhicule autonome lui-même, pour une prévision de chemin et une localisation exactes du véhicule autonome, mais également une information tridimensionnelle (3D) d'un objet, par exemple un obstacle, en ce qui concerne une distance entre le véhicule autonome et l'objet, une forme tridimensionnelle de l'objet, etc., pour permettre au véhicule autonome
d'éviter l'obstacle apparaissant devant lui.
Il a été proposé une variété de procédés pour estimer le mouvement d'un véhicule autonome et obtenir une information 3D concernant un objet apparaissant devant le véhicule autonome en mouvement. Habituellement, cette information 3D est extraite d'une image bidimensionnelle (2D) obtenue par l'intermédiaire d'une caméra. Cependant, les procédés qui extraient une information 3D d'une image 2D ont fondamentalement des restrictions dans l'obtention
d'une information géométrique épipolaire correcte.
Pour résoudre le problème décrit ci-dessus, le brevet des E.U.A. nO 6 430 304 délivré à Hanna et al. le 6 aot 2002 et intitulé "Method and Apparatus for Processing Images to Compute Image Flow Information", le brevet des E.U.A. nO 6 421 961 délivré à Hicks le 2 juillet 2002, et intitulé "Rectifying Mirror", le brevet des E.U.A. n0 6 393 144 délivré à Rogina et al. le 21 mai 2002 et intitulé "Image Transformation and Synthesis Methods", ou autres, proposent des procédés pour calculer de façon plus exacte une information géométrique épipolaire en éliminant du bruit. Cependant, malgré le fait qu'une information géométrique épipolaire plus exacte puisse être obtenue, il demeure nécessaire de considérer de nombreuses hypothèses et restrictions dans le calcul du mouvement d'un véhicule autonome tel qu'un robot mobile, et par conséquent il y a encore de nombreuses restrictions lorsqu'on applique ces
procédés classiques.
La présente invention procure un appareil et un procédé pour obtenir de façon plus exacte et plus simple une information de mouvement d'un véhicule autonome luimême, ainsi qu'une information tridimensionnelle concernant un objet qui existe dans un chemin de déplacement du
véhicule autonome.
Selon un aspect de la présente invention, celle-ci procure un véhicule autonome incluant une unité de détection de points correspondants pour obtenir une information concernant des points correspondants entre des images provenant d'au moins deux images obtenues par une caméra; une unité de mesure d'orientation pour calculer une information d'orientation du véhicule autonome; une unité de calcul épipolaire pour calculer une information géométrique épipolaire sur la base de l'information d'orientation et de l'information concernant des points correspondants; une unité d'analyse de mouvement pour analyser le mouvement du véhicule autonome sur la base de l'information géométrique épipolaire calculée; et une unité d'analyse d'information tridimensionnelle (3D) pour analyser une information 3D d'un objet qui se trouve devant le véhicule autonome, sur la base de l'information
géométrique épipolaire calculée.
Selon un autre aspect de la présente invention, celle-ci procure un appareil pour estimer le mouvement d'un véhicule autonome, qui comprend une unité de détection de points correspondants pour obtenir une information concernant des points correspondants entre des images provenant d'au moins deux images obtenues par une caméra; une unité de mesure d'orientation pour calculer une information d'orientation du véhicule autonome; une unité de calcul épipolaire pour calculer une information géométrique épipolaire sur la base de l'information d'orientation et de l'information concernant des points correspondants; et une unité d'analyse de mouvement pour analyser le mouvement du véhicule autonome sur la base de
l'information géométrique épipolaire calculée.
Selon un autre aspect de la présente invention, celle-ci procure un appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome, qui comprend une unité de détection de points correspondants pour obtenir une information concernant des points correspondants entre des images provenant d'au moins deux images obtenues par une caméra; une unité de mesure d'orientation pour calculer une information d'orientation du véhicule autonome; une unité de calcul épipolaire pour calculer une information géométrique épipolaire sur la base de l'information d'orientation et de l'information concernant des points correspondants; et une unité d'analyse d'information 3D pour analyser une information 3D de l'objet se trouvant devant le véhicule autonome, sur la base de l'information
géométrique épipolaire calculée.
Selon un autre aspect de la présente invention, celle-ci procure un procédé pour commander le mouvement d'un véhicule autonome, qui comprend les étapes suivantes (a) on obtient une information concernant des points correspondants entre des images provenant d'au moins deux images obtenues par une caméra; (b) on calcule une information d'orientation du véhicule autonome; (c) on calcule une information géométrique épipolaire sur la base de l'information d'orientation et de l'information concernant des points correspondants; (d) on analyse le mouvement du véhicule autonome sur la base de l'information géométrique épipolaire calculée; et (e) on analyse une information tridimensionnelle d'un objet qui se trouve devant le véhicule autonome sur la base de l'information
géométrique épipolaire calculée.
Selon un autre aspect de la présente invention, celle-ci procure un procédé pour estimer le mouvement d'un véhicule autonome, qui comprend les étapes suivantes: (a) on obtient une information concernant des points correspondants entre des images provenant d'au moins deux images obtenues par une caméra; (b) on calcule une information d'orientation du véhicule autonome; (c) on calcule une information géométrique épipolaire sur la base de l'information d'orientation et de l'information concernant des points correspondants; et (d) on analyse le mouvement du véhicule autonome sur la base de l'information
géométrique épipolaire calculée.
Selon un autre aspect de la présente invention, celle-ci procure un procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome, qui comprend les étapes suivantes: (a) on obtient une information concernant des points correspondants entre des images provenant d'au moins deux images obtenues par une caméra; (b) on calcule une information d'orientation du véhicule autonome; (c) on calcule une information géométrique épipolaire sur la base de l'information d'orientation et de l'information concernant des points correspondants; et (d) on analyse une information 3D de l'objet se trouvant devant le véhicule autonome sur la base de l'information géométrique
épipolaire calculée.
D'autres caractéristiques et avantages de l'invention seront mieux compris à la lecture de la
description qui va suivre de modes de réalisation préférés,
donnés à titre d'exemples non limitatifs. La suite de la
description se réfère aux dessins annexés, dans lesquels:
La figure 1 est un schéma synoptique d'un véhicule autonome incorporant un système pour estimer le mouvement du véhicule autonome et détecter une information tridimensionnelle d'un objet se trouvant devant le véhicule autonome, conforme à un mode de réalisation préféré de la présente invention; la figure 2 illustre des configurations géométriques épipolaires de deux images obtenues de façon consécutive par la caméra représentée sur la figure 1; la figure 3 illustre une disposition des capteurs inclus dans l'unité de mesure d'orientation représentée sur la figure 1, et les coordonnées des capteurs; la figure 4 illustre les angles d'Euler correspondant aux coordonnées de la caméra représentée sur la figure 1; la figure 5 illustre la relation entre les coordonnées fixes, liées au sol, et les coordonnées des capteurs représentés sur la figure 1; la figure 6 est un organigramme d'un procédé pour estimer le mouvement d'un véhicule autonome et pour détecter une information tridimensionnelle d'un objet se trouvant devant le véhicule autonome, conforme à un mode de réalisation préféré de la présente invention; et les figures 7a à 7c sont des illustrations photographiques montrant des points correspondants et une information géométrique épipolaire obtenus par un système pour détecter une information tridimensionnelle d'un objet se trouvant devant un véhicule autonome, conforme à la
présente invention.
La figure 1 est un schéma synoptique d'un véhicule autonome 100 incorporant un système pour estimer le mouvement du véhicule autonome et détecter une information tridimensionnelle d'un objet se trouvant devant le véhicule autonome, conforme à un mode de réalisation préféré de la présente invention. En se référant à la figure 1, on note que le véhicule autonome 100 comprend une caméra 110, une unité de traitement d'image 120, une unité de mesure d'orientation 130, une unité de commande principale 140 et
une unité de commande de mouvement 150.
La caméra 110 est fixée sur le véhicule autonome et obtient continuellement des images de la région située devant le véhicule autonome 100, avec une cadence d'images prédéterminée. Bien que ceci ne soit pas représenté sur la figure 1, on suppose que la caméra 110 et
le véhicule autonome 100 ont les mêmes coordonnées.
L'unité de traitement d'image 120 est connectée à la caméra 110 et remplit la fonction d'un dispositif de capture d'images pour capturer des images d'entrée en un format d'image prédéterminé. Les images traitées au passage par l'unité de traitement d'image 120 sont fournies à l'unité de commande principale 140 pour analyser le mouvement du véhicule autonome 100 et une information tridimensionnelle (3D) d'un objet se trouvant devant le véhicule autonome 100. Bien qu'une seule caméra 110 soit représentée sur la figure 1, de façon que le véhicule autonome 100 puisse être réalisé avec une structure simple et de façon peu coteuse, on notera qu'il est possible d'utiliser une caméra stéréoscopique pour obtenir deux
images en même temps, ou au moins deux caméras.
L'unité de mesure d'orientation 130 mesure l'orientation du véhicule autonome 100. Dans ce but, l'unité de mesure d'orientation comprend un capteur d'accélération 131, pour détecter l'accélération du véhicule autonome 100, et un capteur de flux magnétique 132. Ici, le capteur d'accélération 131 est également utilisé pour mesurer la gravité, tandis que le capteur de flux magnétique 132 est utilisé pour mesurer le magnétisme terrestre. L'unité de mesure d'orientation 130 calcule une information d'orientation du véhicule autonome 100 par rapport aux coordonnées terrestres fixes, en utilisant les valeurs absolues des valeurs obtenues par le capteur
d'accélération 131 et le capteur de flux magnétique 132.
L'unité de commande principale 140 commande le fonctionnement d'ensemble du véhicule autonome 100. Ainsi, l'unité de commande principale 140 analyse le mouvement du véhicule autonome 100 et une information 3D d'un objet se trouvant devant le véhicule autonome 100, pour commander efficacement le véhicule autonome 100. Dans ce but, l'unité de commande principale 140 comprend une unité de détection de points correspondants 141, une unité de calcul épipolaire 142, une unité d'analyse de mouvement 143 et une
unité d'analyse d'information 3D 144.
L'unité de détection de points correspondants 141 détecte des points correspondants placés dans l'environnement à partir de deux images consécutives obtenues par la caméra 110, à une cadence d'images prédéterminée. L'unité de calcul épipolaire 142 calcule une information géométrique épipolaire sur la base de l'information d'orientation R du véhicule autonome 100 fournie par l'unité de mesure d'orientation 130, et de l'information de points correspondants fournie par l'unité de détection de points correspondants 141. Sur la base de l'information géométrique épipolaire calculée par l'unité de calcul épipolaire 142, l'unité d'analyse de mouvement 143 analyse le mouvement du véhicule autonome 100. En outre, sur la base de l'information géométrique épipolaire calculée par l'unité de calcul épipolaire 142, l'unité d'analyse d'information 3D 144 analyse l'information 3D d'un objet apparaissant devant le véhicule autonome 100 en mouvement, c'est-à-dire une information concernant une distance entre le véhicule autonome 100 et l'objet, une information sur une forme 3D de l'objet, etc. L'unité de commande de mouvement 150 commande le mouvement du véhicule autonome 100 en réponse à une instruction de commande
provenant de l'unité de commande principale 140.
La figure 2 illustre des configurations géométriques épipolaires de deux images obtenues consécutivement au moyen de la caméra 110 représentée sur la figure 1. Ainsi, en référence à la figure 2, on voit deux images obtenues consécutivement au moyen de la caméra représentée sur la figure 1, à une cadence d'images prédéterminée. On notera que sauf si le véhicule autonome s'arrête, les deux images obtenues au moyen de la
caméra 110 sont à deux emplacements différents.
En se référant à nouveau à la figure 2, on note que des systèmes de coordonnées centrés au milieu de l'objectif de la caméra 110 placée aux deux emplacements différents sont définis de la façon suivante: C1 = (X1, Y1, Z1) et C2 = (X2, Y2, Z2)... (1) En relation avec les systèmes de coordonnées définis ci-dessus, les plans images projetés sont définis de la façon suivante U, = (ul, v1, f) et U2 = (u2, v2, f)... (2) avec les notations suivantes: UL est un point image projeté sur une image précédente, U2 est un point image projeté sur une image suivante, u et v sont des coordonnées x et y des plans images correspondants, et f est une
distance focale de la caméra.
La relation entre la caméra 100 à un emplacement et celle à l'autre emplacement est définie par la relation suivante: X2 = R12 (Xl - T1)... (3) dans laquelle R12 représente une information d'orientation entre deux images, et T1 représente une information de
translation par rapport à l'image précédente.
La relation entre le système de coordonnées de la caméra 110 et celui des images par rapport à un point arbitraire j, peut être représentée de la façon suivante U__ f Xlj et U2j fX2j (4) Jij z2j Pour simplifier l'Equation (4), on définit une matrice arbitraire Q de la façon suivante Q = RS, et
0 T3 -T2
S= -T3 0 Tl... (5)
T2 - TI O
avec les notations suivantes R est une matrice de rotation et S est un vecteur de translation dans une représentation matricielle. La relation Q entre le système de coordonnées de la caméra 110 et celui des images est déterminée par la multiplication de la matrice de rotation R par le vecteur de translation S. L'Equation (5) peut être généralisée de la façon suivante: Siv = FîvaTa... (6) Ici, si les valeurs de (k, v, à) ne sont pas une
permutation de (1, 2, 3), SXv est égal à zéro.
En utilisant les équations ci-dessus, on peut obtenir XTQ12X2 de la façon suivante = [Rk (Xk - Tk)]T Rlk__2_Tc5X2 = (Xx - T) **-(7)
Ici, du fait que Egva a une caractéristique anti-
symétrique, on peut obtenir l'équation suivante: X2TQ12Xl = (8) L'Equation (8) peut être représentée de la façon suivante: -x2 -T- [q Y2 q2l Z2 - -q31 q,2 q,3 XlI q22 q23 YI = O q32 q33_ Lz, j
*-- (9)
i façon L'Equation (9) suivante: peut être arrangée de lU XIX2 1X2 ZYX2 X1Y2 YI Y2 ZxY2 X1Z2 Y1Z2 1ZZ2 T q11 q12 q13 q21 q22 q23 q31 q32 _q33 _ =O (10) Si q33 est égal à 1 dans l'Equation (10), et l'Equation (4) représentant la relation entre la caméra 110 et les images est appliquée à l'Equation (10), l'Equation (10) peut alors être exprimée de la façon suivante: u1u2 v1u2 fU2 ulv2 fV2 f 1 fri- T q1j q12 q13 q21 q22 q23 q31 q32 - =0 (11) 1l Comme il ressort de 1'Equation (11), une information portant sur au moins huit points correspondants est exigée pour obtenir l'information géométrique épipolaire. Cependant, pour obtenir huit points correspondants à partir d'un plan image et pour sélectionner et utiliser leur information de façon appropriée, il est nécessaire de respecter de nombreuses restrictions géométriques épipolaires. En outre, pour extraire séparément les composantes de la matrice de rotation R et du vecteur de translation S, à partir de l'information géométrique épipolaire, de nombreuses restrictions et hypothèses sont exigées. Par conséquent, conformément à la présente invention, on calcule l'information géométrique épipolaire, la matrice de rotation R et le vecteur de translation S en utilisant les composantes de la matrice de rotation mesurées par l'unité de mesure d'orientation 130, au lieu d'extraire l'information géométrique épipolaire et la matrice de rotation R en utilisant des équations mathématiques telles
que l'Equation (11).
La figure 3 illustre une disposition des capteurs inclus dans l'unité de mesure d'orientation représentée sur la figure 1, et les coordonnées des capteurs. La figure 4 illustre les angles d'Euler correspondant aux coordonnées de la caméra représentée sur la figure 1, et la figure 5 illustre la relation entre les coordonnées fixes liées au sol et les coordonnées des capteurs représentés sur la figure 1. On décrira en référence aux figures 3 à 5 un procédé conforme à la présente invention pour mesurer
l'orientation du véhicule autonome 100.
Comme décrit ci-dessus en référence à la figure 1, l'unité de mesure d'orientation 130 comprend un capteur d'accélération 131 et un capteur de flux magnétique 132. En référence aux figures 3 à 5, on note que le capteur d'accélération 131 détecte et calcule un angle 4 autour de l'axe z, c'est-à-dire l'angle entre le plan x-y du véhicule autonome 100 et le plan x-y du système de coordonnées fixe lié au sol (le système de coordonnées absolues), conformément à l'équation suivante
0 = rI1a2 + i2ay + 13a.
0 = r2la, + r2ay + r2,aa... (12)
-G= r3,a.,+r,2ay+ r,,a.
Dans l'Equation (12) ci-dessus, rij est un élément de la matrice de rotation R, et la matrice de rotation R peut être représentée de la façon suivante [cXbc9 cçXs9sç-sçXc cçSsOcqp+sçzsfp R= sbsO sbs6sço+cbcço s s0c9cçsçp..I(13) L -5sO C.S O COCcO De façon similaire, le capteur de flux magnétique 132 calcule un angle p autour de l'axe x, c'est-à-dire l'angle entre le plan y-z du véhicule autonome 100 et le plan y-z du système de coordonnées fixe lié au sol, conformément à l'équation suivante:
M = r,1m.+ r12mY + r3m.
O = r2Im, + r22mY + r23m2 O = r31M. + r32MY + r3,M.... (14) Dans le cas de la mesure de la matrice de rotation R en utilisant l'Equation (14) et l'angle d'Euler comme représenté sur la figure 14, l'information géométrique épipolaire peut être représentée simplement de la façon suivante: Q12U2 = UrRI2SU2=...0(15) Si l'on suppose que la matrice de rotation R12 est connue dans l'Equation (15), on peut obtenir l'équation suivante
UR12SU2 = USU2=0...=(16)
D'après l'Equation (16), on voit que UT=-UrRR2, et l'Equation (16) peut être écrite de la façon suivante USU2.4vIjT T2][U2] UiTSU2 VI [v l3 TI;] v] =0o f v-f2 1FT fVI - fV2 TI UTSU2= u1 -fU2 IlT2 = ... (17) UIV2-vIu2 jTj Si T3 est égal à 1 dans 1'Equation (17), on peut obtenir l'équation suivante fVu][T1= rUM-VIU2]...(18) Comme il ressort de l'Equation (18), conformément à la présente invention, il est possible d'obtenir correctement l'information géométrique épipolaire en utilisant au moins deux points correspondants. En comparaison avec ceci, on note que les procédés classiques exigent au moins huit points correspondants. Ainsi, il est possible de résoudre plus simplement les problèmes de configuration géométrique épipolaire qui ont été difficilement résolus et qui sont sujets à de nombreuses restrictions. En particulier, du fait qu'au moins deux points correspondants sont exigés conformément à la présente invention, il est possible d'obtenir une information géométrique épipolaire en utilisant des procédés plus variés et vérifiés. De ce fait, les points correspondants peuvent être mesurés de façon plus exacte, et par conséquent il est possible d'analyser plus simplement et plus exactement le mouvement d'un véhicule autonome et une information 3D d'un objet se trouvant devant le véhicule autonome. La figure 6 est un organigramme d'un procédé pour estimer le mouvement d'un véhicule autonome et détecter une information tridimensionnelle d'un objet se trouvant devant le véhicule autonome, conforme à un mode de réalisation préféré de la présente invention. En premier lieu, deux images consécutives sont obtenues au moyen de la caméra 110 (ETAPE 1100). A moins que le véhicule autonome 100 s'arrête, les deux images sont obtenues à deux emplacements différents. Lorsque les deux images consécutives sont obtenues à l'ETAPE 1100, l'unité de mesure d'orientation 130 détecte les directions de la gravité et du magnétisme terrestre en utilisant respectivement le capteur d'accélération 131 et le capteur de flux magnétique 132, et elle calcule l'orientation du véhicule autonome 100 par rapport au système de coordonnées fixe lié au sol, en utilisant les valeurs absolues des valeurs détectées par les capteurs
respectifs (ETAPE 1300).
Ensuite, l'unité de détection de points correspondants incluse dans l'unité de commande principale extrait au moins deux points correspondants des deux
images consécutives obtenues à l'ETAPE 1100 (ETAPE 1410).
Ensuite, l'unité de calcul épipolaire 142 calcule une information géométrique épipolaire sur la base de la matrice de rotation R du véhicule autonome 100, fournie par l'unité de mesure d'orientation 130, et de l'information de points correspondants extraite par l'unité de détection de
points correspondants 141 (ETAPE 1420).
Les figures 7a à 7c sont des illustrations photographiques montrant des points correspondants et une information géométrique épipolaire obtenus par un système pour détecter une information 3D d'un objet se trouvant devant un véhicule autonome, conforme à la présente invention. Plus spécifiquement, la figure 7a montre les résultats d'extraction des points correspondants à partir de deux images consécutives, et la figure 7B montre les résultats d'extraction d'une information géométrique épipolaire des points correspondants représentés sur la figure 7a. En outre, la figure 7c montre les résultats de l'élimination de points aberrants dans les images représentées sur la figure 7b. Comme il ressort des figures 7a à 7c, conformément à la présente invention, l'information géométrique épipolaire peut être obtenue de manière exacte en utilisant seulement deux points correspondants, sans aucun effet négatif d à diverses restrictions dans le calcul de l'information géométrique épipolaire. Il est donc possible d'analyser plus exactement le mouvement d'un véhicule autonome et une information 3D concernant un objet se trouvant devant le véhicule autonome. En se référant à nouveau à la figure 6, on note qu'après que l'information géométrique épipolaire a été calculée à l'ETAPE 1420, l'unité d'analyse de mouvement 143 analyse le mouvement du véhicule autonome 100 sur la base de l'information géométrique épipolaire (ETAPE 1430), et l'unité d'analyse d'information 3D 244 analyse l'information 3D d'un objet se trouvant devant le véhicule
autonome 100 (ETAPE 1440).
Comme décrit ci-dessus, conformément à la présente invention, il est possible d'obtenir correctement l'information géométrique épipolaire à partir de deux points correspondants seulement, et de résoudre plus simplement les problèmes de configuration géométrique épipolaire qui sont difficiles à résoudre en utilisant des procédés classiques. En outre, il est possible d'analyser plus simplement et plus exactement le mouvement d'un véhicule autonome et une information 3D d'un objet se trouvant devant le véhicule autonome, en utilisant une information portant seulement sur deux points correspondants. La présente invention peut être mise en oeuvre sous la forme d'un code lisible par ordinateur, se trouvant sur
un support d'enregistrement et exécuté sur un ordinateur.
Le support d'enregistrement peut inclure n'importe quelle sorte de dispositifs d'enregistrement dans lesquels des données sont stockées. Des exemples du support d'enregistrement comprennent une mémoire morte, une mémoire vive, un CD-ROM, une bande magnétique, des disques durs, des disquettes, une mémoire flash, des dispositifs de stockage de données optiques et même une onde porteuse, par exemple une transmission sur l'Internet. En outre, le support d'enregistrement peut être réparti parmi des systèmes informatiques qui sont interconnectés par un réseau, et la présente invention peut être stockée et mise
en oeuvre sous la forme d'un code de calcul dans le réseau.
Il va de soi que de nombreuses modifications peuvent être apportées au dispositif et au procédé décrits
et représentés, sans sortir du cadre de l'invention.

Claims (47)

REVENDICATIONS
1. Véhicule autonome, caractérisé en ce qu'il comprend: une unité de détection de points correspondants (141) pour détecter des points correspondants à partir d'au moins deux images consécutives obtenues au moyen d'une caméra (110); une unité de mesure d'orientation (130) pour calculer une information d'orientation du véhicule autonome (100); une unité de calcul épipolaire (142) pour calculer une information géométrique épipolaire sur la base de l'information d'orientation et de l'information concernant des points correspondants; une unité d'analyse de mouvement (143) pour analyser le mouvement du véhicule autonome (100) sur la base de l'information géométrique épipolaire calculée; et une unité d'analyse d'information tridimensionnelle (3D) (144) pour analyser une information 3D d'un objet se trouvant devant le véhicule autonome (100), sur la base de l'information géométrique épipolaire calculée.
2. Véhicule autonome selon la revendication 1, caractérisé en ce que la caméra (110) a les mêmes axes de
coordonnées que le véhicule autonome (100).
3. Véhicule autonome selon la revendication 1, caractérisé en ce que les images sont obtenues au moyen d'une seule caméra (110), à une cadence d'images
prédéterminée.
4. Véhicule autonome selon la revendication 1, caractérisé en ce que des images sont obtenues simultanément au moyen d'une caméra stéréoscopique ou au
moins par deux caméras, ou plus.
5. Véhicule autonome selon la revendication 1, caractérisé en ce que l'unité de mesure d'orientation (130) comprend un capteur d'accélération (131) pour mesurer la gravité et un capteur de flux magnétique (132) pour mesurer le magnétisme terrestre, et en ce que l'information d'orientation du véhicule autonome (100) est calculée par rapport à un système de coordonnées fixe lié au sol en utilisant les valeurs absolues des valeurs obtenues au moyen du capteur d'accélération (131) et du capteur de flux
magnétique (132).
6. Véhicule autonome selon la revendication 1, caractérisé en ce que l'unité de calcul épipolaire (142) calcule l'information géométrique épipolaire sur la base de l'information d'orientation calculée par l'unité de mesure d'orientation (130) et de l'information concernant au moins
deux points correspondants.
7. Véhicule autonome selon la revendication 6, caractérisé en ce que l'information géométrique épipolaire est calculée conformément aux équations suivantes, s'il est possible de mesurer une matrice exprimant l'orientation du véhicule autonome (100) en relation avec deux images consécutives quelconques: f-l fU2 j[T2] avec les notations suivantes: f est une distance focale de la caméra, T1 et T2 sont des éléments de vecteur de translation représentant une information de translation entre les deux images consécutives, ul et v1 sont des coordonnées x et y sur un plan de l'image obtenue antérieurement parmi les deux images consécutives, et u2 et V2 sont des coordonnées x et y sur un plan de l'image
obtenue postérieurement parmi les deux images consécutives.
8. Véhicule autonome selon la revendication 1, caractérisé en ce que l'information 3D de l'objet situé devant le véhicule autonome (100) comprend une information concernant une distance entre le véhicule autonome (100) et l'objet, et une information concernant une forme 3D de l'objet.
9. Appareil pour estimer le mouvement d'un véhicule autonome, caractérisé en ce qu'il comprend: une unité de détection de points correspondants (141) pour détecter des points correspondants à partir d'au moins deux images consécutives obtenues au moyen d'une caméra (110); une unité de mesure d'orientation (130) pour calculer une information d'orientation du véhicule autonome (100); une unité de calcul épipolaire (142) pour calculer une information géométrique épipolaire sur la base de l'information d'orientation et de l'information sur des points correspondants; et une unité d'analyse de mouvement (143) pour analyser le mouvement du véhicule autonome (100) sur la base de l'information géométrique épipolaire
calculée.
10. Appareil pour estimer le mouvement d'un véhicule autonome selon la revendication 9, caractérisé en ce que la caméra (110) a les mêmes axes de coordonnées que
le véhicule autonome (100).
11. Appareil pour estimer le mouvement d'un véhicule autonome selon la revendication 9, caractérisé en ce que les images sont obtenues au moyen d'une seule caméra
(110) à une cadence d'images prédéterminée.
12. Appareil pour estimer le mouvement d'un véhicule autonome selon la revendication 9, caractérisé en ce que des images sont obtenues simultanément par une caméra stéréoscopique ou au moins par deux caméras, ou plus.
13. Appareil pour estimer le mouvement d'un véhicule autonome selon la revendication 9, caractérisé en ce que l'unité de mesure d'orientation (130) comprend un capteur d'accélération (131) pour mesurer la gravité et un capteur de flux magnétique (132) pour mesurer le magnétisme terrestre, et en ce que l'information d'orientation du véhicule autonome (100) est calculée par rapport à un système de coordonnées fixe lié au sol, en utilisant les valeurs absolues des valeurs obtenues au moyen du capteur d'accélération (131) et du capteur de flux magnétique
(132).
14. Appareil pour estimer le mouvement d'un véhicule autonome selon la revendication 9, caractérisé en ce que l'unité de calcul épipolaire (142) calcule l'information géométrique épipolaire sur la base de l'information d'orientation calculée par l'unité de mesure d'orientation (130) et de l'information concernant au moins deux points correspondants.
15. Appareil pour estimer le mouvement d'un véhicule autonome selon la revendication 14, caractérisé en ce que l'information géométrique épipolaire est calculée conformément aux équations suivantes, s'il est possible de mesurer une matrice exprimant l'orientation du véhicule autonome (100) en relation avec deux images consécutives quelconques: fu fu2 J[T2] 12V1U2] avec les notations suivantes: f est une distance focale de la caméra, T1 et T2 sont des éléments de vecteur de translation représentant une information de translation entre les deux images consécutives, u1 et v1 sont des coordonnées x et y sur un plan de l'image obtenue antérieurement parmi les deux images consécutives, et u2 et v2 sont des coordonnées x et y sur un plan de l'image
obtenue postérieurement parmi les deux images consécutives.
16. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome, caractérisé en ce qu'il comprend: une unité de détection de points correspondants (141) pour détecter des points correspondants à partir d'au moins deux images consécutives obtenues au moyen d'une caméra (110); une unité de mesure d'orientation (130) pour calculer une information d'orientation du véhicule autonome (100); une unité de calcul épipolaire (142) pour calculer une information géométrique épipolaire sur la base de l'information d'orientation et de l'information sur des points correspondants; et une unité d'analyse d'information 3D (144) pour analyser une information 3D de l'objet se trouvant devant le véhicule autonome (100), sur la base de
l'information géométrique épipolaire calculée.
17. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 16, caractérisé en ce que la caméra (110) a les mêmes axes de coordonnées que
le véhicule autonome (100).
18. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 16, caractérisé en ce que les images sont obtenues au moyen d'une seule caméra
(110) à une cadence d'images prédéterminée.
19. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 16, caractérisé en ce que des images sont obtenues simultanément par une caméra stéréoscopique ou au moins par deux caméras, ou plus.
20. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 16, caractérisé en ce que l'unité de mesure d'orientation (130) comprend un capteur d'accélération (131) pour mesurer la gravité et un capteur de flux magnétique (132) pour mesurer le magnétisme terrestre, et en ce que l'information d'orientation du véhicule autonome (100) est calculée par rapport à un système de coordonnées fixe lié au sol, en utilisant les valeurs absolues des valeurs obtenues au moyen du capteur d'accélération (131) et du capteur de flux magnétique
(132).
21. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 16, caractérisé en ce que l'unité de calcul épipolaire (142) calcule l'information géométrique épipolaire sur la base de l'information d'orientation calculée par l'unité de mesure d'orientation (130) et de l'information concernant au moins
deux points correspondants.
22. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 21, caractérisé en ce que l'information géométrique épipolaire est calculée conformément aux équations suivantes, s'il est possible de mesurer une matrice exprimant l'orientation du véhicule autonome (100) en relation avec deux images consécutives quelconques: [ 7 fv-fV2 TI =riV2-I2 fu -fu2 [T2] j avec les notations suivantes: f est une distance focale de la caméra, T1 et T2 sont des éléments de vecteur de translation représentant une information de translation entre les deux images consécutives, u1 et v1 sont des coordonnées x et y sur un plan de l'image obtenue antérieurement parmi les deux images consécutives, et u2 et v2 sont des coordonnées x et y sur un plan de l'image
obtenue postérieurement parmi les deux images consécutives.
23. Appareil pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 16, caractérisé en ce que l'information 3D de l'objet situé devant le véhicule autonome (100) comprend une information concernant une distance entre le véhicule autonome (100) et l'objet, et
une information concernant une forme 3D de l'objet.
24. Procédé pour commander le mouvement d'un véhicule autonome, caractérisé en ce qu'il comprend les étapes suivantes: (a) on détecte des points correspondants (1410) à partir d'au moins deux images consécutives obtenues au moyen d'un caméra (110); (b) on calcule une information d'orientation du véhicule autonome (100); (c) on calcule une information géométrique épipolaire (1420) sur la base de l'information d'orientation et de l'information concernant des points correspondants; (d) on analyse le mouvement du véhicule autonome (1430) sur la base de l'information géométrique épipolaire calculée; et (e) on analyse (1440) une information tridimensionnelle d'un objet se trouvant devant le véhicule autonome (100) , sur la base de l'information géométrique épipolaire calculée.
25. Procédé pour commander le mouvement d'un véhicule autonome selon la revendication 24, caractérisé en ce que la caméra (110) a les mêmes axes de coordonnées que
le véhicule autonome (100).
26. Procédé pour commander le mouvement d'un véhicule autonome selon la revendication 24, caractérisé en ce que les images sont obtenues au moyen d'une seule caméra
(110) à une cadence d'images prédéterminée.
27. Procédé pour commander le mouvement d'un véhicule autonome selon la revendication 24, caractérisé en ce que des images sont obtenues simultanément par une caméra stéréoscopique ou au moins par deux caméras, ou plus.
28. Procédé pour commander le mouvement d'un véhicule autonome selon la revendication 24, caractérisé en ce que l'étape (b) comprend (b1) la mesure de la gravité; (b-2) la mesure du magnétisme terrestre; et (b-3) le calcul de l'information d'orientation du véhicule autonome par rapport à un système de coordonnées fixe lié au sol, en utilisant les valeurs absolues des valeurs obtenues aux
étapes (b-1) et (b-2).
29. Procédé pour commander le mouvement d'un véhicule autonome selon la revendication 24, dans lequel l'étape (c) comprend le calcul de l'information géométrique épipolaire (1420) sur la base de l'information d'orientation calculée à l'étape (b) et de l'information
concernant au moins deux points correspondants.
30. Procédé pour commander le mouvement d'un véhicule autonome selon la revendication 29, caractérisé en ce que l'information géométrique épipolaire est calculée conformément aux équations suivantes, s'il est possible de mesurer une matrice exprimant l'orientation du véhicule autonome (100) en relation avec deux images consécutives quelconques: fu1 - fU2 J[T2] avec les notations suivantes: f est une distance focale de la caméra, Tl et T2 sont des éléments de vecteur de translation représentant une information de translation entre les deux images consécutives, ul et v1 sont des coordonnées x et y sur un plan de l'image obtenue antérieurement parmi les deux images consécutives, et u2 et v2 sont des coordonnées x et y sur un plan de l'image
obtenue postérieurement parmi les deux images consécutives.
31. Procédé pour commander le mouvement d'un véhicule autonome selon la revendication 24, caractérisé en ce que l'information 3D de l'objet situé devant le véhicule autonome (100) comprend une information concernant une distance entre le véhicule autonome (100) et l'objet, et
une information concernant une forme 3D de l'objet.
32. Procédé pour estimer le mouvement d'un véhicule autonome, caractérisé en ce qu'il comprend les étapes suivantes: (a) on détecte des points correspondants (1410) à partir d'au moins deux images consécutives obtenues au moyen d'un caméra (110); (b) on calcule une information d'orientation du véhicule autonome (100); (c) on calcule une information géométrique épipolaire (1420) sur la base de l'information d'orientation et de l'information concernant des points correspondants; et (d) on analyse le mouvement du véhicule autonome (1430) sur la base de
l'information géométrique épipolaire calculée.
33. Procédé pour estimer le mouvement d'un véhicule autonome selon la revendication 32, caractérisé en ce que la caméra (110) a les mêmes axes de coordonnées que le
véhicule autonome (100).
34. Procédé pour estimer le mouvement d'un véhicule autonome selon la revendication 32, caractérisé en ce que les images sont obtenues par une seule caméra (110) à une
cadence d'images prédéterminée.
35. Procédé pour estimer le mouvement d'un véhicule autonome selon la revendication 32, caractérisé en ce que des images sont obtenues simultanément par une caméra
stéréoscopique ou au moins par deux caméras, ou plus.
36. Procédé pour estimer le mouvement d'un véhicule autonome selon la revendication 32, caractérisé en ce que l'étape (b) comprend (b-1) la mesure de la gravité; (b-2) la mesure du magnétisme terrestre; et (b-3) le calcul de l'information d'orientation du véhicule autonome par rapport à un système de coordonnées fixe lié au sol, en utilisant les valeurs absolues des valeurs obtenues aux
étapes (b-1) et (b-2).
37. Procédé pour estimer le mouvement d'un véhicule autonome selon la revendication 32, dans lequel l'étape (c) comprend le calcul de l'information géométrique épipolaire (1420) sur la base de l'information d'orientation calculée à l'étape (b) et de l'information concernant au moins deux
points correspondants.
38. Procédé pour estimer le mouvement d'un véhicule autonome selon la revendication 37, caractérisé en ce que l'information géométrique épipolaire est calculée conformément aux équations suivantes, s'il est possible de mesurer une matrice exprimant l'orientation du véhicule autonome (100) en relation avec deux images consécutives quelconques: [Ul -fu2 1FT2 i E"v2 VIU2] avec les notations suivantes: f est une distance focale de la caméra, Tl et T2 sont des éléments de vecteur de translation représentant une information de translation entre les deux images consécutives, u1 et v1 sont des coordonnées x et y sur un plan de l'image obtenue antérieurement parmi les deux images consécutives, et u2 et v2 sont des coordonnées x et y sur un plan de l'image
obtenue postérieurement parmi les deux images consécutives.
39. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome, caractérisé en ce qu'il comprend les étapes suivantes: (a) on détecte des points correspondants (1410) à partir d'au moins deux images consécutives obtenues au moyen d'un caméra (110); (b) on calcule une information d'orientation du véhicule autonome (100); (c) on calcule une information géométrique épipolaire (1420) sur la base de l'information d'orientation et de l'information concernant des points correspondants; et (d) on analyse une information 3D de l'objet se trouvant devant le véhicule autonome, sur la base de l'information
géométrique épipolaire calculée.
40. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 39, caractérisé en ce que la caméra (110) a les mêmes axes de coordonnées que
le véhicule autonome (100).
41. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 39, caractérisé en ce que les images sont obtenues par une seule caméra (110)
à une cadence d'images prédéterminée.
42. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 39, caractérisé en ce que des images sont obtenues simultanément par une caméra stéréoscopique ou au moins par deux caméras, ou plus.
43. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 39, caractérisé en ce que l'étape (b) comprend (b-1) la mesure de la gravité; (b-2) la mesure du magnétisme terrestre; et (b-3) le calcul de l'information d'orientation du véhicule autonome par rapport à un système de coordonnées fixe lié au sol, en utilisant les valeurs absolues des valeurs obtenues aux
étapes (b-1) et (b-2).
44. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 39, caractérisé en ce que l'étape (c) comprend le calcul de l'information géométrique épipolaire (1420) sur la base de l'information d'orientation calculée à l'étape (b) et de l'information
concernant au moins deux points correspondants.
45. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 44, caractérisé en ce que l'information géométrique épipolaire est calculée conformément aux équations suivantes, s'il est possible de mesurer une matrice exprimant l'orientation du véhicule autonome (100) en relation avec deux images consécutives quelconques: [fv -f7v2 -Tl =[7 fu - fu2 iLT2] 2V1U2] avec les notations suivantes: f est une distance focale de la caméra, T1 et T2 sont des éléments de vecteur de translation représentant une information de translation entre les deux images consécutives, u1 et v1 sont des coordonnées x et y sur un plan de l'image obtenue antérieurement parmi les deux images consécutives, et u2 et v2 sont des coordonnées x et y sur un plan de l'image
obtenue postérieurement parmi les deux images consécutives.
46. Procédé pour détecter une information tridimensionnelle (3D) d'un objet se trouvant devant un véhicule autonome selon la revendication 39, caractérisé en ce que l'information 3D de l'objet situé devant le véhicule autonome (100) comprend une information concernant une distance entre le véhicule autonome (100) et l'objet, et
une information concernant une forme 3D de l'objet.
47. Support d'enregistrement lisible par ordinateur, caractérisé en ce qu'il stocke un programme d'ordinateur pour mettre en oeuvre un procédé selon la
revendication 24, 32 ou 39.
FR0306170A 2002-11-21 2003-05-22 Vehicule autonome, et procede et appareil pour estimer son mouvement et detecter une information tridimensionnelle d'un objet apparaissant devant lui Expired - Fee Related FR2847699B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0072696A KR100446636B1 (ko) 2002-11-21 2002-11-21 이동체의 움직임 및 이동체 전방에 위치한 물체의 3차원정보 측정 기능을 구비한 이동체 및 그 방법

Publications (2)

Publication Number Publication Date
FR2847699A1 true FR2847699A1 (fr) 2004-05-28
FR2847699B1 FR2847699B1 (fr) 2007-03-09

Family

ID=32291809

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0306170A Expired - Fee Related FR2847699B1 (fr) 2002-11-21 2003-05-22 Vehicule autonome, et procede et appareil pour estimer son mouvement et detecter une information tridimensionnelle d'un objet apparaissant devant lui

Country Status (4)

Country Link
US (1) US7440585B2 (fr)
KR (1) KR100446636B1 (fr)
DE (1) DE10326943B4 (fr)
FR (1) FR2847699B1 (fr)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3433204B2 (ja) * 2000-04-27 2003-08-04 株式会社東北テクノアーチ 3次元モデル構成装置
US7802193B1 (en) 2001-12-19 2010-09-21 Sandia Corporation Controlling motion using a human machine interface
US7376262B2 (en) * 2003-08-04 2008-05-20 American Gnc Corporation Method of three dimensional positioning using feature matching
US8275193B2 (en) * 2004-08-04 2012-09-25 America Gnc Corporation Miniaturized GPS/MEMS IMU integrated board
US8121392B2 (en) * 2004-10-25 2012-02-21 Parata Systems, Llc Embedded imaging and control system
JP4480083B2 (ja) * 2005-02-23 2010-06-16 アイシン精機株式会社 物体認識装置
SE530384C2 (sv) * 2006-02-17 2008-05-20 Totalfoersvarets Forskningsins Metod för fjärrstyrning av en obemannad markfarkost med rörlig kamera samt en sådan markfarkost
US8826959B2 (en) * 2006-06-29 2014-09-09 Graphic Packaging International, Inc. Heat sealing systems and methods, and related articles and materials
US20080075323A1 (en) * 2006-09-25 2008-03-27 Nokia Corporation System and method for distance functionality
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
KR100952574B1 (ko) * 2007-12-24 2010-04-12 중앙대학교 산학협력단 로봇 기반 입체 디스플레이 장치 및 방법
US8332134B2 (en) * 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8611585B2 (en) * 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
US8421859B2 (en) * 2008-04-24 2013-04-16 GM Global Technology Operations LLC Clear path detection using a hierachical approach
US8452053B2 (en) * 2008-04-24 2013-05-28 GM Global Technology Operations LLC Pixel-based texture-rich clear path detection
US8917904B2 (en) * 2008-04-24 2014-12-23 GM Global Technology Operations LLC Vehicle clear path detection
US8428305B2 (en) * 2008-04-24 2013-04-23 GM Global Technology Operations LLC Method for detecting a clear path through topographical variation analysis
US8634593B2 (en) * 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
US8670592B2 (en) * 2008-04-24 2014-03-11 GM Global Technology Operations LLC Clear path detection using segmentation-based method
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8699754B2 (en) * 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
US8487991B2 (en) * 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8803966B2 (en) * 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
JP5107154B2 (ja) * 2008-06-23 2012-12-26 アイドゲノッシッシェ テヒニッシェ ホッホシューレ チューリッヒ 運動推定装置
DE102011113265B3 (de) * 2011-09-13 2012-11-08 Audi Ag Verfahren zur Bildverarbeitung von mit einem optischen Sensor in einem Kraftfahrzeug aufgenommenen Bilddaten und Kraftfahrzeug
US8559727B1 (en) * 2012-04-09 2013-10-15 GM Global Technology Operations LLC Temporal coherence in clear path detection
US9025859B2 (en) 2012-07-30 2015-05-05 Qualcomm Incorporated Inertial sensor aided instant autofocus
US8903163B2 (en) * 2012-08-09 2014-12-02 Trimble Navigation Limited Using gravity measurements within a photogrammetric adjustment
ES2478700B1 (es) * 2013-01-21 2015-06-30 Idneo Technologies, S.L. Sistema y método para la detección de obstáculos
DE102013203404A1 (de) 2013-02-28 2014-08-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur dreidimensionalen Abbildung zumindest eines Teilbereichs eines Fahrzeugumfelds
US9070202B2 (en) * 2013-03-14 2015-06-30 Nec Laboratories America, Inc. Moving object localization in 3D using a single camera
US9201424B1 (en) 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
US9989967B2 (en) 2014-03-04 2018-06-05 Cybernet Systems Corporation All weather autonomously driven vehicles
JP6312519B2 (ja) * 2014-05-13 2018-04-18 キヤノン株式会社 撮像装置、その制御方法、及びプログラム
DE102014110201B3 (de) * 2014-07-21 2015-08-13 Miele & Cie. Kg Selbstfahrender Roboter und Verfahren zur Hinderniserkennung bei einem selbstfahrenden Roboter
DE102015205088C5 (de) * 2015-03-20 2024-09-26 Kuka Deutschland Gmbh Verfahren zum Ermitteln eines Kalibrierungsparameters eines Fahrzeuges sowie Fahrzeug hierzu
US10101747B2 (en) 2015-12-11 2018-10-16 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
US9537956B1 (en) 2015-12-11 2017-01-03 Uber Technologies, Inc. System for acquiring time-synchronized sensor data
US9785150B2 (en) 2015-12-11 2017-10-10 Uber Technologies, Inc. Formatting sensor data for use in autonomous vehicle communications platform
US9596666B1 (en) * 2015-12-11 2017-03-14 Uber Technologies, Inc. System for processing asynchronous sensor data
US10114103B2 (en) 2016-03-31 2018-10-30 Uber Technologies, Inc. System and method for sensor triggering for synchronized operation
US10288458B2 (en) 2016-06-29 2019-05-14 GM Global Technology Operations LLC Systems and methods for sensor platform
US10482559B2 (en) 2016-11-11 2019-11-19 Uatc, Llc Personalizing ride experience based on contextual ride usage data
US10147193B2 (en) 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
US10552691B2 (en) * 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
US10386857B2 (en) * 2017-07-05 2019-08-20 Qualcomm Incorporated Sensor-centric path planning and control for robotic vehicles
EP3682429B1 (fr) 2017-09-13 2023-07-26 Alarm.com Incorporated Système et procédé de surveillance de porte lors du départ ou de l'arrivée d'un véhicule autonome
US10872433B2 (en) 2018-04-18 2020-12-22 Mobileye Vision Technologies Ltd. Vehicle environment modeling with a camera
US10909866B2 (en) 2018-07-20 2021-02-02 Cybernet Systems Corp. Autonomous transportation system and methods
KR102627453B1 (ko) * 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
CN109902725A (zh) * 2019-01-31 2019-06-18 北京达佳互联信息技术有限公司 移动目标的检测方法、装置及电子设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0158984A3 (fr) * 1984-04-13 1989-03-01 Hitachi, Ltd. Méthode pour déterminer une paire de points correspondants entre images
JPH07218251A (ja) * 1994-02-04 1995-08-18 Matsushita Electric Ind Co Ltd ステレオ画像計測方法およびステレオ画像計測装置
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
US5644651A (en) * 1995-03-31 1997-07-01 Nec Research Institute, Inc. Method for the estimation of rotation between two frames via epipolar search for use in a three-dimensional representation
US6122078A (en) * 1995-08-24 2000-09-19 Vexcel Imaging Gmbh Self calibrating scanner with single or multiple detector arrays and single or multiple optical systems
JP3765862B2 (ja) * 1996-02-15 2006-04-12 本田技研工業株式会社 車両用環境認識装置
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
FR2767404B1 (fr) * 1997-08-12 1999-10-22 Matra Systemes Et Information Procede de production de donnees cartographiques par stereovision
JP3720972B2 (ja) * 1998-01-22 2005-11-30 株式会社小松製作所 地形形状計測装置
JP3732335B2 (ja) 1998-02-18 2006-01-05 株式会社リコー 画像入力装置及び画像入力方法
JPH11306356A (ja) * 1998-04-21 1999-11-05 Hitachi Ltd 画像による3次元計測方法および装置、並びに該方法に係るプログラムを記憶した記憶媒体
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6412961B1 (en) * 2000-05-30 2002-07-02 Robert Andrew Hicks Rectifying mirror
US6421961B1 (en) 2000-07-11 2002-07-23 Ernesto Mallozzi Modular organizer
US6730926B2 (en) * 2001-09-05 2004-05-04 Servo-Robot Inc. Sensing head and apparatus for determining the position and orientation of a target object
KR100837776B1 (ko) * 2001-12-24 2008-06-13 주식회사 케이티 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치 및그 방법
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
WO2004001332A1 (fr) * 2002-06-19 2003-12-31 Canesta, Inc. Systeme et procede permettant de determiner des coordonnees tridimensionnelles d'une surface au moyen d'une matrice codee

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6038074A (en) * 1997-05-20 2000-03-14 Ricoh Company, Ltd. Three-dimensional measuring apparatus and method, image pickup apparatus, and apparatus and method for inputting image

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DERROUICH S ET AL: "A combination of monocular CCD camera and inertial-sensor for range estimation", IECON-2002. PROCEEDINGS OF THE 28TH. ANNUAL CONFERENCE OF THE IEEE INDUSTRIAL ELECTRONICS SOCIETY. SEVILLA, SPAIN, NOV. 5 - 8, 2002, ANNUAL CONFERENCE OF THE IEEE INDUSTRIAL ELECTRONICS SOCIETY, NEW YORK, NY : IEEE, US, vol. VOL. 1 OF 4. CONF. 28, 5 November 2002 (2002-11-05), pages 2191 - 2196, XP010633051, ISBN: 0-7803-7474-6 *
LOBO J ET AL: "Segmentation of dense depth maps using inertial data a real-time implementation", PROCEEDINGS OF THE 2002 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS. (IROS 2002). LAUSANNE, SWITZERLAND, SEPT. 30 - OCT. 4, 2002, IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, NEW YORK, NY : IEEE, US, vol. VOL. 1 OF 3, 30 September 2002 (2002-09-30), pages 92 - 97, XP010609234, ISBN: 0-7803-7398-7 *
MUKAI T ET AL: "The recovery of object shape and camera motion using a sensing system with a video camera and a gyro sensor", COMPUTER VISION, 1999. THE PROCEEDINGS OF THE SEVENTH IEEE INTERNATIONAL CONFERENCE ON KERKYRA, GREECE 20-27 SEPT. 1999, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 1, 20 September 1999 (1999-09-20), pages 411 - 417, XP010350414, ISBN: 0-7695-0164-8 *
OKATANI T ET AL: "Robust estimation of camera translation between two images using a camera with a 3D orientation sensor", PATTERN RECOGNITION, 2002. PROCEEDINGS. 16TH INTERNATIONAL CONFERENCE ON QUEBEC CITY, QUE., CANADA 11-15 AUG. 2002, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 1, 11 August 2002 (2002-08-11), pages 275 - 278, XP010613327, ISBN: 0-7695-1695-X *

Also Published As

Publication number Publication date
US20040101161A1 (en) 2004-05-27
DE10326943A1 (de) 2004-06-17
DE10326943B4 (de) 2019-09-12
FR2847699B1 (fr) 2007-03-09
US7440585B2 (en) 2008-10-21
KR100446636B1 (ko) 2004-09-04
KR20040044621A (ko) 2004-05-31

Similar Documents

Publication Publication Date Title
FR2847699A1 (fr) Vehicule autonome, et procede et appareil pour estimer son mouvement et detecter une information tridimensionnelle d'un objet apparaissant devant lui
US11393173B2 (en) Mobile augmented reality system
WO2013052781A1 (fr) Procédé et dispositif pour déterminer des informations de profondeur relatives à une scène voulue
EP3658921B1 (fr) Procédé de calibration d'un magnetometre
EP2947628B1 (fr) Procédé de traitement d'informations locales
EP3072108A1 (fr) Procede d'estimation de la vitesse de deplacement d'une camera
FR3091777A1 (fr) Méthode de détermination d’un rayon de protection d’un système de navigation basé sur la vision
US10706564B2 (en) Systems, methods, and media for determining object motion in three dimensions from light field image data
US9886763B2 (en) Visual navigation method, visual navigation device and robot
FR3013488A1 (fr) Procede d'estimation de la vitesse de deplacement d'une camera
EP3698554B1 (fr) Systeme d'imagerie de sources acoustiques environnementales
WO2015150129A1 (fr) Procede de geo-localisation de l'environnement d'un porteur
WO2014060657A1 (fr) Procédé de conception d'un imageur monovoie passif capable d'estimer la profondeur de champ
EP3070643B1 (fr) Procédé et système de reconnaissance d'objets par analyse de signaux d'image numérique d'une scène
EP3384462B1 (fr) Procede de caracterisation d'une scene par calcul d'orientation 3d
EP2577225B1 (fr) Dispositif et procede de determination d'une information de profondeur a partir d'un capteur optique susceptible d'etre en deplacement
CA2914360A1 (fr) Systemes de reperage de la position de la camera de tournage pour le tournage de films video
US11756215B2 (en) Image processing device, image processing method, and image processing program
CN119104050A (zh) 载体位置的确定方法、装置、计算机设备及存储介质
AU2011265379A1 (en) Single shot image based depth mapping
CN114677425B (zh) 确定物体景深的方法与装置
FR3096499A1 (fr) Dispositif de traitement de prise de vue
FR3032053A1 (fr) Procede d'affichage d'au moins une fenetre d'une scene tridimensionnelle, produit programme d'ordinateur et systeme d'affichage associes
Pham Integrating a Neural Network for Depth from Defocus with a Single MEMS Actuated Camera
Aldelgawy et al. Semi‐automatic reconstruction of object lines using a smartphone’s dual camera

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16

PLFP Fee payment

Year of fee payment: 17

PLFP Fee payment

Year of fee payment: 18

ST Notification of lapse

Effective date: 20220105