[go: up one dir, main page]

FR3062507A1 - METHOD AND DEVICE FOR CALIBRATING A PERCEPTION SYSTEM COMPRISING A SET OF LIDAR TELEMETERS - Google Patents

METHOD AND DEVICE FOR CALIBRATING A PERCEPTION SYSTEM COMPRISING A SET OF LIDAR TELEMETERS Download PDF

Info

Publication number
FR3062507A1
FR3062507A1 FR1750802A FR1750802A FR3062507A1 FR 3062507 A1 FR3062507 A1 FR 3062507A1 FR 1750802 A FR1750802 A FR 1750802A FR 1750802 A FR1750802 A FR 1750802A FR 3062507 A1 FR3062507 A1 FR 3062507A1
Authority
FR
France
Prior art keywords
parameters
vehicle
parameter
extrinsic
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1750802A
Other languages
French (fr)
Other versions
FR3062507B1 (en
Inventor
Michel Dhome
Eric Royer
Morgan Slade
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Universite Clermont Auvergne
Original Assignee
Centre National de la Recherche Scientifique CNRS
Universite Clermont Auvergne
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS, Universite Clermont Auvergne filed Critical Centre National de la Recherche Scientifique CNRS
Priority to FR1750802A priority Critical patent/FR3062507B1/en
Priority to PCT/FR2018/050210 priority patent/WO2018142057A1/en
Publication of FR3062507A1 publication Critical patent/FR3062507A1/en
Application granted granted Critical
Publication of FR3062507B1 publication Critical patent/FR3062507B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

L'invention concerne un procédé de détermination des paramètres extrinsèques d'un système de perception embarqué sur un véhicule (100) parcourant un trajet et comprenant un ensemble de télémètres (L1, L2) fournissant des flux de trames à un dispositif de traitement (110), ce procédé comprenant la détermination de la pose du véhicule en fonction du temps, et étant caractérisé en ce qu'il comprend la détection d'amers au sein des flux de trames correspondant à des amers du monde réel, puis la détermination des paramètres extrinsèques minimisant une fonction de coût mesurant les écarts entre les amers détectés associés à un même amer du monde réel.The invention relates to a method for determining the extrinsic parameters of an on-board perception system (100) traversing a path and comprising a set of range finders (L1, L2) providing frame flows to a processing device (110). ), this method comprising the determination of the laying of the vehicle as a function of time, and being characterized in that it comprises the detection of bitters within the frame flows corresponding to real-world bitter, and then the determination of the parameters extrinsic minimizing a cost function measuring the differences between the detected bitter associated with the same bitter of the real world.

Description

® Mandataire(s) : NOVAGRAAF TECHNOLOGIES.® Agent (s): NOVAGRAAF TECHNOLOGIES.

FR 3 062 507 - A1 (54) PROCEDE ET DISPOSITIF POUR L'ETALONNAGE ENSEMBLE DE TELEMETRES LIDAR.FR 3 062 507 - A1 (54) METHOD AND DEVICE FOR THE ASSEMBLY CALIBRATION OF LIDAR TELEMETERS.

(57) L'invention concerne un procédé de détermination des paramètres extrinsèques d'un système de perception embarqué sur un véhicule (100) parcourant un trajet et comprenant un ensemble de télémètres (L1, L2) fournissant des flux de trames à un dispositif de traitement (110), ce procédé comprenant la détermination de la pose du véhicule en fonction du temps, et étant caractérisé en ce qu'il comprend la détection d'amers au sein des flux de trames correspondant à des amers du monde réel, puis la détermination des paramètres extrinsèques minimisant une fonction de coût mesurant les écarts entre les amers détectés associés à un même amer du monde réel.(57) The invention relates to a method for determining the extrinsic parameters of a perception system on board a vehicle (100) traveling a route and comprising a set of rangefinders (L1, L2) supplying streams of frames to a device for processing (110), this method comprising the determination of the pose of the vehicle as a function of time, and being characterized in that it comprises the detection of bitters within the flow of frames corresponding to bitters in the real world, then the determination of extrinsic parameters minimizing a cost function measuring the differences between the detected landmarks associated with the same real world landmark.

D'UN SYSTEME DE PERCEPTION COMPORTANT UNOF A COLLECTION SYSTEM COMPRISING A

Figure FR3062507A1_D0001
Figure FR3062507A1_D0002

PROCÉDÉ ET DISPOSITIF POUR L’ÉTALONNAGE D’UN SYSTÈME DE PERCEPTION COMPORTANT UN ENSEMBLE DE TÉLÉMÈTRES LIDARMETHOD AND DEVICE FOR CALIBRATING A COLLECTION SYSTEM INCLUDING A SET OF LIDAR TELEMETERS

DOMAINE DE L’INVENTIONFIELD OF THE INVENTION

La présente invention concerne un procédé d’étalonnage d’un système de perception par ordinateur embarqué sur un véhicule comprenant un ou plusieurs dispositifs de télédétection par laser. Elle s’applique particulièrement bien aux véhicules autonomes et aux mécanismes de cartographie et localisation simultanée, ou SLAM (pour « Simultaneous Localization and Mappings » en anglais) utilisés pour ces véhiculesThe present invention relates to a method for calibrating a computer perception system on board a vehicle comprising one or more laser remote sensing devices. It applies particularly well to autonomous vehicles and to the mechanisms of simultaneous mapping and localization, or SLAM (for "Simultaneous Localization and Mappings" in English) used for these vehicles

CONTEXTE DE L’INVENTIONBACKGROUND OF THE INVENTION

Les mécanismes de cartographie et localisation simultanées permettent à des véhicules autonomes d’établir une cartographie de l’environnement dans lequel il se déplace et à s’y localiser. Ces mécanismes sont le plus souvent désignés par leurs acronymes en langue anglaise : SLAM ou CML (pour « Concurrent mapping and Localization »).Simultaneous mapping and location mechanisms allow autonomous vehicles to map and locate the environment in which it is traveling. These mechanisms are most often designated by their acronyms in English: SLAM or CML (for "Concurrent mapping and Localization").

Pour ce faire, les véhicules autonomes disposent de système de perception par ordinateur. Ces systèmes de perception se composent, d’une façon très générale, en un ensemble de capteurs et un dispositif central de traitement des signaux acquis par les capteurs pour déterminer, ou améliorer, une cartographie de l’environnement dans lequel se déplace le véhicule, et à l’y localiser.To do this, autonomous vehicles have a computer perception system. These perception systems are very generally made up of a set of sensors and a central device for processing the signals acquired by the sensors to determine, or improve, a map of the environment in which the vehicle is traveling, and locate it there.

Ces capteurs comprennent très souvent des caméras fournissant des flux vidéo au dispositif de traitement. Celui-ci peut alors déterminer dans le flux vidéo des points ou structures de points caractéristiques, que l’on nomme habituellement « amers », et qui permettent, par corrélation entre différents flux vidéo, de construire la cartographie de l’environnement et de déterminer la pose du véhicule dans cet environnement, c’est-àdire sa localisation et son orientation.These sensors very often include cameras providing video streams to the processing device. The latter can then determine in the video stream points or structures of characteristic points, which are usually called "bitter", and which make it possible, by correlation between different video streams, to construct the cartography of the environment and to determine the installation of the vehicle in this environment, that is to say its location and its orientation.

Afin d’améliorer les performances de ces systèmes de perception par ordinateur, d’autres types de capteurs peuvent être embarqués, et notamment des LIDAR (« Light Détection And Raning» en langue anglaise). Les LIDAR, ou lidars, sont des dispositifs de télémétrie par laser, basés sur la mesure des propriétés du faisceau de lumières renvoyé par un obstacle rencontré par le faisceau émis.In order to improve the performance of these computer-based perception systems, other types of sensors can be embedded, including LIDAR ("Light Detection And Raning" in English). LIDARs, or lidars, are laser telemetry devices, based on the measurement of the properties of the beam of light returned by an obstacle encountered by the emitted beam.

Une application bien connue de 1’utilisation conjointe de caméras vidéo et de lidars est « Google Street View™ »A well-known application of the joint use of video cameras and lidars is "Google Street View ™"

Afin de déterminer, ou améliorer, une cartographie, le dispositif de traitement doit connaître les paramètres de calibration ou étalonnage des différents capteurs. La connaissance de ces paramètres est également cruciale pour la localisation précise des obstacles détectés dans le cas de la navigation autonome d’un véhicule.In order to determine, or improve, a map, the processing device must know the calibration parameters of the various sensors. Knowledge of these parameters is also crucial for the precise location of obstacles detected in the case of autonomous navigation of a vehicle.

Ces paramètres d’étalonnage comprennent les paramètres d’étalonnage intrinsèques, c’est-à-dire propres à chaque capteur. Pour une caméra vidéo, ces paramètres intrinsèques peuvent comprendre la focale, la position du point principal, le centre de l’image, les coefficients de distorsion...These calibration parameters include intrinsic calibration parameters, i.e. specific to each sensor. For a video camera, these intrinsic parameters can include the focal length, the position of the main point, the center of the image, the distortion coefficients ...

Dès lors qu’un système de perception par ordinateur comporte plus d’un capteur, il est en outre nécessaire de connaître les paramètres d’étalonnage extrinsèques. Ces paramètres extrinsèques correspondent aux paramètres de passage d’un repère d’un capteur au repère d’un autre capteur. Ce changement de repère peut être défini par 6 paramètres extrinsèques : 3 paramètres de translation et 3 paramètres de rotation.Since a computer perception system has more than one sensor, it is also necessary to know the extrinsic calibration parameters. These extrinsic parameters correspond to the parameters for passing from a reference mark of one sensor to the reference mark of another sensor. This change of coordinate system can be defined by 6 extrinsic parameters: 3 translation parameters and 3 rotation parameters.

Ce modèle utilisé pour la connaissance des paramètres d’étalonnage des capteurs nécessite que les capteurs soient liés les uns aux autres de façon rigide, c’est-à-dire, typiquement, qu’ils soient rigidement solidaires du véhicule autonome. Dès lors, les paramètres sont fixes dans le temps et la connaissance des paramètres d’étalonnage intrinsèques et extrinsèques permet au dispositif de traitement de déterminer une cartographie nonfaussée à partir des données fournies par les différents capteurs.This model used for the knowledge of the calibration parameters of the sensors requires that the sensors are linked to each other rigidly, that is to say, typically, that they are rigidly secured to the autonomous vehicle. Consequently, the parameters are fixed over time and knowledge of the intrinsic and extrinsic calibration parameters allows the processing device to determine a non-distorted mapping from the data supplied by the various sensors.

Différentes techniques peuvent être utilisées pour la connaissance des paramètres extrinsèques.Different techniques can be used for understanding extrinsic parameters.

Une première technique peut consister à déterminer ces paramètres en les mesurant directement sur le véhicule. Toutefois, les capteurs peuvent être situés dans des logements rendant leur accès difficiles pour une mesure précise. En particulier, il est très difficile de mesurer l’orientation des capteurs.A first technique may consist in determining these parameters by measuring them directly on the vehicle. However, the sensors can be located in housings making their access difficult for an accurate measurement. In particular, it is very difficult to measure the orientation of the sensors.

Une autre technique, très largement employée, consiste à utiliser des mires, et à déterminer les paramètres extrinsèques en comparant la perception d’une même mire au sein des flux de données issus des différents capteurs.Another technique, which is widely used, consists of using test patterns, and determining extrinsic parameters by comparing the perception of the same test pattern within the data streams coming from the various sensors.

Toutefois, cette approche nécessite une intervention humaine. Cette intervention humaine est un inconvénient, mais peut même être un obstacle rédhibitoire dans un contexte industriel, si l’on souhaite mettre à jour périodiquement les paramètres d’étalonnages extrinsèque : cette technique nécessite alors de sortir le véhicule de son exploitation pour lui faire subir une étape de ré-étalonnage dans un espace dédié en utilisant des moyens humains.However, this approach requires human intervention. This human intervention is a drawback, but can even be a crippling obstacle in an industrial context, if one wishes to periodically update the extrinsic calibration parameters: this technique then requires taking the vehicle out of its operation to subject it a recalibration step in a dedicated space using human resources.

En outre, cette approche nécessite des champs recouvrant, c’est-à-dire qu’une même mire doit être perçu par plusieurs capteurs pour une même pose du véhicule. Il s’agit là d’une contrainte forte reposant sur la conception du véhicule et du système de perception embarqué.In addition, this approach requires overlapping fields, that is to say that the same target must be perceived by several sensors for the same installation of the vehicle. This is a strong constraint based on the design of the vehicle and the on-board perception system.

Des solutions entièrement automatiques ont été proposées pour l’étalonnage des paramètres extrinsèques pour des caméras vidéo. Une telle solution est notamment exposée dans la demande de brevet WO2013/053701, intitulée «Procédé d’étalonnage d’un système de vision par ordinateur embarqué sur un mobile ».Fully automatic solutions have been proposed for the calibration of extrinsic parameters for video cameras. Such a solution is explained in particular in patent application WO2013 / 053701, entitled "Method for calibrating a vision system by computer on board a mobile phone".

Mais cette solution ne concerne que la vision et aucunement un autre mode de perception, notamment par lidar.But this solution only concerns vision and in no way another mode of perception, in particular by lidar.

RÉSUMÉ DE L’INVENTIONSUMMARY OF THE INVENTION

Le but de la présente invention est de fournir une solution palliant au moins partiellement les inconvénients précités.The object of the present invention is to provide a solution which at least partially overcomes the aforementioned drawbacks.

Plus particulièrement, l’invention vise à fournir un procédé d’étalonnage d’un système de perception par ordinateur disposant de capteurs non vidéo (par exemple des lidars), qui soit automatique (c’est-à-dire sans intervention humain) et qui ne nécessite pas de champs recouvrants entre ses différents capteurs. A cette fin, la présente invention propose un procédé de détermination des paramètres extrinsèques d’un système de perception embarqué sur un véhicule parcourant un trajet et comprenant un ensemble de télémètres fournissant des flux de trames à un dispositif de traitement, ledit procédé comprenant la détermination de la pose dudit véhicule en fonction du temps, et étant caractérisé en ce qu’il comprend la détection d’amers au sein desdits flux de trames correspondant à des amers du monde réel, puis la détermination des paramètres extrinsèques minimisant une fonction de coût mesurant les écarts entre les amers détectés associés à un même amer du monde réel.More particularly, the invention aims to provide a method of calibrating a computer perception system having non-video sensors (for example lidars), which is automatic (that is to say without human intervention) and which does not require overlapping fields between its different sensors. To this end, the present invention provides a method for determining the extrinsic parameters of a perception system on board a vehicle traveling a route and comprising a set of rangefinders providing flow of frames to a processing device, said method comprising determining the laying of said vehicle as a function of time, and being characterized in that it comprises the detection of bitters within said flow of frames corresponding to bitters in the real world, then the determination of extrinsic parameters minimizing a cost function measuring the differences between the bitters detected associated with the same bitter in the real world.

Suivant des modes de réalisation préférés, l’invention comprend une ou plusieurs des caractéristiques suivantes qui peuvent être utilisées séparément ou en combinaison partielle entre elles ou en combinaison totale entre elles :According to preferred embodiments, the invention comprises one or more of the following characteristics which can be used separately or in partial combination with one another or in total combination with one another:

- ladite pose est déterminée par une centrale inertielle ;- said pose is determined by an inertial unit;

- on détermine les paramètres d’étalonnage d’au moins une caméra vidéo appartenant audit système de perception, puis on détermine ladite pose en fonction desdits paramètres ;- the calibration parameters of at least one video camera belonging to said perception system are determined, then said pose is determined as a function of said parameters;

- la détermination desdits paramètres d’étalonnage de ladite au moins une caméra vidéo comprend la reconstruction de cartographie de l’environnement dudit véhicule comportant des amers 3D modélisant les amers du monde réel, l’optimisation d’au moins une cartographie correspondant à une première séquence d’images provenant de ladite au moins une caméra vidéo, en considérant au moins un paramètre extrinsèque et/ou au moins un paramètre intrinsèque et/ou au moins un paramètre de pose et/ou un paramètre d’amer 3D comme constant, et l’optimisation d’au moins une cartographie correspondant à une deuxième séquence d’images plus longue que la première séquence d’images et incluant la première séquence d’images, en considérant ledit au moins un paramètre extrinsèque et/ou ledit au moins un paramètre intrinsèque et/ou ledit au moins un paramètre de pose et/ou un paramètre d’amer 3D comme variable de manière à l’estimer ;the determination of said calibration parameters of said at least one video camera comprises the reconstruction of cartography of the environment of said vehicle comprising 3D landmarks modeling the landmarks of the real world, the optimization of at least one map corresponding to a first sequence of images from said at least one video camera, considering at least one extrinsic parameter and / or at least one intrinsic parameter and / or at least one pose parameter and / or a 3D bitter parameter as constant, and optimizing at least one mapping corresponding to a second sequence of images longer than the first sequence of images and including the first sequence of images, by considering said at least one extrinsic parameter and / or said at least one intrinsic parameter and / or said at least one setting parameter and / or a 3D bitter parameter as variable so as to estimate it;

- les amers détectés sont regroupés en fonction d’un critère de proximité ;- the bitters detected are grouped according to a proximity criterion;

- lesdits amers sont des segments de droite ;- said landmarks are straight segments;

- ladite fonction de coût mesure l’écart entre les lignes détectées appartenant à un groupe ;- said cost function measures the difference between the detected lines belonging to a group;

- la minimisation de ladite fonction de coût se fait de façon itérative au moyen d’un algorithme de type LevenbergMarcquardt ;- the minimization of said cost function is done iteratively using a LevenbergMarcquardt type algorithm;

Un autre objet de l’invention concerne un programme d’ordinateur comprenant des instructions logicielles mettant en œuvre un procédé tel que précédemment défini, lorsque déployées sur un dispositif de traitement de l’information.Another object of the invention relates to a computer program comprising software instructions implementing a method as previously defined, when deployed on an information processing device.

Un autre objet de l’invention concerne un dispositif de traitement pour la détermination des paramètres extrinsèques d’un système de perception embarqué sur un véhicule parcourant un trajet et comprenant un ensemble de télémètres fournissant des flux de trames audit dispositif de traitement, comportant les moyens logiciels et/ou matériels pour la mise en œuvre du procédé tel que précédemment défini.Another object of the invention relates to a processing device for determining the extrinsic parameters of a perception system on board a vehicle traveling a route and comprising a set of rangefinders providing flow of frames to said processing device, comprising the means software and / or hardware for implementing the process as defined above.

D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description qui suit d’un mode de réalisation préféré de l'invention, donnée à titre d'exemple et en référence aux dessins annexés.Other characteristics and advantages of the invention will appear on reading the following description of a preferred embodiment of the invention, given by way of example and with reference to the accompanying drawings.

BRÈVE DESCRIPTION DES DESSINSBRIEF DESCRIPTION OF THE DRAWINGS

La figure 1 représente schématiquement un exemple de véhicule pouvant mettant en œuvre le procédé selon l’invention.FIG. 1 schematically represents an example of a vehicle that can implement the method according to the invention.

La figure 2 représente schématiquement un enchaînement fonctionnel illustratif d’un mode de réahsation de l’invention.FIG. 2 schematically represents a functional sequence illustrative of a mode of reahsation of the invention.

La figure 3 représente schématiquement un exemple de définition d’un plan, selon un mode de réalisation de l’invention.FIG. 3 schematically represents an example of definition of a plan, according to an embodiment of the invention.

La figure 4 est un exemple de cartographie permettant visuahser schématiquement un résultat de l’étape de minimisation.FIG. 4 is an example of mapping allowing a schematic view of a result of the minimization step.

DESCRIPTION DETAILLEE DE L’INVENTIONDETAILED DESCRIPTION OF THE INVENTION

L'invention s'applique particuhèrement aux véhicules autonomes, encore appelés « autoguidés », mais elle peut s'apphquer à tout autre type de véhicule dès lors que survient la problématique de construire une cartographie de l'environnement dans lequel se déplace le véhicule. L’invention est très utile aussi pour retrouver la position d’un obstacle détecté par le lidar dans le repère du véhicule ou des autres capteurs.The invention applies particularly to autonomous vehicles, also called “guided”, but it can be applied to any other type of vehicle as soon as the problem arises of constructing a cartography of the environment in which the vehicle moves. The invention is also very useful for finding the position of an obstacle detected by the lidar in the vehicle locator or other sensors.

La figure 1 schématise un exemple d'un tel véhicule 100, comportant 4 roues 101, 102, 103, 104 et un châssis. Le véhicule 100 embarque un système de perception comportant 2 caméras vidéo Cl, C2 et deux télémètres LIDAR Ll, L2. Bien entendu, l'invention s'applique à tout autre agencement de véhicules, autonomes ou non. Notamment, comme il sera vu plus loin, l'invention peut s'appliquer à des systèmes de perception ne possédant pas de caméra vidéo, mais par exemple que des lidars.Figure 1 shows schematically an example of such a vehicle 100, comprising 4 wheels 101, 102, 103, 104 and a chassis. The vehicle 100 has a perception system comprising 2 video cameras C1, C2 and two LIDAR Ll, L2 rangefinders. Of course, the invention applies to any other arrangement of vehicles, autonomous or not. In particular, as will be seen below, the invention can be applied to perception systems which do not have a video camera, but for example only lidars.

Ces quatre capteurs Cl, C2, Ll, L2 sont fixés sur le châssis du véhicule, de sorte à ce que leurs positions et orientations relatives soient fixes, ou substantiellement fixes. Ils sont en outre connectés à un dispositif de traitement 110 qui reçoit les flux de données fournis par ces capteurs. Ces flux de données sont des séquences d'images fournies par les caméras, de séquences de trames fournies par les lidars, etc.These four sensors Cl, C2, Ll, L2 are fixed to the chassis of the vehicle, so that their relative positions and orientations are fixed, or substantially fixed. They are also connected to a processing device 110 which receives the data streams supplied by these sensors. These data streams are sequences of images supplied by the cameras, sequences of frames supplied by the lidars, etc.

Dans l'exemple de la figure 1, chaque capteur est orienté dans une direction différente de sorte à couvrir chacun un champ distinct pour une pose donnée du véhicule. Les champs couvert sont représentés par les lignes pointillés sur la figure. Dans d'autres agencements, les champs des capteurs peuvent se chevaucher, mais un avantage de l'invention est que cette caractéristique est indifférente.In the example of Figure 1, each sensor is oriented in a different direction so as to each cover a separate field for a given installation of the vehicle. The fields covered are represented by the dotted lines in the figure. In other arrangements, the fields of the sensors may overlap, but an advantage of the invention is that this characteristic is indifferent.

Le dispositif de traitement 110 est prévu pour déterminer une cartographie de l'environnement du véhicule à partir des flux de données issus du système de perception, et y localiser le véhicule. Ce dispositif met donc en oeuvre un mécanisme de SLAM qui ne sera pas décrit plus avant car n'entrant pas dans le champ de l'invention qui concerne uniquement l'étalonnage des capteurs afin de permettre au mécanisme de SLAM de fonctionner avec la précision nécessaire.The processing device 110 is provided for determining a map of the environment of the vehicle from the data streams coming from the perception system, and locating the vehicle there. This device therefore implements a SLAM mechanism which will not be described further since it does not fall within the scope of the invention which relates solely to the calibration of the sensors in order to allow the SLAM mechanism to operate with the necessary precision. .

Dans un véhicule autonome, ou autoguidé, le dispositif de traitement 110 peut être prévu pour en outre agir sur le système de pilotage du véhicule afin de le diriger selon la cartographie établie.In an autonomous or self-guided vehicle, the processing device 110 can be provided to further act on the vehicle's steering system in order to direct it according to the established map.

Ce dispositif de traitement est typiquement mis en oeuvre par un couplage entre moyens matériels et moyens logiciels. Notamment, un calculateur peut être programmé par des algorithmes mettant en oeuvre les étapes du procédé selon l'invention qui vont être décrites.This processing device is typically implemented by coupling between hardware means and software means. In particular, a computer can be programmed by algorithms implementing the steps of the method according to the invention which will be described.

Comme évoqué précédemment, l'invention vise à déterminer l'étalonnage extrinsèque des différents capteurs, c'est-à-dire la position et l'orientation relative des capteurs les uns par rapport aux autres, ou par rapport à un repère commun qui peut être celui du véhicule. Dans la suite, l'étalonnage des paramètres intrinsèques des capteurs n'est pas considéré.As mentioned above, the invention aims to determine the extrinsic calibration of the various sensors, that is to say the position and the relative orientation of the sensors with respect to each other, or with respect to a common reference which can be that of the vehicle. In the following, the calibration of the intrinsic parameters of the sensors is not considered.

Une transformation géométrique permet de passer du repère d'un capteur à celui d'un autre capteur. Cette transformation peut se décomposer en une translation définie par trois paramètres, et en une rotation, également définie par trois paramètres.A geometrical transformation makes it possible to pass from the reference mark of a sensor to that of another sensor. This transformation can be broken down into a translation defined by three parameters, and into a rotation, also defined by three parameters.

L'étalonnage extrinsèque d'un système de perception consiste donc à déterminer un ensemble de six paramètres par capteurs, définissant la position et l'orientation de chaque capteur par rapport au véhicule 100 lui-même. Ainsi, les flux de données issus de chaque capteur peuvent être traités en fonction des paramètres d'étalonnage extrinsèques du capteur en question afin de fournir des informations pertinentes dans un repère commun. Notamment, des recoupements entre ces informations sont alors possibles et peuvent permettre de construire la cartographie selon un mécanisme SLAM.The extrinsic calibration of a perception system therefore consists in determining a set of six parameters per sensor, defining the position and the orientation of each sensor relative to the vehicle 100 itself. Thus, the data streams coming from each sensor can be processed as a function of the extrinsic calibration parameters of the sensor in question in order to provide relevant information in a common benchmark. In particular, cross-checking between this information is then possible and can make it possible to build the mapping using a SLAM mechanism.

Afin de connaître l'ensemble des paramètres extrinsèques d'étalonnage, une phase d'étalonnage est nécessaire. Selon l'invention, cette phase peut se faire sans intervention humaine, voire pendant le fonctionnement normal du véhicule. Ainsi, une phase de rafraîchissement des paramètres peut être périodiquement déclenchée sans interrompre le fonctionnement du véhicule, afin de palier d'éventuelle divergence de ces paramètres.In order to know all the extrinsic calibration parameters, a calibration phase is necessary. According to the invention, this phase can be carried out without human intervention, or even during normal operation of the vehicle. Thus, a parameter refresh phase can be periodically triggered without interrupting the operation of the vehicle, in order to compensate for any divergence of these parameters.

Il est également possible de conduire, « manuellement », le véhicule le long d’un parcours d’apprentissage. Cette étape requiert alors une intervention humaine mais celle-ci est limitée à ίο la conduite du véhicule, l’étalonnage proprement dit s’effectuant de façon automatique pendant le parcourt.It is also possible to drive the vehicle "manually" along a learning route. This step then requires human intervention, but this is limited to ίο driving the vehicle, the actual calibration being carried out automatically during the journey.

La figure 2 schématise les étapes de ce procédé d'étalonnage selon un mode de réalisation de l'invention.FIG. 2 diagrams the steps of this calibration method according to an embodiment of the invention.

L'étape 201 correspond au pilotage du véhicule le long d'un parcours au sein de l'environnement à cartographier. Afin de pouvoir déterminer, les paramètres d'étalonnage extrinsèque, en effet, il est nécessaire que le véhicule parcoure un certain trajet dans ritinéraire, correspondant à des contraintes qui dépendent des différentes mises en oeuvre de l'invention.Step 201 corresponds to driving the vehicle along a route within the environment to be mapped. In order to be able to determine, the extrinsic calibration parameters, in fact, it is necessary for the vehicle to cover a certain route in the route, corresponding to constraints which depend on the different implementations of the invention.

Notamment, le trajet que doit emprunter le véhicule peut avantageusement comporter au moins une boucle et un demi-tour. Cela permet d’augmenter de façon substantielle la précision de l’étalonnage, en observant les mêmes amers à plusieurs reprises (dans des poses légèrement différentes). Dans le cadre d’une mise en oeuvre utilisant des caméras vidéos, cette contrainte est d’autant plus importante que les caméras n'ont pas des champs se chevauchant. Dans le cas contraire, il est possible de passer outre cette contrainte.In particular, the path which the vehicle must take may advantageously comprise at least one loop and one half-turn. This allows the accuracy of the calibration to be increased substantially, by observing the same bitters repeatedly (in slightly different poses). In the context of an implementation using video cameras, this constraint is all the more important since the cameras do not have overlapping fields. Otherwise, it is possible to override this constraint.

Durant ce parcours, le système de perception met deux tâches en action.During this journey, the perception system puts two tasks into action.

Une première tâche, référencée 203 sur la figure 2, consiste à acquérir un flux de trames fournis par des télémètres, notamment de type LIDAR.A first task, referenced 203 in FIG. 2, consists in acquiring a flow of frames supplied by range finders, in particular of the LIDAR type.

Une seconde tâche consiste à déterminer la pose du véhicule en fonction du temps. Les acquisitions des capteurs sont en général échantillonnées, de sorte que la pose du véhicule est déterminée pour des instants discrets.A second task consists in determining the pose of the vehicle as a function of time. The acquisitions of the sensors are generally sampled, so that the pose of the vehicle is determined for discrete moments.

Plusieurs mises en œuvre sont possibles permettant la détermination de la pose du véhicule en fonction du temps.Several implementations are possible allowing the determination of the installation of the vehicle as a function of time.

Selon une première mise en œuvre, la pose est déterminée à partir de capteurs non-environnementaux, c'est-à-dire mesurant des informations provenant du fonctionnement du véhicule luimême : capteurs sur les roues, consommation de courant des moteurs, etc. Préférentiellement, une centrale inertielle peut être utilisée afin de mesurer les déplacements du véhicule, en translation et en rotation. De la mesure de ces déplacements, la pose peut être directement fournie.According to a first implementation, the installation is determined from non-environmental sensors, that is to say measuring information originating from the operation of the vehicle itself: sensors on the wheels, current consumption of the motors, etc. Preferably, an inertial unit can be used to measure the displacements of the vehicle, in translation and in rotation. From the measurement of these displacements, the pose can be directly supplied.

Selon une seconde mise en œuvre, on détermine les paramètres extrinsèques et intrinsèques d’au moins une caméra vidéo Cl, C2 appartenant au système de perception, puis on détermine la pose en fonction de ces paramètres. Cette seconde mise en œuvre correspond aux étapes 202, 204 et 205 de la figureAccording to a second implementation, the extrinsic and intrinsic parameters of at least one video camera C1, C2 belonging to the perception system are determined, then the pose is determined as a function of these parameters. This second implementation corresponds to steps 202, 204 and 205 of the figure

2.2.

En référence 202, le système de perception acquiert des flux vidéo, constitués de séquences d'images numériques, provenant des capteurs vidéo.In reference 202, the perception system acquires video streams, made up of sequences of digital images, coming from video sensors.

On suppose également, dans ce mode de réalisation, que les caméras vidéos Cl, C2 sont synchronisées entre elles, c’est-à-dire qu’elles prennent des images aux mêmes instants, la prise pouvant être commandée par des horloges synchronisés entre elles ou par une horloge commune. Ces instants de prise de vue correspondent chacun à une pose du véhicule (ou du système de perception, ce qui revient au même dans la mesure où ils sont liés par une liaison rigide). Les lidars peuvent ne pas être synchronisés.It is also assumed, in this embodiment, that the video cameras C1, C2 are synchronized with each other, that is to say that they take images at the same times, the taking being able to be controlled by clocks synchronized with each other or by a common clock. These shooting moments each correspond to a pose of the vehicle (or of the perception system, which amounts to the same insofar as they are linked by a rigid connection). Lidars may not be synchronized.

D’une façon générale, selon l’état de la technique, les télémètres, notamment lidar, et les caméras vidéo sont étalonnées séparément. Selon cette mise en œuvre de l’invention, au contraire, il est prévu de lier les deux problèmes et, en particulier, de tirer profit de l’étalonnage des caméras pour l’étalonnage des lidars.Generally, according to the state of the art, the range finders, in particular lidar, and the video cameras are calibrated separately. According to this implementation of the invention, on the contrary, it is intended to link the two problems and, in particular, to take advantage of the calibration of the cameras for the calibration of the lidars.

L’étalonnage des paramètres extrinsèques et intrinsèques des caméras Cl, C2 peut être obtenu de différentes façons.The calibration of extrinsic and intrinsic parameters of cameras C1, C2 can be obtained in different ways.

Selon un mode de réalisation, une étape de construction 204 d’une cartographie de l’environnement est mise en place, c’est-àdire un mécanisme de type SLAM (« Simultaneous Localization and Mapping»), Cette cartographie consiste à déterminer des amers 3D, caractérisés par des paramètres d’amers 3D, à partir des images numériques des flux vidéo issus des caméras, lors du déplacement du véhicule le long du parcours. Chaque image correspond, comme il a été dit précédemment, à une pose du véhicule, caractérisée par des paramètres de pose. Ces amers 3 modélisent les amers du monde réel, c’est-à-dire qu’ils en forment une approximation que l’on vise à être la plus juste possible.According to one embodiment, a construction step 204 of a mapping of the environment is implemented, that is to say a mechanism of the SLAM type (“Simultaneous Localization and Mapping”). This mapping consists in determining bitters 3D, characterized by 3D bitter parameters, from digital images of video streams from the cameras, when the vehicle is moving along the route. Each image corresponds, as it was said previously, to a pose of the vehicle, characterized by pose parameters. These bitters 3 model the bitters of the real world, that is to say that they form an approximation which we aim to be as fair as possible.

Conformément à un algorithme de type SLAM, la cartographie obtenue comprends des paramètres d’amers 3D et des paramètres de pose. Une pose est définie par trois paramètres de translation et trois paramètres de rotation dans le repère euclidien global ou local (relativement à une pose voisine).In accordance with an SLAM type algorithm, the cartography obtained includes 3D bitter parameters and pose parameters. A pose is defined by three translation parameters and three rotation parameters in the global or local Euclidean coordinate system (relative to a neighboring pose).

La construction de la cartographie comprend des étapes de reconstruction de cartographie de séquences d'images et d'optimisation de ces cartographies par mise en œuvre d'algorithmes d'ajustement de faisceaux.The construction of the cartography comprises stages of reconstruction of cartography of image sequences and optimization of these cartographies by the implementation of beam adjustment algorithms.

Le procédé d'étalonnage des paramètres extrinsèques des caméras comprend l'optimisation d'au moins une cartographie correspondant à une première séquence d'images en considérant au moins un paramètre extrinsèque et/ou au moins un paramètre de pose et/ou un paramètre d'amer 3D comme constant et l'optimisation d'au moins une cartographie correspondant à une deuxième séquence d'images plus longue que la première séquence d'images et incluant la première séquence d'images, en considérant ledit au moins un paramètre extrinsèque et/ou ledit au moins un paramètre de pose et/ou ledit au moins un paramètre d'amer 3D comme variable de manière à l'estimer.The method for calibrating the extrinsic parameters of the cameras comprises optimizing at least one mapping corresponding to a first sequence of images by considering at least one extrinsic parameter and / or at least one exposure parameter and / or one parameter d bitter 3D as constant and the optimization of at least one mapping corresponding to a second sequence of images longer than the first sequence of images and including the first sequence of images, considering said at least one extrinsic parameter and / or said at least one setting parameter and / or said at least one 3D bitter parameter as a variable so as to estimate it.

Dans un mode de réalisation, on regroupe les images en séquences élémentaires, chaque séquence élémentaire comprenant un nombre X d'images voisines avec un recouvrement de Y images entre deux séquences élémentaires successives (deux séquences élémentaires successives possèdent Y images en commun). Dans un mode de réalisation chaque séquence élémentaire comprend X = 3 images avec un recouvrement de Y = 2 images. Par « images voisines », on entend des images correspondant à des poses proches du système de perception 110, de sorte à ce que ces images se recouvrent et puissent posséder des amers 2D susceptibles d'être appariés. On rappelle qu’on appelle « amer 2D » une forme caractéristique de l’environnement telle que perçue par les caméras vidéos, et qui est donc une perception d’un amer 3D que l’on cherche à construire pour établir la cartographie.In one embodiment, the images are grouped into elementary sequences, each elementary sequence comprising a number X of neighboring images with an overlap of Y images between two successive elementary sequences (two successive elementary sequences have Y images in common). In one embodiment each elementary sequence comprises X = 3 images with an overlap of Y = 2 images. By “neighboring images” is meant images corresponding to poses close to the perception system 110, so that these images overlap and can have 2D bitters capable of being matched. We recall that we call "bitter 2D" a form characteristic of the environment as perceived by video cameras, and which is therefore a perception of a bitter 3D that we are trying to build to establish the cartography.

Le procédé d'étalonnage consiste alors à construire une cartographie (partielle ou élémentaire) à partir de chaque séquence élémentaire S, La cartographie de la première séquence élémentaire peut être calculée par géométrie épipolaire et triangulation des amers, puis celles des séquences élémentaires suivantes sont calculés de proche en proche en débutant de la première cartographie.The calibration process then consists in constructing a cartography (partial or elementary) from each elementary sequence S, The cartography of the first elementary sequence can be calculated by epipolar geometry and triangulation of the landmarks, then those of the following elementary sequences are calculated step by step starting from the first mapping.

Le calcul de géométrie épipolaire permet de déterminer les poses du véhicule correspondant aux images de la première séquence élémentaire. La triangulation permet de déterminer les paramètres des amers 3D (i.e. les coordonnées tridimensionnelles pour des amers 3D correspondant aux amers 2D appariés entre les images de la première séquence élémentaire. Le calcul de la géométrie épipolaire est effectué de manière connue, par exemple par identification d'amers 2D caractéristiques dans les images de la séquence, par exemple par la méthode des coins de Harris, appariement des amers 2D caractéristiques entre les images de la séquence, calcul des poses du système de vision par ordinateur 10, par exemple par mise en œuvre d'un algorithme de type RANSAC sur deux poses et extrapolation de la troisième pose.The epipolar geometry calculation makes it possible to determine the poses of the vehicle corresponding to the images of the first elementary sequence. The triangulation makes it possible to determine the parameters of the 3D landmarks (ie the three-dimensional coordinates for 3D landmarks corresponding to the 2D landmarks matched between the images of the first elementary sequence. The calculation of the epipolar geometry is carried out in a known manner, for example by identification of characteristic 2D landmarks in the images of the sequence, for example by the Harris wedge method, pairing of the characteristic 2D landmarks between the images of the sequence, calculation of the poses of the computer vision system 10, for example by implementation of a RANSAC type algorithm on two exposures and extrapolation of the third exposure.

Le calcul de la triangulation des amers 2D appariés peut être réalisé de manière connue, par exemple par une méthode du point milieu. La triangulation permet d'obtenir des amers 3D, caractérisés par des coordonnées tridimensionnelles dans le repère euclidien global.The calculation of the triangulation of the paired 2D bitters can be carried out in a known manner, for example by a midpoint method. Triangulation makes it possible to obtain 3D bitters, characterized by three-dimensional coordinates in the global Euclidean coordinate system.

Pour les séquences élémentaires suivantes, le calcul de la cartographie comprend la détection des amers 2D dans la ou les images supplémentaires de la séquence par rapport à la précédente, puis la détermination de la pose correspondance du système de perception à partir de ces amers 2D que l’on apparie avec ceux déjà calculés dans la cartographie de la séquence élémentaire précédente. Enfin, les amers 2D supplémentaires sont triangulés.For the following elementary sequences, the calculation of the mapping includes the detection of the 2D landmarks in the additional image (s) of the sequence compared to the previous one, then the determination of the corresponding pose of the perception system from these 2D landmarks we match with those already calculated in the cartography of the previous elementary sequence. Finally, the additional 2D landmarks are triangulated.

Toutes les séquences élémentaires sont ainsi reconstruites de proche en proche.All the elementary sequences are thus reconstructed step by step.

Chaque cartographie de chaque séquence élémentaire peut alors être optimisée par mise en œuvre d'un algorithme d'ajustement de faisceaux. Un algorithme d'ajustement de faisceaux est un algorithme itératif permettant d'optimiser les différents paramètres entrant dans le calcul de la cartographie, par convergence d'un critère qui est généralement la minimisation d'une fonction de coût. Les paramètres entrant dans le calcul d'une cartographie à partir d'images prises par un ensemble de caméras comprennent les paramètres d'amers 3D, les paramètres des poses du système de perception par ordinateur, les paramètres extrinsèques du système de vision par ordinateur et les paramètres intrinsèques du système de vision par ordinateur. Un paramètre considéré comme variable lors de l'optimisation sera estimé et un paramètre considéré comme constant ou fixe ne sera pas optimisé ou estimé.Each mapping of each elementary sequence can then be optimized by implementing a beam adjustment algorithm. A beam adjustment algorithm is an iterative algorithm making it possible to optimize the various parameters entering into the calculation of the mapping, by convergence of a criterion which is generally the minimization of a cost function. The parameters used in the calculation of a cartography from images taken by a set of cameras include the 3D bitter parameters, the parameters of the poses of the computer perception system, the extrinsic parameters of the computer vision system and the intrinsic parameters of the computer vision system. A parameter considered as variable during the optimization will be estimated and a parameter considered as constant or fixed will not be optimized or estimated.

Le procédé d'étalonnage comprend ainsi l'optimisation de la cartographie de chaque séquence élémentaire par ajustement de faisceaux en considérant les paramètres extrinsèques comme constants. Ensuite, les cartographies des séquences élémentaires sont agrégées pour obtenir la cartographie de la séquence complète.The calibration process thus includes optimizing the mapping of each elementary sequence by adjusting beams by considering the extrinsic parameters as constant. Then, the elementary sequence maps are aggregated to obtain the mapping of the complete sequence.

Ce procédé est plus amplement décrit, avec plusieurs mises en œuvre possibles, dans la demande de brevet WO2013/053701, intitulée « Procédé d’étalonnage d’un système de vision par ordinateur embarqué sur un mobile ». Il est également décrit dans l’article « Fast callibration of embedded non-overlapping caméras », de Pierre Lébraly, Eric Royer, Omar Ait-Aider, Clément Deymier et Michel Dhome, in IEEE International Conférence on Robotics and Automation (ICRA), 2011.This process is more fully described, with several possible implementations, in patent application WO2013 / 053701, entitled "Method for calibrating a vision system by computer embedded on a mobile". It is also described in the article “Fast callibration of embedded non-overlapping cameras”, by Pierre Lébraly, Eric Royer, Omar Ait-Aider, Clément Deymier and Michel Dhome, in IEEE International Conférence on Robotics and Automation (ICRA), 2011 .

Ce procédé permet d’étalonner simultanément les paramètres intrinsèques et les paramètres extrinsèques.This process allows the intrinsic parameters and the extrinsic parameters to be calibrated simultaneously.

D’autres procédés sont toutefois utilisables pour étalonner les caméras.However, other methods can be used to calibrate the cameras.

Une fois les paramètres d’étalonnage déterminés, à l’issus d’étape 204, les poses du véhicule en fonction du temps peuvent être facilement déterminée, dans une étape 205. Dans le mode de réalisation décrit, en fait, les poses sont déterminées en même temps que les paramètres de calibration pour chaque image. Les images étant datées, on en déduit la pose en fonction du temps.Once the calibration parameters have been determined, at the end of step 204, the poses of the vehicle as a function of time can be easily determined, in a step 205. In the embodiment described, in fact, the poses are determined along with the calibration parameters for each image. The images being dated, we deduce the pose as a function of time.

Le procédé de l’invention comprend en outre la détection d’amers, 206, au sein des flux de trames issus des télémètres (LIDAR...), puis la détermination des paramètres extrinsèques, 207, minimisant une fonction de coût prenant en compte les paramètres de position de ces amers au sein d’une trame et une pose du véhicule interpolée pour un temps correspondant à celui de ladite trame.The method of the invention furthermore comprises the detection of landmarks, 206, within the flow of frames coming from the rangefinders (LIDAR, etc.), then the determination of the extrinsic parameters, 207, minimizing a cost function taking into account the position parameters of these bitters within a frame and a pose of the interpolated vehicle for a time corresponding to that of said frame.

L’invention permet de ne pas imposer une synchronisation entre l’acquisition des trames LIDAR et l’acquisition des images vidéo, qui serait en pratique une contrainte très forte, difficile à mettre en œuvre. Pour cela, une interpolation est mise en œuvre pour faire correspondre les dates d’acquisition des trames lidars aux dates des poses (déterminés par les acquisitions des images vidéos).The invention makes it possible not to impose a synchronization between the acquisition of LIDAR frames and the acquisition of video images, which would in practice be a very strong constraint, difficult to implement. For this, an interpolation is implemented to match the dates of acquisition of the lidar frames to the dates of the exposures (determined by the acquisitions of the video images).

Selon un mode de réalisation de l’invention, on calcule d’abord la pose du véhicule en l’instant correspondant à celui de la trame acquise. Par interpolation on replace ainsi les trames dans le « monde » tel que perçu par les caméras.According to one embodiment of the invention, the pose of the vehicle is first calculated at the instant corresponding to that of the frame acquired. By interpolation we thus replace the frames in the "world" as perceived by the cameras.

Un autre mode de réalisation consiste à au contraire interpoler les trames lidars afin de les faire correspondre aux dates des poses.Another embodiment consists on the contrary of interpolating the lidar frames in order to make them correspond to the dates of the poses.

Dans chaque trame, dans une étape référencée 206 sur la figure 2, on cherche à détecter des amers, c’est-à-dire des formes caractéristiques. Selon un mode de réalisation, ces amers sont des formes rectilignes. En particulier, il peut s’agir de segments de droite.In each frame, in a step referenced 206 in FIG. 2, it is sought to detect bitters, that is to say characteristic shapes. According to one embodiment, these bitters are rectilinear shapes. In particular, these can be line segments.

Dans l’exemple de la figure 4 qui sera expliquée plus loin, les lidars balayent un plan horizontal et les amers détectés sont donc des lignes horizontales, mais d’autres mises en œuvre sont possibles. Ces lignes horizontales peuvent correspondre à l’intersection du plan balayé par le LIDAR avec des obstacles verticaux dans le monde réel, notamment des murs.In the example of FIG. 4 which will be explained later, the lidars scan a horizontal plane and the bitters detected are therefore horizontal lines, but other implementations are possible. These horizontal lines may correspond to the intersection of the plane scanned by LIDAR with vertical obstacles in the real world, in particular walls.

Pour un bon étalonnage, il est nécessaire que le parcours du véhicule ait lieu dans un environnement comportant un nombre suffisant de murs. Il est évident qu’en fonction des contextes d’application du procédé selon l’invention, d’autres formes caractéristiques pourront être utilisées.For a good calibration, it is necessary that the vehicle journey takes place in an environment with a sufficient number of walls. It is obvious that, depending on the contexts in which the method according to the invention is applied, other characteristic forms may be used.

Dans chaque trame, on peut extraire les lignes à l’aide d’un algorithme de décomposition/fusion (ou « split and merge » en anglais), tel que par exemple d’écrit dans l’article «A comparison ofline extraction algorithms using 2D laser rangefinder for indoor mobile robotics » de Viet Nguyen, Agostino Martinelli, Nicola Tomatis et Roland Siegwart, in Proceedings of the IEEE/RSJ International Conférence on Intelligent Robots and Systems, IROS 2006.In each frame, we can extract the lines using a decomposition / fusion algorithm (or “split and merge” in English), as for example written in the article “A comparison ofline extraction algorithms using 2D laser rangefinder for indoor mobile robotics ”by Viet Nguyen, Agostino Martinelli, Nicola Tomatis and Roland Siegwart, in Proceedings of the IEEE / RSJ International Conférence on Intelligent Robots and Systems, IROS 2006.

Dans la mesure où, selon ce mode de réalisation, les lignes extraites des trames lidar sont l’intersection du plan lidar avec des plans verticaux, il n’est pas possible de déterminer la position verticale des lidars, c’est-à-dire leurs hauteurs.Since, according to this embodiment, the lines extracted from the lidar frames are the intersection of the lidar plane with vertical planes, it is not possible to determine the vertical position of the lidars, that is to say their heights.

Une ligne est détectée au sein d’une trame si elle satisfait un critère prédéterminé. Selon un mode de réalisation, ce critère est formé de deux conditions :A line is detected within a frame if it meets a predetermined criterion. According to one embodiment, this criterion is made up of two conditions:

la ligne contient au moins un certain nombre de points, par exemple 50 points, et, aucun point n’est à plus d’une distance donnée (par exemple 6 cm) de la meilleure ligne passant dans le nuage de points.the line contains at least a certain number of points, for example 50 points, and, no point is more than a given distance (for example 6 cm) from the best line passing in the point cloud.

Toutes les lignes ainsi extraites des trames LIDAR sont groupés dans des ensembles de ligne 2. Chaque ligne est définie par ses deux points d’extrémité et un vecteur normal pointant dans la direction d’observation. Ce dernier élément permet d’éviter des fausses associations entre, par exemple, la face avant et la face arrière d’un même mur.All the lines thus extracted from the LIDAR frames are grouped in sets of line 2. Each line is defined by its two end points and a normal vector pointing in the direction of observation. This last element makes it possible to avoid false associations between, for example, the front face and the rear face of the same wall.

Dans une étape suivant, les ensembles de lignes 2 sont subdivisés en groupes ou grappes (« clusters » en langue anglaise), suivant le principe que si deux lignes détectées sont suffisamment proches l’une de l’autre, en distance et orientation, il est très probable qu’il s’agisse de deux observations d’une même ligne du monde réel. Il s’agit donc d’associer les amers détectés qui correspondent à un même amer du monde réel.In a next step, the sets of lines 2 are subdivided into groups or clusters (“clusters” in English), according to the principle that if two detected lines are close enough to each other, in distance and orientation, there it is very likely that these are two observations of the same line from the real world. It is therefore a question of associating the detected landmarks which correspond to the same real world landmark.

Le but recherché par cette étape est d’obtenir un unique groupe Πι pour chaque plan vertical i observé pendant le parcours du véhicule. Dans la suite on appellera « plan » chacun des groupes IL et les plans seront associés à une équation cartésienne respective pour l’étape ultérieure de minimisation d’une fonction de coût.The aim of this step is to obtain a single group Πι for each vertical plane i observed during the course of the vehicle. In the following, each of the IL groups will be called "plan" and the plans will be associated with a respective Cartesian equation for the subsequent step of minimizing a cost function.

Lorsque le regroupement en grappe (« cluster ») est terminé, chaque équation de plan peut être initialisée avec pour valeur l’équation du plan vertical qui correspond au mieux aux équations de lignes qui lui sont associés.When the clustering is finished, each plane equation can be initialized with the value of the vertical plane equation which best corresponds to the line equations associated with it.

Plus précisément et par exemple, on peut définir le plan vertical par un point (appartenant au plan) et deux vecteurs formant une base du plan. Un des deux vecteurs est un vecteur orienté selon la vertical du monde réel ; l’autre vecteur est la moyenne des vecteurs directeurs de tous les segments de droite associés au plan. Le point est le barycentre de l’ensemble des points milieu de tous les segments associés au plan.More precisely and for example, the vertical plane can be defined by a point (belonging to the plane) and two vectors forming a base of the plane. One of the two vectors is a vertical oriented vector of the real world; the other vector is the average of the directing vectors of all the line segments associated with the plane. The point is the barycenter of the set of midpoints of all the segments associated with the plane.

A titre illustratif, un exemple d’implémentation des étapes de création et de fusion des groupes Πι peut être donné sous la forme d’algorithme en pseudo-langage :As an illustration, an example of implementation of the steps for creating and merging Πι groups can be given in the form of a pseudo-language algorithm:

Création de groupesCreation of groups

REPETER li élément aléatoire de l’ensemble 2REPEAT the random element of set 2

RETIRER p de l’ensemble 2REMOVE p from set 2

Π1^{11}Π1 ^ {11}

POUR TOUT le£ FAIREFOR EVERY £

SI 1 et li sont suffisamment proches ALORSIF 1 and li are close enough THEN

Πί<- Πιθ{1}Πί <- Πιθ {1}

RETIRER 1 de l’ensemble 2REMOVE 1 from set 2

FIN SIEND IF

FIN POUR i <- i+1END FOR i <- i + 1

JUSQU’A CE QUE 2 soit videUNTIL 2 is empty

Fusion des groupesMerging groups

REPETERREPEAT

POUR TOUT i, j AVEC i<j FAIREFOR ALL i, j WITH i <j DO

SI E(m,n)ellixllj tel que m et n sont suffisamment prochesIF E (m, n) ellixllj such that m and n are sufficiently close

ALORSSO

Fusionner IL et IljMerge IL and Ilj

FIN SIEND IF

FIN POUREND FOR

JUSQU’A CE QUE plus aucune fusion ne soit possible.UNTIL MORE merger is not possible.

Les conditions pour deux lignes li et I2 d’être « suffisamment proches » peuvent être comme suit :The conditions for two lines li and I2 to be "close enough" can be as follows:

l’angle entre les lignes li et I2 est inférieur à un seuil donné, par exemple 15° ;the angle between lines li and I2 is less than a given threshold, for example 15 °;

la distance euchdienne entre les segments de droite est inférieure à un seuil donné, par exemple 1 mn ;the Euchdian distance between the line segments is less than a given threshold, for example 1 min;

le produit scalaire entre les vecteurs normaux associés aux lignes li et I2 est positif. Ainsi qu’indiqué plus haut, cela permet d’éviter d’associer des surfaces avant et arrière d’un même mur ;the dot product between the normal vectors associated with lines li and I2 is positive. As indicated above, this makes it possible to avoid combining front and rear surfaces of the same wall;

En outre, dans le cas où les poses sont déterminées par un algorithme de SLAM visuels, une condition supplémentaire peut être que les lignes ont été observées selon deux poses qui sont connectés dans le graphe des poses issues de l’algorithme SLAM (étape 204). En d’autres termes, les deux poses partagent une même caractéristique visuelle détectée.In addition, in the case where the poses are determined by a visual SLAM algorithm, an additional condition can be that the lines have been observed according to two poses which are connected in the graph of the poses resulting from the SLAM algorithm (step 204) . In other words, the two poses share the same detected visual characteristic.

Ensuite, dans une étape référencée 207 sur la figure 2, on détermine les paramètres extrinsèques des lidars, qui minimisent une fonction de coût mesurant les écarts entre les amers détectés associés à un même amer du monde réel. Plus précisément, elle peut mesurer l’écart entre les lignes détectées appartenant à un même groupe (ou « cluster ») issus de l’étape 206. Cette fonction de coût prend en compte les paramètres de position de ces amers au sein d’une trame et la pose correspondante du véhicule, interpolés pour une même date.Then, in a step referenced 207 in FIG. 2, the extrinsic parameters of the lidars are determined, which minimize a cost function measuring the differences between the detected landmarks associated with the same real world landmark. More precisely, it can measure the difference between the detected lines belonging to the same group (or "cluster") from step 206. This cost function takes into account the position parameters of these bitters within a frame and the corresponding pose of the vehicle, interpolated for the same date.

Selon un mode de réalisation de l’invention, cette minimisation peut se faire de façon itérative au moyen, par exemple, de l’algorithme de Levenberg-Marquardt.According to one embodiment of the invention, this minimization can be done iteratively using, for example, the Levenberg-Marquardt algorithm.

L’algorithme de Levenberg-Marquardt, ou algorithme LM, permet d'obtenir une solution numérique au problème de minimisation d'une fonction, souvent non linéaire et dépendant de plusieurs variables. L'algorithme interpole l'algorithme de GaussNewton et l'algorithme du gradient. Plus stable que celui de Gauss-Newton, il trouve une solution même s'il est démarré très loin d'un minimum.The Levenberg-Marquardt algorithm, or LM algorithm, provides a numerical solution to the problem of minimizing a function, often non-linear and dependent on several variables. The algorithm interpolates the GaussNewton algorithm and the gradient algorithm. More stable than that of Gauss-Newton, it finds a solution even if it is started very far from a minimum.

Cet algorithme est classique et bien connu de l’homme du métier. L’encyclopédie en ligne Wikipedia en fournit des explications, mais il est également possible de se référer à des librairies d’algorithmes, ou aux articles fondamentaux :This algorithm is conventional and well known to those skilled in the art. The online encyclopedia Wikipedia provides explanations, but it is also possible to refer to libraries of algorithms, or to fundamental articles:

K. Levenberg, « A Method for the Solution of Certain Problems in Least Squares », dans Quart. Appl. Math. 2, 1944, p. 164-168K. Levenberg, "A Method for the Solution of Certain Problems in Least Squares", in Quart. Appl. Math. 2, 1944, p. 164-168

D. Marquardt, « An Algorithm for Least-Squares Estimation of Nonlinear Parameters », dans SIAM J. Appl. Math. 11, 1963, p. 431-441D. Marquardt, "An Algorithm for Least-Squares Estimation of Nonlinear Parameters", in SIAM J. Appl. Math. 11, 1963, p. 431-441

D’autres algorithmes proches ou basés sur l’algorithme de Levenberg-Marquardt sont bien évidemment également utilisables et accessibles à l’homme du métier.Other algorithms close to or based on the Levenberg-Marquardt algorithm are obviously also usable and accessible to those skilled in the art.

On peut alors chercher à déterminer d’une part la pose de chacun des lidars du système de supervision, soit 5 paramètres extrinsèques par lidar; ainsi que l’équation des plans verticaux. Un des avantages supplémentaires du procédé est que puisque les équations des plans sont considérés comme des inconnus du problème, il n’est pas nécessaire d’avoir des conditions a priori sur l’environnement dans lequel évolue le véhicule.We can then seek to determine on the one hand the installation of each of the lidars of the supervision system, ie 5 extrinsic parameters per lidar; as well as the equation of the vertical planes. One of the additional advantages of the method is that since the equations of the plans are considered as unknowns of the problem, it is not necessary to have a priori conditions on the environment in which the vehicle operates.

On considère qu’un plan Ilj est associé à nj segments de droite lg avec 1 < i < n3 We consider that a plane Ilj is associated with nj line segments lg with 1 <i <n 3

Chaque segment est définie par ces deux extrémités Mi,j et Nij et le plan flj est défini par son équation cartésienne.Each segment is defined by these two ends Mi, j and Nij and the plane flj is defined by its Cartesian equation.

Une fonction FO de coût possible peut être :A possible cost FO function can be:

[ Lidars ’ Plans ) = ZZkH.nJ/(7V,J,nJ) j i<i<n} dans laquelle d(P,ü) est la distance euclidienne entre le point P et le plan Π.[Lidars' Plans) = ZZkH.nJ + £ / (7V, J , nJ) j i <i <n } in which d (P, ü) is the Euclidean distance between the point P and the plane Π.

Cette fonction de coût est calculée à partir de deux familles de paramètres qui définissent respectivement les paramètres extrinsèques des lidars et l’équation des plans. Minimiser cette fonction permet d’obtenir les paramètres des lidars pour lesquels les écarts entre chaque segment de droite [Mg, Ng] et le plan flj modélisant l’amer associé dans le monde réel est minimal. Ces plans n’étant pas connus, ils font également partie des paramètres à déterminer lors du processus de minimisation.This cost function is calculated from two families of parameters which respectively define the extrinsic parameters of the lidars and the equation of the plans. Minimizing this function makes it possible to obtain the parameters of the lidars for which the differences between each line segment [Mg, Ng] and the flj plane modeling the associated bitter in the real world is minimal. These plans are not known, they are also part of the parameters to be determined during the minimization process.

Différentes mises en oeuvre sont possibles pour minimiser cette fonction, et également pour définir les plans verticaux. Toutefois ainsi que mentionné plus haut, une application directe de l’algorithme de Levenberg-Marquardt permet de résoudre un tel cas d’optimisation d’une fonction de coût définie, comme ici, d’une somme de distances au carré.Different implementations are possible to minimize this function, and also to define the vertical planes. However, as mentioned above, a direct application of the Levenberg-Marquardt algorithm makes it possible to solve such a case of optimization of a defined cost function, as here, of a sum of squared distances.

Une méthode simple de définition des plans verticaux consiste à considérer que les verticales sont parfaitement verticales. Dès lors, il est possible de définir un plan vertical par uniquement deux paramètres qui peuvent être la distance do entre l’origine d’un repère et un point A le plus proche de cette origine O, ainsi qu’un angle Θ entre l’axe des abscisses et le segment orienté liant l’origine O à ce point A. La figure 3 schématise cette définition possible d’un plan vertical et présente une projection du plan Π sur le plan horizontal formé par les axes des abscisses X et des ordonnées Y.A simple method of defining vertical planes is to consider that the verticals are perfectly vertical. Consequently, it is possible to define a vertical plane by only two parameters which can be the distance do between the origin of a reference mark and a point A closest to this origin O, as well as an angle Θ between abscissa axis and the oriented segment linking the origin O to this point A. Figure 3 schematizes this possible definition of a vertical plane and presents a projection of the plane Π on the horizontal plane formed by the axes of the abscissae X and ordinates Y.

L’équation d’un plan vertical Π peut alors s’écrire : x.cos(6)+y.sin(6)-do=0The equation of a vertical plane Π can then be written: x.cos (6) + y.sin (6) -do = 0

Cette hypothèse sur l’exacte verticalité peut impacter la précision de l’étalonnage. Même si le sol semble plat et horizontal, la position des caméras peut engendrer une légère inclinaison. Une autre mise en œuvre consiste à ajouter deux autres paramètres, α,β, qui définissent cet axe vertical V, par ν=(α,β,1)τ. Ces deux paramètres peuvent être initialisés à zéro et être adaptés pendant le processus itératif de minimisation.This assumption about exact verticality can impact the accuracy of the calibration. Even if the ground seems flat and horizontal, the position of the cameras can cause a slight tilt. Another implementation consists in adding two other parameters, α, β, which define this vertical axis V, by ν = (α, β, 1) τ . These two parameters can be initialized to zero and be adapted during the iterative minimization process.

L’équation d’un plan vertical Π peut alors s’écrire : x.cos(6)+y.sin(6)+z(-oc.cos(6)^.sin(6))-do=0The equation of a vertical plane Π can then be written: x.cos (6) + y.sin (6) + z (-oc.cos (6) ^. Sin (6)) - do = 0

Dans cette écriture, les paramètres α,β sont communs à tous les plans alors que les paramètres Θ et do sont propres à chaque plan. Ainsi la fonction de coût fait intervenir 5xN+2xM+2 paramètres (M étant le nombre de plans et N le nombre de lidars).In this entry, the parameters α, β are common to all the planes while the parameters Θ and do are specific to each plane. Thus the cost function involves 5xN + 2xM + 2 parameters (M being the number of planes and N the number of lidars).

La figure 4 illustre le résultat de cette étape de minimisation de façon graphique. Dans cette scène correspondant à un extrait d’une cartographie, les lignes claires représentent les amers détectés par le système de perception, et les lignes grises représentent les murs « modélisés », c’est-à-dire la projection des plans verticaux Π.Figure 4 illustrates the result of this minimization step graphically. In this scene corresponding to an extract from a cartography, the clear lines represent the landmarks detected by the perception system, and the gray lines represent the "modeled" walls, that is to say the projection of the vertical planes Π.

Sur la partie gauche, on voit que chaque mur est détecté chacun par un groupe de lignes plus ou moins épais. L’épaisseur de ces groupes est le résultat du mauvais étalonnage des lidars. Au sein de chaque groupe, la minimisation permet de déterminer les paramètres d’étalonnage minimisant l’épaisseur de ces groupes, ainsi qu’il apparaît sur la partie droite correspondant à la même scène.On the left side, we see that each wall is detected each by a group of more or less thick lines. The thickness of these groups is the result of the poor calibration of the lidars. Within each group, minimization determines the calibration parameters that minimize the thickness of these groups, as it appears on the right side corresponding to the same scene.

Le procédé selon l’invention s’applique particulièrement bien à un système de perception permettant à un véhicule de détecter des obstacles, notamment des murs. Elle est particulièrement efficace lorsque les lidars balayent un plan horizontal de l’espace environnant.The method according to the invention applies particularly well to a perception system allowing a vehicle to detect obstacles, in particular walls. It is particularly effective when the lidars scan a horizontal plane of the surrounding space.

Des essais expérimentaux démontrent que le procédé selon l’invention permet de retrouver la pose des lidars avec une précision de l’ordre de 2 cm pour la position et 2° pour l’orientation.Experimental tests demonstrate that the method according to the invention allows the placement of the lidars to be recovered with an accuracy of the order of 2 cm for the position and 2 ° for the orientation.

Bien entendu, la présente invention n'est pas limitée aux exemples et au mode de réalisation décrits et représentés, mais elle est susceptible de nombreuses variantes accessibles à l'homme de l'art.Of course, the present invention is not limited to the examples and to the embodiment described and shown, but it is susceptible of numerous variants accessible to those skilled in the art.

Claims (10)

REVENDICATIONS 1. Procédé de détermination des paramètres extrinsèques d’un système de perception embarqué sur un véhicule (100) parcourant un trajet et comprenant un ensemble de télémètres (Ll, L2) fournissant des flux de trames à un dispositif de traitement (110), ledit procédé comprenant la détermination de la pose dudit véhicule en fonction du temps, et étant caractérisé en ce qu’il comprend la détection d’amers au sein desdits flux de trames correspondant à des amers du monde réel, puis la détermination des paramètres extrinsèques minimisant une fonction de coût mesurant les écarts entre les amers détectés associés à un même amer du monde réel.1. Method for determining the extrinsic parameters of a perception system on board a vehicle (100) traveling a route and comprising a set of rangefinders (L1, L2) supplying frame flows to a processing device (110), said device process comprising determining the pose of said vehicle as a function of time, and being characterized in that it comprises the detection of bitters within said flow of frames corresponding to bitters in the real world, then the determination of extrinsic parameters minimizing a cost function measuring the differences between the detected landmarks associated with the same real world landmark. 2. Procédé selon la revendication précédente, dans lequel ladite pose est déterminée par une centrale inertielle.2. Method according to the preceding claim, wherein said pose is determined by an inertial unit. 3. Procédé selon la revendication 1, dans lequel on détermine les paramètres d’étalonnage d’au moins une caméra vidéo (Cl, C2) appartenant audit système de perception, puis on détermine ladite pose en fonction desdits paramètres.3. Method according to claim 1, in which the calibration parameters of at least one video camera (C1, C2) belonging to said perception system are determined, then said pose is determined as a function of said parameters. 4. Procédé selon la revendication précédente, dans lequel la détermination desdits paramètres d’étalonnage de ladite au moins une caméra vidéo comprend la reconstruction de cartographie de l’environnement dudit véhicule comportant des amers 3D modélisant les amers du monde réel, l’optimisation d’au moins une cartographie correspondant à une première séquence d’images provenant de ladite au moins une caméra vidéo, en considérant au moins un paramètre extrinsèque et/ou au moins un paramètre intrinsèque et/ou au moins un paramètre de pose et/ou un paramètre d’amer 3D comme constant, et l’optimisation d’au moins une cartographie correspondant à une deuxième séquence d’images plus longue que la première séquence d’images et incluant la première séquence d’images, en considérant ledit au moins un paramètre extrinsèque et/ou ledit au moins un paramètre intrinsèque et/ou ledit au moins un paramètre de pose et/ou un paramètre d’amer 3D comme variable de manière à l’estimer.4. Method according to the preceding claim, in which the determination of said calibration parameters of said at least one video camera comprises the reconstruction of cartography of the environment of said vehicle comprising 3D landmarks modeling the real world landmarks, the optimization of '' at least one mapping corresponding to a first sequence of images from said at least one video camera, by considering at least one extrinsic parameter and / or at least one intrinsic parameter and / or at least one setting parameter and / or one 3D bitter parameter as constant, and the optimization of at least one mapping corresponding to a second sequence of images longer than the first sequence of images and including the first sequence of images, considering said at least one extrinsic parameter and / or said at least one intrinsic parameter and / or said at least one setting parameter and / or a bitter parameter 3D as a variable to estimate it. 5. Procédé selon l’une des revendications précédentes, dans lequel les amers détectés sont regroupés en fonction d’un critère de proximité.5. Method according to one of the preceding claims, in which the detected landmarks are grouped according to a proximity criterion. 6. Procédé selon l’une des revendications précédentes, dans lequel lesdits amers sont des segments de droite6. Method according to one of the preceding claims, wherein said landmarks are straight segments 7. Procédé selon les revendications 5 et 6, dans lequel ladite fonction de coût mesure l’écart entre les lignes détectées appartenant à un groupe.7. Method according to claims 5 and 6, wherein said cost function measures the difference between the detected lines belonging to a group. 8. Procédé selon l’une des revendications précédentes, dans lequel la minimisation de ladite fonction de coût se fait de façon itérative au moyen d’un algorithme de type LevenbergMarcquardt.8. Method according to one of the preceding claims, in which the minimization of said cost function is done iteratively using a LevenbergMarcquardt type algorithm. 9. Programme d’ordinateur comprenant des instructions logicielles mettant en oeuvre un procédé selon l’une des revendications précédentes, lorsque déployées sur un dispositif de traitement de l’information.9. Computer program comprising software instructions implementing a method according to one of the preceding claims, when deployed on an information processing device. 10. Dispositif de traitement (110) pour la détermination des paramètres extrinsèques d’un système de perception embarqué sur un véhicule (100) parcourant un trajet et comprenant un ensemble de télémètres (Ll, L2) fournissant 5 des flux de trames audit dispositif de traitement (110), comportant les moyens logiciels et/ou matériels pour la mise en œuvre du procédé selon l’une des revendications 1 à 8.10. Processing device (110) for determining the extrinsic parameters of a perception system on board a vehicle (100) traveling a route and comprising a set of rangefinders (L1, L2) supplying streams of frames to said device processing (110), comprising the software and / or hardware means for implementing the method according to one of claims 1 to 8. 1/21/2
FR1750802A 2017-01-31 2017-01-31 METHOD AND DEVICE FOR THE CALIBRATION OF A COLLECTION SYSTEM INCLUDING A SET OF LIDAR TELEMETERS Expired - Fee Related FR3062507B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1750802A FR3062507B1 (en) 2017-01-31 2017-01-31 METHOD AND DEVICE FOR THE CALIBRATION OF A COLLECTION SYSTEM INCLUDING A SET OF LIDAR TELEMETERS
PCT/FR2018/050210 WO2018142057A1 (en) 2017-01-31 2018-01-30 Method and device for calibrating a perception system including a set of lidar rangefinders

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1750802A FR3062507B1 (en) 2017-01-31 2017-01-31 METHOD AND DEVICE FOR THE CALIBRATION OF A COLLECTION SYSTEM INCLUDING A SET OF LIDAR TELEMETERS
FR1750802 2017-01-31

Publications (2)

Publication Number Publication Date
FR3062507A1 true FR3062507A1 (en) 2018-08-03
FR3062507B1 FR3062507B1 (en) 2020-05-15

Family

ID=59253596

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1750802A Expired - Fee Related FR3062507B1 (en) 2017-01-31 2017-01-31 METHOD AND DEVICE FOR THE CALIBRATION OF A COLLECTION SYSTEM INCLUDING A SET OF LIDAR TELEMETERS

Country Status (2)

Country Link
FR (1) FR3062507B1 (en)
WO (1) WO2018142057A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240017731A1 (en) * 2022-07-12 2024-01-18 Gm Cruise Holdings Llc Drive-through calibration process

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3699630A1 (en) 2019-02-25 2020-08-26 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH System and method for compensating a motion of a vehicle component
US11117591B2 (en) 2019-05-08 2021-09-14 Pony Ai Inc. System and method for recalibration of an uncalibrated sensor
US10726579B1 (en) 2019-11-13 2020-07-28 Honda Motor Co., Ltd. LiDAR-camera calibration
US11210535B1 (en) 2020-08-17 2021-12-28 Ford Global Technologies, Llc Sensor fusion
CN112051591B (en) * 2020-08-31 2022-11-29 广州文远知行科技有限公司 Detection method and related device for laser radar and inertial measurement unit
CN113311412B (en) * 2021-05-13 2024-03-01 哈尔滨工业大学 Six-dimensional external parameter calibration method of lidar sensor for mobile robots

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2981185B1 (en) 2011-10-10 2014-02-14 Univ Blaise Pascal Clermont Ii METHOD OF CALIBRATING A COMPUTER VISION SYSTEM ON A MOBILE

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHAO GAO ET AL: "On-line calibration of multiple LIDARs on a mobile vehicle platform", 2010 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION : ICRA 2010 ; ANCHORAGE, ALASKA, USA, 3 - 8 MAY 2010, IEEE, PISCATAWAY, NJ, USA, 3 May 2010 (2010-05-03), pages 279 - 284, XP031743815, ISBN: 978-1-4244-5038-1 *
DAVISON: "Real-time simultaneous localisation and mapping with a single camera", PROCEEDINGS OF THE EIGHT IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION. (ICCV). NICE, FRANCE, OCT. 13 - 16, 2003., 1 January 2003 (2003-01-01), US, pages 1403, XP055391722, ISBN: 978-0-7695-1950-0, DOI: 10.1109/ICCV.2003.1238654 *
HUIJING ZHAO ET AL: "Sensor alignment towards an omni-directional measurement using an intelligent vehicle", INTELLIGENT VEHICLES SYMPOSIUM, 2009 IEEE, IEEE, PISCATAWAY, NJ, USA, 3 June 2009 (2009-06-03), pages 292 - 298, XP031489856, ISBN: 978-1-4244-3503-6 *
JAVIER CIVERA ET AL: "Camera self-calibration for sequential Bayesian structure from motion", 2009 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION : (ICRA) ; KOBE, JAPAN, 12 - 17 MAY 2009, IEEE, PISCATAWAY, NJ, USA, 12 May 2009 (2009-05-12), pages 403 - 408, XP031509953, ISBN: 978-1-4244-2788-8 *
SEBASTIAN HANER ET AL: "A step towards self-calibration in SLAM: Weakly calibrated on-line structure and motion estimation", COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), 2010 IEEE COMPUTER SOCIETY CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 13 June 2010 (2010-06-13), pages 59 - 64, XP031728443, ISBN: 978-1-4244-7029-7 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240017731A1 (en) * 2022-07-12 2024-01-18 Gm Cruise Holdings Llc Drive-through calibration process
US12221119B2 (en) * 2022-07-12 2025-02-11 Gm Cruise Holdings Llc Drive-through calibration process

Also Published As

Publication number Publication date
WO2018142057A1 (en) 2018-08-09
FR3062507B1 (en) 2020-05-15

Similar Documents

Publication Publication Date Title
FR3062507A1 (en) METHOD AND DEVICE FOR CALIBRATING A PERCEPTION SYSTEM COMPRISING A SET OF LIDAR TELEMETERS
JP7398506B2 (en) Methods and systems for generating and using localization reference data
US11237004B2 (en) Log trajectory estimation for globally consistent maps
Zhang et al. LOAM: Lidar odometry and mapping in real-time.
Tao et al. Mapping and localization using GPS, lane markings and proprioceptive sensors
US8660338B2 (en) Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
TW202001924A (en) Systems and methods for updating a high-resolution map based on binocular images
JP6432825B2 (en) Method and apparatus for aligning three-dimensional point cloud data and moving body system thereof
US12278944B2 (en) Automated real-time calibration
EP2766872B1 (en) Method of calibrating a computer-based vision system onboard a craft
Kunz et al. Map building fusing acoustic and visual information using autonomous underwater vehicles
CN110859044A (en) Integrated sensor calibration in natural scenes
Wei et al. GPS and Stereovision‐Based Visual Odometry: Application to Urban Scene Mapping and Intelligent Vehicle Localization
Zienkiewicz et al. Extrinsics autocalibration for dense planar visual odometry
KR102342945B1 (en) Estimating location method and apparatus for autonomous driving with surround image
Liu et al. SemAlign: Annotation-free camera-LiDAR calibration with semantic alignment loss
WO2024077084A1 (en) Dual-function depth camera array for inline 3d reconstruction of complex pipelines
Baek et al. Curbscan: Curb detection and tracking using multi-sensor fusion
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
EP3435286A1 (en) Imaging control device and imaging control method
NL2016718B1 (en) A method for improving position information associated with a collection of images.
Fanta‐Jende et al. Co‐registration of panoramic mobile mapping images and oblique aerial images
Roh et al. Aerial image based heading correction for large scale SLAM in an urban canyon
JP2022513828A (en) How and system to generate an environmental model for positioning
FR3091591A1 (en) Device for estimating the speed vector of a mobile rigid body

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180803

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

ST Notification of lapse

Effective date: 20220905