[go: up one dir, main page]

FR3014229A1 - Reconnaissance de formes par correction d'image - Google Patents

Reconnaissance de formes par correction d'image Download PDF

Info

Publication number
FR3014229A1
FR3014229A1 FR1361942A FR1361942A FR3014229A1 FR 3014229 A1 FR3014229 A1 FR 3014229A1 FR 1361942 A FR1361942 A FR 1361942A FR 1361942 A FR1361942 A FR 1361942A FR 3014229 A1 FR3014229 A1 FR 3014229A1
Authority
FR
France
Prior art keywords
image
interest
area
content
ground plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1361942A
Other languages
English (en)
Other versions
FR3014229B1 (fr
Inventor
Nicolas Allezard
Mohamed Chaouch
Brice Burger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR1361942A priority Critical patent/FR3014229B1/fr
Priority to PCT/EP2014/075764 priority patent/WO2015082293A1/fr
Publication of FR3014229A1 publication Critical patent/FR3014229A1/fr
Application granted granted Critical
Publication of FR3014229B1 publication Critical patent/FR3014229B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

La présente invention concerne une méthode d'analyse du contenu d'une image, comprenant des étapes de réception de l'indication d'une zone d'intérêt dans l'image ainsi que de paramètres associés à la zone d'intérêt et de normalisation, à l'aide de ces paramètres, de la portion de l'image correspondant à la zone d'intérêt de manière à obtenir une portion d'image modifiée de dimensions comparables avec un ou plusieurs modèles prédéfinis. Des développements comprennent des aspects de classification automatique, de qualification de zones en cibles ou obstacles, de définitions de zones de danger, de filtrage par motifs, de balayage de l'image par des modèles prédéfinis sur le plan du sol. Les aspects de système incluent l'emploi de caméras Time-of-Flight, infrarouge ou stéréoscopique, de radars et de capteurs 3D.

Description

3014229 RECONNAISSANCE DE FORMES PAR CORRECTION D'IMAGE Domaine de l'invention L'invention concerne le domaine du traitement d'image et en particulier celui de la reconnaissance des formes par analyse du contenu de l'image. Spécifiquement, l'invention concerne la détection de modèles prédéfinis, comme des piétons présents sur un chantier ou sur la chaussée. Etat de la Technique Les solutions existantes pour la détection d'objets ou "cibles" (au 15 sens de modèles connus et recherchés, comme des personnes, des véhicules ou tout autre objet de forme connue), par analyse d'image fixes ou de flux vidéo, sont relativement imparfaites. Les images fournies par les capteurs d'acquisition d'images 20 présentent des distorsions géométriques, d'autant plus importantes que le capteur est incliné par rapport à la scène observée. Ces distorsions engendrent un écart d'apparence significatif entre le modèle recherché (« cible idéale ») et son observation réelle.
25 Pour remédier à ces distorsions géométriques, il est connu dans une première approche d'essayer de compenser l'inclinaison de façon globale en appliquant une homographie (application projective) sur l'image globale pour en déduire une image redressée. Le principe sous-jacent consiste donc à traiter l'image globalement (par redressement).
2 3014229 Mais cette approche engendre à son tour des distorsions de perspective (étirements de certaines parties de l'image) et génère des images supplémentaires, dont il faut assurer le stockage (qui peut devenir volumineux).
5 Selon une seconde approche, il est connu de réaliser un apprentissage approprié pour chaque configuration d'utilisation et pour chaque zone de l'image. Cette approche n'est pas automatisée ni automatisable, les modèles de classification n'étant pas génériques. Le 10 cas échéant, une telle approche requiert une grande quantité de données d'apprentissage et le processus complet peut être de longue durée (acquisition, labellisation et apprentissage). L'article intitulé "Scene warping: Layer-based stereoscopic image resizing" par Ken-Yi Lee, Cheng-Da Chung et Yung-Yu Chuang, paru dans Computer Vision and Pattern Recognition (IEEE Conference pages 49-56, 16-21 juin 2012) présente une approche spécifique quant à une déformation de scène et un redimensionnement d'image stéréoscopique. Cette approche présente des inconvénients que la présente invention se propose de palier, au moins en partie. Résumé de l'invention Certains modes de réalisation de l'invention visent à fournir un procédé pour la reconnaissance de formes et en particulier de reconnaissance d'objets ou de "cibles" par comparaison d'observations issues de capteurs fixes ou mobiles (par exemple de type caméra) avec un ou plusieurs modèles des objets ou cibles ainsi prédéfinis et connus (ces modèles pouvant notamment aussi être issu d'un apprentissage statistique).
3 3014229 Selon certains modes de réalisation particuliers, il est proposé de corriger l'image de façon locale et par rotation 2D. Cela présente le double avantage d'éviter la distorsion de perspective (ce qui améliore par suite les performances de détection) et de ne stocker en sus qu'une 5 fraction de l'image. Avantageusement, certains modes de réalisation de l'invention permettent de conserver un bon niveau de performance quant à la mesure de similarité entre le modèle et l'observation (pouvant aboutir à 10 une classification), quelle que soit la position de la cible dans la scène et quelles que soient les conditions d'acquisition des images (hauteur et inclinaison des capteurs d'acquisition d'images). L'invention trouvera avantageusement application pour de la 15 vidéosurveillance ou de la vidéo-protection. Des exemples d'utilisation pourront comprendre: la détection de piétons dans les espaces publics; l'évitement de collisions en situation de circulation urbaine à l'aide de capteurs fixes ou de capteurs de vision embarqués sur des véhicules en contexte de conduite automatisée; la minimisation des risques de 20 collisions entre des engins ou des robots et des piétons sur un chantier, dans l'enceinte d'une usine, ou en entrepôt logistique; la surveillance de lieux ou d'installation (par exemple par la détection d'intrus, la recherche et la détection de colis abandonnés dans un espace public fréquenté de type aéroport, la détection et la classification de véhicules, etc.); et 25 généralement en toute situation de protection de personnes par rapport à des dangers extérieurs. Dans le cas d'une détection utilisant un apprentissage statistique, il est avantageux d'entraîner le modèle avec des exemples redressés et 30 redimensionnés.
4 3014229 Dans certains modes de réalisation, il est divulgué de corriger l'image de façon locale et par rotation 2D. Cela présente le double avantage d'éviter une distorsion de la perspective (améliorant par suite les performances de détection) et de ne stocker en sus qu'une fraction de 5 l'image. Dans un développement, il est divulgué une méthode d'analyse du contenu d'une image, comprenant les étapes de réception de l'indication d'une zone d'intérêt dans l'image et de paramètres associés à la zone 10 d'intérêt; et une normalisation à l'aide des paramètres associés de la portion de l'image correspondant à la zone d'intérêt de manière à obtenir une portion d'image modifiée de dimensions comparables avec un ou plusieurs modèles prédéfinis.
15 Dans un développement, une zone d'intérêt est désignée (par exemple par un module externe ou une technique de filtrage par motif au sens large). Concrètement, par exemple, une délimitation de l'image ou des coordonnées de pixels ou une portion de l'image est désignée et reçue (le terme "indication" renvoie au fait qu'une référence peut être 20 suffisante, il peut ne pas être besoin de transmettre les informations de pixels de la portion d'image). Accompagnant cette réception de l'indication d'une zone d'intérêt (ou réception de la zone d'intérêt en soi), des paramètres sont reçus (simultanément, ou avant, ou après). Ces paramètres notamment peuvent comprendre des informations de 25 coordonnées qui vont servir à l'étape suivante de normalisation (ou de redressement et/ou de redimensionnement). Selon les systèmes de coordonnées (x,y,z), polaire, sphérique, etc. ces informations prendront plusieurs formes (équivalentes). Selon un certain repère ou système de coordonnées, il est besoin de connaître la position de la zone d'intérêt 30 dans le contenu de l'image (pixels de l'image, contenu 2D), ainsi qu'une information de profondeur ("depth" ou "z") relative à cette zone d'intérêt.
5 3014229 Ces paramètres servent à la normalisation de la portion d'image. En d'autres termes et par exemple, la normalisation sera différente pour une zone d'intérêt située près des bords de l'image et pour une zone d'intérêt située en plein centre de l'image (là où les déformations optiques sont les 5 moins importantes, du moins en théorie). La normalisation comprend une ou plusieurs transformations géométriques et/ou photométriques. L'étape de normalisation peut notamment comprendre une ou plusieurs des opérations telles déplacement, rotation, mise à l'échelle, recalage, etc. L'étape de normalisation est détaillée ci-après. La zone d'intérêt peut être 10 reçue d'un module externe (par exemple spécialisé) ou bien déduite de l'analyse du contenu de l'image ou des frames vidéo. Néanmoins l'étape de détection de la zone d'intérêt est une étape optionnelle. L'expression "dimensions comparables" désigne des expressions telles que "mêmes dimensions" ou "dimensions similaires", c'est-à-dire de manière au moins 15 suffisante pour pouvoir procéder aux comparaisons avec les objets de la base de connaissance. Cette base de connaissances est une base de données interrogeable, qui contient des modèles ou objets prédéfinis. Des développements spécifiques sur ces modèles sont fournis ci-après.
20 Dans un développement, la normalisation de la portion d'image comprend une ou plusieurs transformations géométriques et photométriques de la portion d'image, notamment le redressement et le redimensionnement du contenu de la portion de l'image.
25 L'expression "transformation géométrique et photométrique de normalisation" peut se réduite à l'expression générale "normalisation". Une transformation géométrique comprend des déplacements (conservant les distances et les angles orientés), des isométries (conservant les distances et les angles), les similitudes (conservant les 30 rapports de distance), les transformations affines (conservant les parallélismes), les transformations homographiques (conservant les 6 3014229 droites), et les inversions (conservant l'ensemble des droites et des cercles dans le cas plan). Une transformation peut aussi comprendre une ou plusieurs transformations bidifférentiables (ou difféomorphismes), des transformations conformes ou anticonformes (conservant les angles), des 5 transformations équivalentes ou équiaréales (conservant les aires dans le cas plan), des transformations bicontinues ou homéomorphismes (conservant les voisinages des points), des déplacements (réflexions, des symétries centrales, des translations, des rotations), des homothéties, des affinités. Une transformation photométrique désigne une ou plusieurs 10 opérations de correction ou de modification relatives au flux lumineux, à l'intensité lumineuse, à l'éclairement, à la luminance, l'exposition (lumination), clarté et colorimétrie, etc. Dans un développement, la méthode comprend en outre la 15 réception d'une estimation du plan du sol dans le contenu de l'image. Le sol est celui représenté dans le contenu de l'image. Le plan du sol, son estimation ou son "équation" (mathématique exacte, voire MNT, ou son approximation planaire) peut être directement estimé (depuis la 20 reconstruction 3D de la scène capturée en 2D par exemple) ou indirectement fournie par les moyens de prise de vue (caméra TOF, caméra stéréoscopique, etc.). L'utilisation d'une estimation du sol (et dans un sous cas particulier d'une estimation du plan du sol) permet une optimisation avantageuse pour les calculs en aval. Le plan du sol permet 25 notamment les étapes de balayage par motifs ("par boîte") de manière efficace. Cette utilisation reste néanmoins optionnelle et dans tous les cas peut être obtenue par des moyens divers. Dans le cas d'une implémentation vidéo, l'accumulation d'informations peut permettre une détermination plus sûre du plan du sol.
30 7 3014229 Dans un développement, le plan du sol est estimé par la reconstruction en trois dimensions de la scène représentée dans le contenu de l'image.
5 Dans un développement, la reconstruction en trois dimensions de la scène représentée dans le contenu de l'image s'effectuant par appariement de points en correspondance entre deux images de type stéréoscopique.
10 Dans un développement, la méthode comprend en outre une étape de calcul de mesure de similarité entre la zone d'intérêt normalisée et un ou plusieurs modèles prédéfinis. Une mesure de similarité correspond à un calcul de distance. Différents calculs de similarité peuvent être exécutés en parallèle (systèmes concourants). Il n'est pas forcément 15 nécessaire d'arriver à des décisions binaires ("piéton" oui/non) car des approches probabilistes (e.g. 30%-70%) peuvent être utiles dans certaines situations. Dans un développement, la méthode comprend en outre une étape 20 de classification automatique de la zone d'intérêt normalisée par comparaison avec un ou plusieurs modèles prédéfinis. Il peut être appliqué un ou plusieurs seuils prédéfinis (statiques ou dynamiques). Ceci demeure entièrement optionnel.
25 Dans un développement, un modèle prédéfini est un design CAO ou un dessin manuel ou une image ou un objet résultant d'un apprentissage statistique. Dans un développement, la méthode comprend en outre une étape 30 de qualification de la zone d'intérêt en cible ou en obstacle et une étape de définition d'une zone de danger associée à la cible et/ou l'obstacle, 8 3014229 ladite zone de danger comprenant ou étant associée à une longueur ou une surface ou un intervalle de temps. Dans un mode de réalisation, les moyens d'acquisitions d'image 5 sont fixes et la zone de danger peut être statique ou invariante, par exemple mesurée en mètres autour de la zone d'intérêt. Dans d'autres modes de réalisation, la zone de danger peut être continuellement (ou au moins de manière intermittente, régulière ou irrégulière) réévaluée. Par exemple, dans le cas où les moyens d'acquisition d'images sont 10 embarqués et mobiles (e.g. voiture), la distance de sécurité autour d'une zone d'intérêt associée de manière probabiliste à un "piéton" peut être régulièrement réévaluée (optionnellement avec une boucle de rétroaction agissant sur les commandes du véhicule embarquant les moyens de prise de vue).
15 Dans un développement, l'indication de la zone d'intérêt résulte d'un filtrage par motif du contenu de l'image. Dans un développement, des techniques de filtrage par motif 20 (pattern matching en anglais) peuvent être utilisées. Dans un développement, l'indication de la zone d'intérêt résulte d'un filtrage par détection de visages du contenu de l'image. Dans un développement, des techniques de détection de visages (face detection 25 en anglais) peuvent être utilisées. Ces algorithmes sont rapides et fiables. Dans le cas d'un flux vidéo, la probabilité de détection augmente. La détection d'un visage pourra associer la qualité de "piéton" à une zone d'intérêt.
30 Dans un développement, le filtrage par motif s'effectue par balayage du contenu de l'image par un modèle prédéfini, le balayage 9 3014229 s'effectuant à différentes positions et échelles. Dans un développement spécifique, optionnel, le balayage peut s'effectuer au moyen d'une fenêtre glissante sur le sol (ou plan de sol) estimé et une détection peut être déclenchée au-delà d'un seuil prédéfini de taux de remplissage (par 5 exemple).Le taux de remplissage peut être défini comme le pourcentage en pixels d'une zone verticale cohérente. Dans un développement, il est divulgué un système comprenant des moyens pour mettre en oeuvre une ou plusieurs étapes du procédé, 10 le système comprenant un ou plusieurs moyens d'acquisition d'images choisis parmi une caméra Time-of-Flight TOF, une caméra infrarouge et une caméra stéréoscopique. Dans un développement, le système comprenant en outre un ou 15 plusieurs moyens de détection et de mesure choisis parmi un radar, une paire de mono-caméra calibrées, un capteur 3D ou une tête stéréoscopique calibrée. Dans un développement, l'estimation du plan du sol est fournie par 20 les moyens d'acquisition d'images. Dans un développement, il est divulgué un produit programme d'ordinateur, ledit programme d'ordinateur comprenant des instructions de code permettant d'effectuer une ou plusieurs des étapes de la méthode, 25 lorsque ledit programme est exécuté sur un ordinateur. Description des figures Différents aspects et avantages de l'invention vont apparaitre en 30 appui de la description d'un mode préféré d'implémentation de l'invention mais non limitatif, avec référence aux figures ci-dessous : 10 3014229 Les figures 1A, 1B et 1C illustrent des exemples de déformations géométriques liées aux moyens d'acquisition d'image courants et/ou après redressement; 5 La figure 2 illustre un exemple de stratégie de fenêtres glissantes sur une image redressée et/ou redimensionnée, avec une estimation du plan du sol et des indications de profondeur; 10 La figure 3 illustre le principe de détection de cibles dans une zone de danger; La figure 4 illustre des exemples d'imagettes d'apparence et de disparité issues d'une image globale; 15 La figure 5 illustre différents exemples d'étapes pour calculer une matrice de transformation permettant le redressement et le redimensionnement d'une cible dans une imagette; 20 La figure 6 présente certains aspects relatifs au calcul de l'imagette par interpolation. La figure 7 illustre schématiquement un exemple de système de coordonnées qui peut être utilisé dans certaines mises en oeuvre de 25 l'invention; La figure 8 illustre un exemple de principe d'exploitation d'un flux vidéo.
30 11 3014229 Description détaillée de l'invention Plusieurs méthodes (et systèmes associés) sont divulgués pour la détection de formes ou d'objets, correspondant à des "cibles" (au sens de 5 modèles connus et recherchés dans le contenu de l'image), par exemple des véhicules ou des piétons dans des images fixes ou animées (séquences d'images ou flux d'images). De manière générale, un des objectifs principaux d'un système de 10 détection par vision par ordinateur (encore dit de vision artificielle ou de vision par ordinateur ou bien encore de vision robotique) est de reconnaître et de localiser avec précision des formes, préalablement définies et connues dans l'image. Ce type de système comprend généralement l'utilisation de capteurs d'acquisition d'images (par exemple 15 une ou plusieurs caméras de type Time-of-Flight TOF ou infrarouge ou stéréoscopique, ou bien encore une combinaison de ces différentes technologies), l'utilisation d'un procédé ou de méthodes calculant le plan du sol et la position d'un obstacle vertical (par exemple à l'aide d'un système radar, d'un dispositif utilisant une mono-caméra calibrée dans le 20 cas d'un capteur fixe, un capteur 3D ou une tête stéréoscopique calibrée dans le case d'un capteur mobile), l'utilisation d'une ou de plusieurs méthodes de classification automatique (éventuellement concurrentes) visant à déterminer si l'apparence du motif observé est proche de celle d'un modèle connu. Ce modèle peut lui-même être issu d'un design CAO, 25 d'un dessin manuel, d'une image ou de façon plus élaborée d'un apprentissage statistique (généralement constitué de deux phases, une première phase d'apprentissage dite traitement "offline" et une seconde phase de détection dite de traitement "online").
30 Les figures 1A, 1B et 1C illustrent des exemples de déformations géométriques liées aux moyens d'acquisition d'image courants et/ou 12 30142 2 9 après redressement et/ou redimensionnement. Les images fournies par les capteurs présentent souvent des distorsions géométriques. Ces dernières varient sensiblement selon les 5 conditions d'acquisition des images et également selon les conditions d'exploitations ultérieures de ces mêmes images. Concernant la position de la cible sur le plan du sol, il est par exemple assez fréquent d'observer que plus l'objet se trouve sur les côtés de l'image (près des bords), plus la distorsion est importante. Concernant la hauteur et l'inclinaison du 10 capteur d'acquisition d'images (par exemple correspondant aux caméras fixes lors de lors installation), on constate également que plus le capteur de prise de vue est incliné par rapport à la scène observée, plus la distorsion sera importante. Les conditions de montage des capteurs d'acquisition jouent également un rôle. Par exemple, dans le cas de 15 capteurs d'acquisition montés sur l'avant d'une voiture, on observe que le chargement du véhicule peut modifier les prises de vues (une voiture lourdement chargée à l'arrière changera l'angle d'inclinaison de la caméra par exemple).
20 La figure 1A est une représentation d'une scène 100 représentant un piéton 101 à proximité de plusieurs véhicules. Les figures 1B et 1C représentent des exemples de prises de vue 110 et 120 de cette scène 100. Les deux figures 1B et 1C illustrent donc des exemples de déformations géométriques, telles que présentées précédemment, et 25 telles que capturées par exemple par des capteurs d'acquisition d'images usuels. On y observe les déformations typiques sur les bords de l'image (déformation radiale) sur la figure 1B. Le véhicule 111 proche de la ligne d'horizon est particulièrement courbé, rendant une éventuelle reconnaissance plus difficile. La déformation trapézoïdale illustrée à la 30 figure 1C, par exemple en raison d'une inclinaison de la l'appareil de prise de vue, conserve les lignes horizontales mais déforme les lignes 13 3014229 verticales. Dans ces deux images déformées, la personne 101 qui se tient verticalement apparait en particulier penchée (102, 103). Il résulte de ces déformations géométriques d'image une 5 dégradation générale des performances, en particulier des non-détections (absence de détection), notamment car les exemples ayant fait l'objet d'un apprentissage et/ou d'une classification n'ont plus nécessairement la même apparence (e.g. forme générale ou empreinte visuelle). Ces distorsions engendrent donc un écart d'apparence significatif entre le 10 modèle recherché (« cible idéale ») et son observation réelle. Compenser l'inclinaison (c'est-à-dire traiter l'image globalement, et par redressement) peut également parfois provoquer d'autres distorsions de perspective (certaines parties de l'image se retrouvent particulièrement 15 étirées). Il importe donc de redresser/redimensionner l'image de manière appropriée pour ne pas dégrader, ou au contraire, améliorer les performances de détection en aval. En outre, un redressement d'image global implique de stocker une image supplémentaire (ce qui peut avoir des conséquences notables en cas de flux d'images ou de prises de vue 20 nombreuses). La figure 2 illustre un exemple de reconstruction 3D de la scène. La figure illustre également l'estimation du plan du sol et/ou des indications de profondeur (230a, 230b, 230c, etc.) A partir d'une image 25 capturée (par exemple selon le capteur incliné et la prise de vue 120), une image redressée est calculée, et les informations de plan du sol, de profondeur et de distance relative des obstacles 210 ou 211 sont également accessibles. Par une stratégie de fenêtres glissantes (222, 223) sur l'image redressée et/ou redimensionnée selon l'invention, la 30 détection de cibles et/ou d'obstacles est effectuée.
14 3014229 Dans un mode de réalisation particulier, il peut être fait usage de la connaissance de l'équation du plan du sol de la scène observée et de la position de l'obstacle vertical dans l'image. Cette connaissance de l'équation du plan du sol peut être reçue d'un module externe et ou 5 fournie par l'appareillage de prise de vue utilisé, ou bien encore déterminé à partir d'informations en deux dimensions. Plusieurs techniques peuvent en effet être mises en oeuvre pour estimer ce plan du sol et une position sur ce dernier. Par exemple, peuvent être utilisé un système radar (qui délivrent des informations de direction et de distance), ou un dispositif 10 utilisant une mono-caméra calibrée, ou un capteur 3D (adaptés ou du même type que ceux disponibles pour le grand public pour des applications de jeux vidéo), ou bien encore une tête stéréoscopique calibrée. Ces différents appareils peuvent être utilisés en combinaison. Par le terme "sol" être entendu, en plus du sens littéral communément 15 admis pour ce terme, la surface plus ou moins plane servant de support de déplacement aux différents objets présents dans la scène. Le sol peut se caractériser par son horizontalité (au moins en moyenne). Un sol peut en effet être cabossé, nivelé, ou plus généralement comprendre divers obstacles (trottoirs, ravins, buttes). La ligne d'horizon servant à 20 l'établissement de cette estimation du plan du sol peut parfois être masquée et compliquer cette même estimation. Il existe différents moyens pour la détermination de ce plan du sol. Par exemple, le plan du sol peut être déduit d'un modèle numérique de 25 terrain associé à des coordonnées de géolocalisation GPS, ou bien encore fourni tel quel par l'appareillage de prises de vue, ou bien encore calculé en fonction du contenu de l'image (ou des images, une pluralité d'images successives permettant l'établissement de ce plan du sol avec un seuil de confiance amélioré. En d'autres termes, la connaissance de 30 l'équation du plan du sol n'est pas indispensable à l'invention, qui peut procéder selon d'autres manières pour appréhender les trois dimensions 15 3014229 de la scène considérée. A titre d'exemple, pour l'estimation du plan du sol, un système stéréoscopique est utilisable. Le cas échéant, la connaissance des paramètres intrinsèques et extrinsèques du système stéréoscopique permettent de procéder à la rectification des images et au 5 calcul des coordonnées 3D des points observés dans la scène capturée dans les deux images acquises. De manière générale, les techniques de vision stéréoscopique et de traitement de données 3D permettent de reconstruire et d'analyser la structure 3D d'une scène capturée. La scène considérée est d'abord capturée ou acquise sous forme d'une paire ou 10 couple d'images prises sous des angles similaires mais néanmoins différents. Pour calculer les coordonnées 3D d'un point de la scène, les coordonnées des deux projections dans les images gauche et droite sont utilisées. Des algorithmes d'appariement identifient, pour un point donné dans une des images, le point correspondant dans l'autre image. Une fois 15 calculées les positions 3D (dans l'espace) de différents points, une reconstruction 3D de la scène peut être effectuée. En particulier, ce type d'information est utilisé pour la phase d'estimation du plan du sol et celle de l'estimation de la position d'un obstacle vertical.
20 La figure 3 illustre un exemple de détection de zones d'intérêt / de cibles par exemple par une stratégie de fenêtres glissantes (301, 302) sur une image redressée et/ou redimensionnée selon l'invention, avec une estimation du plan du sol et/ou des indications de profondeur (303a, 303b, 303c, etc.) A partir d'une image capturée (par exemple selon le 25 capteur incliné et la prise de vue 3A), une image redressée est calculée, et les informations de plan du sol et de profondeur sont également accessibles. La figure 3 illustre une chaîne de traitement selon un mode de mise 30 en oeuvre de l'invention. Une image (par exemple l'image droite d'une capture prise de vue stéréoscopique) est capturée. Cette image est 16 3014229 reproduite à la figure 3A. La figure 3B correspond à l'image rectifiée déduite de l'image 3A: l'équation du plan du sol y est déterminée (les informations de profondeur sont déterminées, dans le cas présent à l'aide de la prise de vue stéréoscopique qui permet par définition ce type de 5 reconstruction 3D). La détection d'obstacles 3D est (éventuellement) effectuée et les zones de danger sont déterminées (non représentées ici). La "boîte" (ou délimitation ou zone ou surface) 301 correspond à la zone d'intérêt global et la boite 302 correspond à l'obstacle vertical ou à la cible recherchée.
10 Dans un mode de réalisation de l'invention, il est procédé à la détection de cibles dans l'image, de façon locale. Sont définies des zones d'intérêt de manière à ce que les obstacles verticaux soient de même gabarit que la cible prédéfinie et connue. Les détections correspondantes 15 sont ensuite isolées, chacune dans une "imagette". Afin d'isoler une ou plusieurs zones d'intérêts dans l'image, certains modes de réalisation de l'invention peuvent utiliser une détection d'obstacles en 3D. Par exemple, pour réaliser cette détection, il est 20 possible de procéder de la façon ci-après décrite. Une même scène est d'abord observée à partir d'une tête stéréoscopique calibrée. Une carte de disparité (représentant l'information 3D) est ensuite reconstruite à partir d'une paire d'images rectifiées pour la transformer ensuite en une image de profondeur "verticalisée". Cette dernière est utilisée pour 25 calculer les obstacles verticaux. La détection de ces derniers s'effectue par une stratégie de fenêtre glissante sur le plan du sol, suivie d'algorithmes de "clustering" (comme l'algorithme de suppression de nonmaximas). Le critère de détection est le taux de remplissage (pourcentage de pixels d'une zone verticale cohérente). Pour une boîte 30 3D, si son taux de remplissage est supérieur à un seuil alors elle est considérée comme un obstacle vertical.
17 3014229 La figure 4 illustre des exemples d'imagettes d'apparence et de disparité. Chaque obstacle vertical de la scène (de même gabarit que la cible) peut être représenté par deux types d'imagette : (a) une imagette 5 d'apparence, et (b) une imagette de disparité (celle qui contient l'information de profondeur). Il est en particulier possible de constater que le piéton est redressé et redimensionné sur les deux imagettes. La figure 5 illustre un exemple de procédé de calcul de la matrice 10 de transformation permettant le redressement et le redimensionnement d'une cible dans une imagette. Ces opérations correspondent à un cas particulier de transformations géométriques de l'image. De manière générale, les imagettes sont normalisées. L'étape de normalisation comprend et résume les opérations telles que : déplacement, rotation, 15 facteur d'échelle et recalage. Le système proposé comprend donc notamment un redimensionnement et un redressement spécifiques des cibles. Selon certains modes de mise en oeuvre, les cibles sont 20 redimensionnées/redressées dans une ou plusieurs imagette à partir des images (brutes ou redressées, qu'elles soient d'apparence ou de disparité) de façon à reproduire la même représentation pour les objets de même classe, et sans surcoût du stockage d'une image supplémentaire.
25 Une méthode est divulguée pour calculer la transformation locale permettant la correction de la distorsion quelle que soit la position de l'obstacle dans la scène, et ceci en fonction de données fournies par des procédés d'estimation de plan du sol et d'estimation de positions 30 d'obstacles verticaux.
18 3014229 Les étapes de redimensionnement (et de redressement) visent à transformer les cibles détectées dans une configuration normalisée et proche de celle observée en temps réel. Les distorsions géométriques de perspective sont diminuées voire annulées. Les images redimensionnées 5 et redressées permettent in fine de meilleures analyses et détections des cibles. En particulier, les correspondances entre les cibles apprises lors de l'apprentissage et celles testées lors de la détection sont améliorées. In fine, cela a pour conséquence d'améliorer les performances de la détection de cibles.
10 De telles étapes de redimensionnement ont aussi pour effet d'optimiser le traitement des imagettes (sous-parties de l'image, de petite taille), et donc optimiser le "scan" (autrement dit le parcours et l'application du détecteur à différentes positions et échelles) lors de la 15 phase de détection. Dans certains modes de réalisation, la technique proposée peut en effet s'effectuer sur des images de dimensions réduites comparées aux dimensions initiales, contrairement à des techniques d'analyse globale pour la correction des distorsions, techniques qui demandent des moyens de stockage supplémentaires.
20 Le calcul des matrices de transformations géométriques est détaillé ci-après. Pour générer une imagette, il faut disposer de l'équation du plan du 25 sol et de la position de l'obstacle vertical. Moyennant ces informations, les transformations géométriques 2D qui permettent le redressement et le redimensionnement de ce dernier sont calculées. Pour une normalisation idéale, il est recommandé de connaître les deux coordonnées, basse et haute de la cible dans la scène (au lieu d'une seule coordonnée basse et 30 une taille prédéfinie de la cible). Ces deux coordonnées sont intégrées dans le calcul des transformations.
19 3014229 Ainsi qu'illustré sur la figure 4, à l'étape 500 sont fournies/reçues un certain nombre de données (valeurs numériques) en entrée (input). Sont disponibles les paramètres intrinsèques de la caméra, l'équation du plan 5 de sol et la position de la cible sur le plan du sol. Par exemple, seront reçues les données comprenant: - p(x, z), la position de la cible sur le plan du sol, - t, la taille de la cible en mètre, 10 - R1, repère plan du sol, R2 repère caméra, R3 repère image et R4 repère imagette, Sont alors définies les différentes matrices de passage: 15 - M12 la matrice de passage du repère plan du sol R1 vers le repère caméra R2, calculée à partir de l'équation du plan du sol, - M23 étant la matrice de passage du repère caméra R2 vers le repère image R3, calculée à partir des paramètres intrinsèques de la caméra, 20 A l'étape 510 sont définies les projections des positions de la cible sur ou dans l'image. Sont notés: - pi(x, 0, z) et qi(x, t, z) les positions de la cible, haute et basse, dans le repère plan du sol R1. 25 - p2 et q2 les positions de la cible, haute et basse, dans le repère caméra R2. - p3 et q3 les positions de la cible, haute et basse, dans le repère image R3.
30 II s'ensuit que : 20 3014229 P2 = M12 * pi, q2 = M12 * qi, P3 = M23 * P2 et q3 = M23 * q2 A l'étape 521 et 522 sont calculés le centre et l'axe de la cible sur l'image par les relations suivantes: c(xc, yc, zc) = (q3+ p3)/2, centre de la cible V(u, v, w) = q3- p3, vecteur représentant l'axe de la cible A l'étape 530, le déplacement D est déterminé par: 10 0 -xc D= 1 0 0 -Yc I 10 0 1 1 15 A l'étape 531, le facteur d'échelle S est déterminé selon: 1 s 0 01 S= 10 s 01 10 0 1 1 20 avec s = t4/t3, facteur t3 =11/1 étant la taille en pixels de la cible sur l'image t4 étant la taille désirée en pixels de la cible sur l'imagette (un paramètre à fixer, par exemple : pour une cible personne de posture 25 debout, t4 est fixé à 80 pixels) A l'étape 532, la rotation R est calculée par: 1 cos -sin 0 1 30 R = 1 sin cos 0 1 10 0 1 1 5 10 21 301 4 2 2 9 avec cos = cos(angle) et sin = sin(angle), angle = arctang(u/v) étant l'angle de la rotation.
5 A l'étape 533, le recalage Dr est fixé selon: 10 0 mx 1 Dr= 10 0 my 1 10 0 1 1 10 mx et my étant des marges à fixer (pour que l'imagette contienne la cible, il faut que mx et my soient suffisamment supérieures à t4 et 14, 14 étant la largeur de la cible sur l'imagette).
15 Enfin, la matrice de transformation M permettant le redressement et le redimensionnement global de l'image est calculée comme suit: M = ( Dr * S * D * R )-1 20 Cette matrice est l'inverse du produit de l'ensemble des matrices transformations géométriques calculées précédemment. La figure 6 illustre un exemple de calcul d'une imagette.
25 Une matrice 540 est appliquée à une image globale 600, de façon à obtenir une imagette, qui est interpolée 610, pour obtenir une imagette redressée et redimensionnée représentant la cible 620. En d'autres termes, une imagette 620 représentant la cible et 30 associée à un obstacle vertical est extraite à partir d'une image 600 en utilisant une interpolation 610 (par exemple bilinéaire, bi-cubique ou selon 22 3014229 toute autre méthode d'interpolation). Afin de construire cette imagette, il est nécessaire de calculer la matrice de transformation 540 (qui englobe le déplacement, la rotation, le facteur d'échelle et le recalage) telle que décrite à la figure 5. La taille de l'imagette obtenue est fixe pour tous les obstacles du même modèle recherché. Dans l'imagette, l'obstacle est donc redressé et redimensionné. Ainsi, les éventuelles cibles ont des tailles normalisées et des axes verticaux, quelles que soient leurs positions dans la scène. Dans les détails un algorithme de calcul, en notant toujours M la matrice de transformation permettant le redressement et le redimensionnement, pourra comprendre les étapes suivantes: 15 - pour chaque pixel de l'imagette, piximagette, recherche du correspondant de piximagette dans l'image, soit piximage (qui a une position flottante dans l'image) avec piximage= M * piximagette - si piximage n'est pas dans l'image, piximage est remplacé par son symétrique; 20 - si le symétrique n'est pas dans l'image, piximage est remplacé par le pixel au bord; - calcul de l'intensité de piximagette par interpolation des intensités de l'image autour de piximage.
25 Dans certains modes de réalisation, les obstacles verticaux sont redressés et redimensionnés dans des imagettes. Cette étape de prétraitement est avantageuse pour améliorer l'efficacité des détections dans de nombreux contextes (par exemple champs latéraux, champs proches, déformations dues à la projection, etc.) 30 5 10 La figure 7 illustre schématiquement un exemple de système de 23 30142 2 9 coordonnées qui peut être utilisé pour certaines mises en oeuvre de l'invention. La figure 7montre une image en deux dimensions (largeur et hauteur) 710 situés sur le plan du sol 701 a une certaine profondeur. De fait, dans certains modes de réalisation cinq paramètres sont utilisés : 5 trois sont relatifs à la position en trois dimensions de l'imagette (ou vignette ou affichette ou image 2D) et deux sont relatifs à cette dernière (sur la figure, largeur et hauteur). Différentes variantes sont possibles. Par exemple, connaissant l'équation du plan du sol 701 deux coordonnées X et Z sont suffisantes, en sus des dimensions du contenu de l'image. En 10 fait seule l'information de profondeur de l'imagette n'a pas à être connue (dans certains modes de réalisation). La position de l'imagette doit être connue puisque sa position dans l'image (ou frame vidéo) détermine les distorsions géométriques du à l'inclinaison et ou à l'optique des moyens d'acquisition d'images. Par exemple l'imagette 711 pourra être très 15 déformée, au contraire de l'imagette 712 centrale. Les informations 3D peuvent être calculées par analyse du contenu de l'image. Ces informations 3D peuvent aussi être fournies nativement par l'appareillage de prise de vue (par exemple une caméra TOF utilisant un laser pourra renseigner directement les informations de profondeur et de position dans 20 la scène 3D), ces appareils implémentant donc, et de diverses manières, ces les étapes de reconstruction de scènes en trois dimensions. Dans cette perspective, la fourniture de l'équation du plan du sol n'est pas un pré-requis indispensable de l'invention. Il existe différentes manières d'accéder à cette information de profondeur.
25 La figure 8 illustre un exemple de principe d'exploitation d'un flux vidéo d'images. Les différents exemples et étapes de méthode décrite jusqu'ici peuvent s'appliquer de façon continue (ou répétée). Dans le cas où les moyens d'acquisition d'images capturent un flux vidéo constitué de 30 plusieurs Frame vidéo, la répétition d'une ou de plusieurs étapes de la méthode permet de déterminer avec plus de certitude l'équation du plan 24 3014229 du sol 820, ou encore par exemple de définir, ou de redéfinir (ou de réajuster) les zones de danger (par exemple par soustraction des vitesses relatives dans le cas les moyens d'acquisition d'images sont embarqués sur un véhicule mobile). De manière optionnelle différent dispositifs 5 matériels et ou logiciel peuvent complémenter l'invention. Par exemple chacune des frames vidéo peut faire l'objet d'une étape de reconnaissance des visages (face détection), ce type d'algorithme étant désormais courant, rapide et fiable. Dans ce cas, les objets identifiés dans la scène peuvent être suivis ou surveillés (techniques d'image 10 tracking). La dimension temporelle permet de réviser continuellement la qualification des objets suivis. Par exemple, concernant le suivi de l'imagettes 710, si un nombre suffisant de frame vidéo ont occasionné une détection de visage (par exemple en excès d'un seuil prédéfini), alors l'objet 710 peut être associé à la qualification de "piéton" avec un niveau 15 de confiance suffisant. Dans un mode de réalisation particulier, il est divulgué une méthode d'analyse du contenu d'une image, comprenant les étapes de détermination d'une estimation du plan du sol et des informations de 20 profondeur associées au contenu de l'image; de détection d'au moins une zone d'intérêt et estimation de la position de la zone d'intérêt détectée sur le plan du sol; de redressement et redimensionnement du contenu de l'image de manière à obtenir une zone d'intérêt de même gabarit (taille, ou dimensions comparables) qu'un ou plusieurs modèles prédéfinis, 25 connus d'une base de connaissance. La présente invention peut s'implémenter à partir d'éléments matériel et/ou logiciel. Elle peut être disponible en tant que produit programme d'ordinateur sur un support lisible par ordinateur. Le support 30 peut être électronique, magnétique, optique, électromagnétique ou être un support de diffusion de type infrarouge. 25

Claims (16)

  1. REVENDICATIONS1. Méthode d'analyse du contenu d'une image, comprenant les étapes de: - réception de l'indication d'une zone d'intérêt dans l'image et de paramètres associés à la zone d'intérêt; - normalisation à l'aide des paramètres associés de la portion de l'image correspondant à la zone d'intérêt de manière à obtenir une portion d'image modifiée de dimensions comparables avec un ou plusieurs modèles prédéfinis.
  2. 2. Méthode selon la revendication 1, la normalisation de la portion d'image comprenant une ou plusieurs transformations géométriques et photométriques de la portion d'image, notamment le redressement et le redimensionnement du contenu de la portion de l'image.
  3. 3. Méthode selon les revendications 1 ou 2, comprenant en outre la réception d'une estimation du plan du sol dans le contenu de l'image.
  4. 4. Méthode selon la revendication 3, pour laquelle le plan du sol est estimé par la reconstruction en trois dimensions de la scène représentée dans le contenu de l'image.
  5. 5. Méthode selon la revendication 4, la reconstruction en trois dimensions de la scène représentée dans le contenu de l'image s'effectuant par 25 appariement de points en correspondance entre deux images de type stéréoscopique.
  6. 6. Méthode selon la revendication 1 comprenant en outre une étape de calcul de mesure de similarité entre la zone d'intérêt normalisée et un ou 30 plusieurs modèles prédéfinis. 26 3014229
  7. 7. Méthode selon la revendication 1 comprenant en outre une étape de classification automatique de la zone d'intérêt normalisée par comparaison avec un ou plusieurs modèles prédéfinis. 5
  8. 8. Méthode selon la revendication 6, un modèle prédéfini étant un design CAO ou un dessin manuel ou une image ou un objet résultant d'un apprentissage statistique.
  9. 9. Méthode selon l'une quelconque des revendications précédentes 10 comprenant en outre une étape de qualification de la zone d'intérêt en cible ou en obstacle et une étape de définition d'une zone de danger associée à la cible et/ou l'obstacle, ladite zone de danger comprenant ou étant associée à une longueur ou une surface ou un intervalle de temps. 15
  10. 10. Méthode selon la revendication 1, l'indication de la zone d'intérêt résultant d'un filtrage par motif du contenu de l'image.
  11. 11. Méthode selon la revendication 1, l'indication de la zone d'intérêt résultant d'un filtrage par détection de visages du contenu de l'image. 20
  12. 12. Méthode selon la revendication 10, le filtrage par motif s'effectuant par balayage du contenu de l'image par un modèle prédéfini, le balayage s'effectuant à différentes positions et échelles.
  13. 13. Système comprenant des moyens pour mettre en oeuvre les étapes du procédé selon l'une quelconque des revendications 1 à 12, le système comprenant un ou plusieurs moyens d'acquisition d'images choisis parmi une caméra Time-of-Flight TOF, une caméra infrarouge et une caméra stéréoscopique. 27 3014229
  14. 14. Système selon la revendication 13, comprenant en outre un ou plusieurs moyens de détection et de mesure choisis parmi un radar, une paire de mono-caméra calibrées, un capteur 3D ou une tête stéréoscopique calibrée. 5
  15. 15. Système selon la revendication 14, pour laquelle l'estimation du plan du sol est fournie par les moyens d'acquisition d'images.
  16. 16. Un produit programme d'ordinateur, ledit programme d'ordinateur 10 comprenant des instructions de code permettant d'effectuer les étapes du procédé selon l'une quelconque des revendications 1 à 12, lorsque ledit programme est exécuté sur un ordinateur. 15 20 25 30
FR1361942A 2013-12-02 2013-12-02 Reconnaissance de formes par correction d'image Active FR3014229B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1361942A FR3014229B1 (fr) 2013-12-02 2013-12-02 Reconnaissance de formes par correction d'image
PCT/EP2014/075764 WO2015082293A1 (fr) 2013-12-02 2014-11-27 Reconnaissance de formes par correction d'image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1361942A FR3014229B1 (fr) 2013-12-02 2013-12-02 Reconnaissance de formes par correction d'image

Publications (2)

Publication Number Publication Date
FR3014229A1 true FR3014229A1 (fr) 2015-06-05
FR3014229B1 FR3014229B1 (fr) 2017-02-03

Family

ID=50729527

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1361942A Active FR3014229B1 (fr) 2013-12-02 2013-12-02 Reconnaissance de formes par correction d'image

Country Status (2)

Country Link
FR (1) FR3014229B1 (fr)
WO (1) WO2015082293A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3062223A1 (fr) * 2017-01-25 2018-07-27 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
WO2024052468A1 (fr) * 2022-09-08 2024-03-14 Thales Procede de transmission de donnees de detection d'objets types, procede de traitement dans un dispositif electronique recepteur de donnees de detection transmises par une pluralite de dispositifs d'acquisition; dispositifs emetteur et recepteur associes

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11685396B2 (en) 2018-01-11 2023-06-27 Apple Inc. Architecture for automation and fail operational automation
CN110008891B (zh) * 2019-03-29 2022-07-08 厦门金龙旅行车有限公司 一种行人检测定位方法、装置、车载计算设备及存储介质
CN114049323B (zh) * 2021-11-15 2024-04-30 武汉易思达科技有限公司 一种基于双目视觉的厢式车形变实时测量方法
CN114842441A (zh) * 2022-06-30 2022-08-02 小米汽车科技有限公司 模型性能的确定方法、装置、电子设备及可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013139684A1 (fr) * 2012-03-23 2013-09-26 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procédé de détermination d'un plan du sol à partir d'une image de profondeur

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013139684A1 (fr) * 2012-03-23 2013-09-26 Commissariat A L'energie Atomique Et Aux Energies Alternatives Procédé de détermination d'un plan du sol à partir d'une image de profondeur

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GAVRILA D M ET AL: "Multi-cue Pedestrian Detection and Tracking from a Moving Vehicle", INTERNATIONAL JOURNAL OF COMPUTER VISION, KLUWER ACADEMIC PUBLISHERS, BO, vol. 73, no. 1, 17 July 2006 (2006-07-17), pages 41 - 59, XP019468627, ISSN: 1573-1405 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3062223A1 (fr) * 2017-01-25 2018-07-27 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
WO2018138064A1 (fr) * 2017-01-25 2018-08-02 Valeo Schalter Und Sensoren Gmbh Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
WO2024052468A1 (fr) * 2022-09-08 2024-03-14 Thales Procede de transmission de donnees de detection d'objets types, procede de traitement dans un dispositif electronique recepteur de donnees de detection transmises par une pluralite de dispositifs d'acquisition; dispositifs emetteur et recepteur associes
FR3139680A1 (fr) * 2022-09-08 2024-03-15 Thales Procede de transmission de donnees de detection d'objets types, procede de traitement dans un dispositif electronique recepteur de donnees de detection transmises par une plurialite de dispositifs d'acquisition ; dispositifs emetteur et recepteur associes

Also Published As

Publication number Publication date
FR3014229B1 (fr) 2017-02-03
WO2015082293A1 (fr) 2015-06-11

Similar Documents

Publication Publication Date Title
EP2275971B1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
EP3489898B1 (fr) Procédé et appareil pour estimer une disparité
Jang et al. Structured-light stereo: Comparative analysis and integration of structured-light and active stereo for measuring dynamic shape
EP4377913A1 (fr) Procédé d'entraînement pour l'entraînement d'un système de détection de changement, procédé de génération d'ensemble d'entraînement associé et système de détection de changement
WO2015082293A1 (fr) Reconnaissance de formes par correction d'image
WO2019091787A1 (fr) Procédé d'estimation de pose d'une caméra dans le référentiel d'une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d'ordinateur associé
EP2275970A1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
EP2549434A2 (fr) Procede de modelisation de batiments a partir d'une image georeferencee
FR3042283B1 (fr) Methode de traitement d'une image radar de type sar et methode de detection de cible associee
WO2012175888A1 (fr) Génération de données de carte
EP2257924B1 (fr) Procede pour generer une image de densite d'une zone d'observation
EP2432660A1 (fr) Procede et dispositif pour etendre une zone de visibilite
Wei et al. Unsupervised segmentation using Gabor wavelets and statistical features in LIDAR data analysis
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
FR2958767A1 (fr) Procede de detection de cibles dans des images stereoscopiques.
FR2693011A1 (fr) Procédé et dispositif de surveillance d'une scène tridimensionnelle, mettant en Óoeuvre des capteurs d'imagerie.
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
Jang et al. Topographic information extraction from KOMPSAT satellite stereo data using SGM
EP2769360B1 (fr) Procédé de localisation d'objets par résolution dans l'espace tridimensionnel de la scène
FR2978276A1 (fr) Procede de modelisation de batiments a partir d'une image georeferencee
FR3103301A1 (fr) Procédé de détection de pics d’intensité de faisceau lumineux réfléchi de manière spéculaire
Rhee et al. Split and merge approach for detecting multiple planes in a depth image
Keller et al. A stereo algorithm for thin obstacles and reflective objects
Luca Innovative methods for the reconstruction of new generation satellite remote sensing images

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

CL Concession to grant licences

Name of requester: ECO-COMPTEUR, FR

Effective date: 20191025

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12