[go: up one dir, main page]

FR3038760A1 - Detection d'objets par traitement d'images - Google Patents

Detection d'objets par traitement d'images Download PDF

Info

Publication number
FR3038760A1
FR3038760A1 FR1556520A FR1556520A FR3038760A1 FR 3038760 A1 FR3038760 A1 FR 3038760A1 FR 1556520 A FR1556520 A FR 1556520A FR 1556520 A FR1556520 A FR 1556520A FR 3038760 A1 FR3038760 A1 FR 3038760A1
Authority
FR
France
Prior art keywords
interest
regions
subset
successive
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1556520A
Other languages
English (en)
Other versions
FR3038760B1 (fr
Inventor
Julien Rebut
Dora Csillag
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to FR1556520A priority Critical patent/FR3038760B1/fr
Priority to PCT/EP2016/066381 priority patent/WO2017005930A1/fr
Publication of FR3038760A1 publication Critical patent/FR3038760A1/fr
Application granted granted Critical
Publication of FR3038760B1 publication Critical patent/FR3038760B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de détection d'objets par traitement d'images captées par une caméra, dans lequel on utilise un algorithme de reconnaissance de formes par apprentissage apte à détecter au moins un objet en effectuant, pour chaque image d'une succession d'images, le balayage d'une pluralité de régions d'intérêt par une fenêtre glissante de taille fixe prédéterminée, chaque région d'intérêt correspondant à une échelle différente de chaque image. Conformément à l'invention, on sélectionne (S1) dans un ensemble (E) prédéterminé de P régions d'intérêt, classées dans un ordre défini d'échelles successives, un premier sous-ensemble (E') de K régions d'intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué (S2) pour au moins une première image.

Description

DETECTI ON D’OBJETS PAR TRAI TEMENT D’I MAGES
La présente invention concerne de manière générale la détection d’objets par les techniques de reconnaissance de formes dans des images.
Un domaine plus particulièrement, bien que non exclusivement, concerné est celui des véhicules automobiles.
Il est connu d’équiper certains véhicules automobiles avec des systèmes d’aide à la conduite utilisant des images captées par une ou plusieurs caméras embarquées sur le véhicule pour détecter notamment les lignes de marquage routier, les obstacles, les autres véhicules, ou encore les panneaux de signalisation tels que les panneaux de prescription de vitesse.
La détection de piétons est une autre application importante dans les systèmes d'aide à la conduite automobile puisqu’il s’agit de concevoir des systèmes intelligents capables d'avertir ou de prévenir les accidents, en surveillant les alentours du véhicule par l’intermédiaire d’une ou plusieurs caméras. Un tel système de détection peut ainsi soit prévenir le conducteur de la présence d'un piéton à une distance jugée dangereuse, soit directement agir sur le système de freinage du véhicule automobile. Les systèmes de détection de piétons sont en outre cruciaux pour les systèmes de conduite automatisés.
Que l’objet à détecter soit fixe ou mobile, on comprend ainsi qu’un tel système de détection doit pouvoir fournir une information suffisamment fiable et précise pour pouvoir dériver, en temps réel, une estimation de la distance à laquelle se situe l’objet détecté par rapport au véhicule.
On rappelle que la détection de piétons consiste à déterminer le plus précisément possible, la présence et la localisation de toutes les personnes susceptibles d’être présentes dans une image ou une succession d’images. Elle est généralement basée sur des techniques de reconnaissance de formes dont le but est d’apprendre puis de retrouver dans l’image, l’allure générale d’une personne.
Les algorithmes mis en œuvre dans une détection de piétons par reconnaissance de formes sont généralement très complexes compte tenu notamment de la très grande diversité entre les personnes (taille, poids, vêtements, postures...)· Ces algorithmes de reconnaissance de formes sont souvent basés sur l'utilisation combinée de descripteurs et d’une méthode de classification binaire permettant de déterminer si une zone d’une image captée par une caméra correspond à un piéton ou à du fond. Une méthode classique, connue sous le nom de la méthode de Viola et Jones, consiste à tester la présence d’un piéton dans une fenêtre ou imagette de taille fixe, par exemple de 24 sur 48 pixels, à toutes les positions possibles dans l’image et pour plusieurs échelles de l’image. Le test consiste à générer un vecteur de descripteurs de l’imagette et à les comparer avec les descripteurs appris sur une base d’apprentissage. Plus précisément, pour chaque image captée par une caméra, on définit une pluralité de régions d’intérêt à balayer par la fenêtre, chaque région d’intérêt correspondant à une échelle donnée de l’image. A titre d’exemple, une vingtaine de régions d’intérêt, encore appelées zones de balayage relatives à chaque échelle (« scan zone » en terminologie anglo-saxonne), doivent être traitées correspondant à des échelles de l’image variant de 0,025 (zoom avant) à 1 (taille réelle) par pas de 1,22.
La méthode consiste typiquement à balayer chaque région d’intérêt, de même taille que l’image de base, en déplaçant la fenêtre de taille fixe d’un certain nombre de pixels à la fois. Un classifieur combiné à une base d’apprentissage comportant des échantillons de piétons et des échantillons de fond va traiter les différents vecteurs de descripteurs obtenus par la fenêtre glissante pour identifier les zones correspondant effectivement à un piéton par rapport à un modèle appris. Le résultat est délivré par le détecteur de piéton sous forme d’une boîte englobante, généralement de forme rectangulaire, par piéton détecté. Les dimensions et/ou la position verticale de la boîte englobante relative à un piéton détecté sont alors utilisées pour estimer la distance à laquelle se situe le piéton par rapport au véhicule. Une telle méthode est par exemple implémentée par des détecteurs rapides de type Adaboost. Les résultats de la détection rapide sont ensuite généralement affinés et validés par des classifieur plus performants.
On conçoit aisément qu’une telle méthode est très consommatrice en calcul et en temps, et de ce fait, incompatible avec la nécessité d’un traitement en temps réel primordial pour les systèmes d’aide à la conduite.
La présente invention a pour but de pallier les inconvénients des solutions connues basées sur l’algorithme de reconnaissance de formes de type Adaboost en proposant une stratégie de traitement des images qui soit moins consommatrice en temps de calcul.
Pour ce faire, l’invention a pour objet un procédé de détection d’objets par traitement d’images captées par une caméra, dans lequel on utilise un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, le procédé étant caractérisé en ce qu’il comprend une étape de sélection, dans un ensemble prédéterminé de P régions d’intérêt classées dans un ordre défini d’échelles successives, d’un premier sous-ensemble de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué pour au moins une première image.
Outre les caractéristiques principales qui viennent d'être mentionnées dans le paragraphe précédent, le procédé selon l'invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes : - on mémorise chaque région d’intérêt du premier sous-ensemble ayant donné lieu à une détection d’un objet ; et on réitère le balayage pour les images suivantes sur un deuxième sous-ensemble de régions d’intérêt successives limité d’une part, aux régions d’intérêt mémorisées et aux régions contiguës aux régions d’intérêt mémorisées, et d’autre part, aux K régions d’intérêt du premier sous-ensemble, en déplaçant, à chaque itération, ledit premier sous-ensemble de K régions d’intérêt successives d’au moins une région d’intérêt dans l’ordre défini d’échelles successives ; - ledit premier sous-ensemble de K régions d’intérêt successives est déplacé par exemple au plus de K régions d’intérêt ; - le balayage peut être réitéré jusqu’à ce que le premier sous-ensemble de K régions d’intérêt successives inclue la région d’intérêt dudit ensemble prédéterminé correspondant à la plus grande échelle ; - la plus grande échelle correspond par exemple à la taille réelle de l’image captée par la caméra ; - ledit premier sous-ensemble de K régions d’intérêt successives inclut dans un mode de réalisation possible la région d’intérêt dudit ensemble prédéterminé correspondant à la plus petite échelle ; - ledit premier sous-ensemble comprend de préférence deux régions d’intérêts successives ; - chaque région d’intérêt peut être en outre avantageusement segmentée dans le sens de la largeur en une pluralité de zones d’intérêt, et le procédé comporte alors une étape de recadrage des régions d’intérêt mémorisées, voire des régions contigües aux régions d’intérêt, le recadrage s’effectuant dans la zone d’intérêt ayant donné lieu à une détection d’objet. L’invention a également pour objet un système de détection d’objets par traitement d’images captées par une caméra, le système comprenant un détecteur utilisant un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, caractérisé en ce que ledit détecteur est programmé pour sélectionner dans un ensemble prédéterminé de P régions d’intérêt, classées dans un ordre défini d’échelles successives, un premier sous-ensemble de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué pour une première image. L'invention sera mieux comprise à la lecture de la description qui suit, faite en référence aux figures annexées, dans lesquelles : - la figure 1 représente schématiquement une situation rencontrée sur une route par un véhicule automobile équipé d’un système selon l’invention ; - la figure 2 donne un synoptique simplifié illustrant le fonctionnement d’un détecteur de piéton de type Adaboost ; - la figure 3 donne un synoptique simplifié illustrant certaines étapes susceptibles d’être mise en œuvre dans un procédé conforme à l’invention ; - la figure 4 illustre un principe de segmentation des régions d’intérêt.
Dans la suite et en référence à la figure 1, on suppose à titre d’exemple qu’un véhicule automobile 1 équipé d’une caméra , de paramètres de calibration connus et apte à capter des images successives de paysages, se déplace sur une route 3. La caméra est, dans cet exemple, localisée à un endroit du véhicule qui correspond le mieux à ce que le conducteur voit, par exemple centrée au niveau du pare-brise à l’intérieur de l’habitacle. D’autres positionnements peuvent néanmoins être envisagés sans départir du cadre de l’invention, par exemple sur le pare-choc arrière pour une caméra de recul, ou plus généralement à n’importe quel endroit du véhicule selon la zone que l’on souhaite observer. Le véhicule automobile 1 comporte en outre un module de traitement (non représenté) formant, avec la caméra 2, un système permettant de détecter la présence d’un piéton 4, et d’agir sur un système d’aide à la conduite en fonction d’une estimation de la distance séparant le piéton 4 du véhicule automobile 1. La détection de piétons est prise ici à titre d’exemple non limitatif, le système pouvant être prévu pour la détection d’autres objets. Ainsi, la caméra 2 capture les images de la scène routière située à l’avant du véhicule 1 et fournit ces images au module de traitement d’images du système.
Comme représenté très schématiquement sur la figure 2, chaque image I, captée par la caméra est délivrée à un détecteur 5, dans cet exemple non limitatif, un détecteur de piétons, comportant une base d’apprentissage 50 avec des exemples de piétons d’une part, et de fonds d’autre part, et son classifieur associé 51. Le classifieur 51 est apte à implémenter l’algorithme de type Viola et Jones décrit ci-avant, avec les modifications liées à l’invention. On rappelle que cet algorithme consiste en général à balayer chaque région d’intérêt Ri,p d’un ensemble E de P régions d’intérêt correspondant à P échelles possibles de l’image d’origine I,, par une imagette de taille prédéterminée. Lorsqu’un piéton est détecté par ce traitement, le détecteur 5 de piéton délivre en sortie une boîte englobante 52 qui délimite une zone d’image représentative du piéton 4 détecté. Le traitement ci-dessus est réitéré pour chaque image reçue.
Afin de limiter le temps de traitement précédent, le procédé conforme à l’invention propose de ne balayer, pour chaque image reçue I,, qu’un sous-ensemble de régions d’intérêt comprenant au maximum un nombre limité de K régions d’intérêt successives (entier K inférieur à P), ainsi que des régions d’intérêt ayant donné lieu à une détection pour l’image précédente 1,-1 (appelées dans la suite régions d’intérêt validées ou mémorisées) ou contiguës à ces régions d’intérêt validées. A chaque itération, c’est-à-dire lors du traitement d’une nouvelle image captée, on change de préférence en outre les K régions d’intérêt successives qui vont être balayées.
Un exemple d’étapes susceptibles d’être effectuées conformément au procédé selon l’invention va être décrit en référence à la figure 3.
Sur cette figure 3, I, est représentative d’une image captée à l’instant i par la caméra (étape S0). L’ensemble E de régions d’intérêts qui devraient être balayées si l’on devait appliquer la méthode classique de Viola et Jones par un détecteur à reconnaissance de formes de type Adaboost comprend normalement P régions d’intérêts notées par commodité Ri,p, correspondant à P échelles différentes de l’image l,, classées par ordre croissant d’échelles successives. Ainsi, pour chaque image I, : E = { Ri,i ; Ri,2 ; ...Ri,p} avec Rj,p la région d’intérêt correspondant à l’image I, de la taille réelle (en d’autres termes, Rj P= I j), et R,,i la région d’intérêt correspondant à cette même image à la plus petite échelle, par exemple une échelle de 0,025 correspondant à un un sous échantillonnage, c’est-à-dire une diminution de la résolution de l’image l,.
On supposera dans la suite, pour simplifier, que la valeur P est égale à 8. En pratique, la valeur de P dépend de nombreux critères, tels que l’orientation de la caméra, la portée de détection que l’on cherche.
Ici, conformément à l’invention, on prévoit de sélectionner dans un premier temps (étape S^) un premier sous-ensemble E’ comportant seulement K régions d’intérêt successives parmi les P possibles. A titre d’exemple non limitatif, l’entier K est fixé égal à 2. Le premier sous-ensemble E’ peut donc s’écrire sous la forme mathématique suivante : E = { Ri,m ! Ri,m +1} avec m un entier quelconque compris entre 1 et P-1.
On effectue alors, sur chacune des régions d’intérêt successives du premier sous-ensemble E’, ici au nombre de 2, un balayage classique par la fenêtre glissante, de manière à détecter la présence éventuelle d’un ou plusieurs piétons dans ces régions d’intérêt (étape S2). Chaque région d’intérêt ayant effectivement donné lieu à une détection de piéton est alors mémorisée.
Pour l’image suivante (i = i+1), on réitère le balayage sur un deuxième sous-ensemble E” dont le nombre de régions d’intérêt dépend des détections réalisées à l’étape précédente.
Plus précisément, dans le cas où le balayage précédent n’a permis aucune détection (branche de gauche du test référencé S3 sur la figure 3), le deuxième sous-ensemble E” correspond au contenu de premier sous-ensemble E’ réactualisé en déplaçant ledit premier sous-ensemble d’au moins une région d’intérêt dans l’ordre croissant d’échelles successives. Dans l’exemple représenté sur la figure 3, ceci correspond à l’étape S4, dans laquelle le déplacement correspond à exactement une région d’intérêt. Il convient de noter, de façon plus générale, que le déplacement ne peut être supérieur à l’entier K. Ainsi, le deuxième sous-ensemble E” peut s’écrire dans ce cas sous la forme mathématique suivante : E” = E’ = {Ri,m+1 ; Ri,m+2 } ce qui signifie que, pour l’image suivante, le balayage par l’imagette ne s’effectuera là encore que sur deux régions d’intérêt successives.
Dans le cas contraire (branche de droite du test S3 sur la figure 3), le deuxième sous-ensemble E” de régions d’intérêt successives comprend d’une part, les régions d’intérêt mémorisées, voire celles contiguës aux régions d’intérêt mémorisées, et d’autre part, le contenu du premier ensemble E’ réactualisé comme expliqué précédemment, par déplacement d’au moins une région d’intérêt. Dans l’exemple représenté sur la figure 3, ceci correspond à l’étape S5, à l’issue de laquelle le deuxième sous-ensemble E” peut s’écrire sous la forme mathématique suivante, en supposant que l’étape S2 a permis la détection d’un objet dans la région d’intérêt Rj,m : E = Ri,m U E = Ri,m U { R^m+1 ! Ri,m+2 } ce qui signifie que, pour l’image suivante, le balayage par l’imagette ne s’effectuera que sur trois régions d’intérêt successives.
Le balayage est réitéré pour chaque image reçue selon le même principe, et ce, jusqu’à ce que le contenu réactualisé du premier sous-ensemble E’ inclue la région d’intérêt R,,p correspondant à la plus grande échelle.
Pour fixer les idées, le tableau 1 ci-après montre les régions d’intérêt qui sont examinées à chaque itération sur 7 images successives, en fonction des détections réalisées. Dans cet exemple : P=8, K= 2 et m=1, de sorte que le premier sous-ensemble utilisé pour la première image reçue est E’ = { R-1,1 ; Ri ,2} et inclut donc ici la région d’intérêt de l’ensemble E prédéterminé correspondant à la plus petite échelle.
tableau 1
Dans le tableau précédent, on remarque que, tant qu’il n’y a pas de détection (deux première lignes du tableau), le premier ensemble E’ est déplacé d’une région d’intérêt, et le balayage par l’imagette ne s’effectue que sur les deux régions d’intérêt de cet ensemble E’. A la première détection effectuée (ligne 3 du tableau), le premier ensemble est réactualisé par déplacement d’une région d’intérêt, mais on conserve également pour l’examen de l’image d’après la région d’intérêt R^, laquelle correspond à une région contigüe et immédiatement inférieure (dans le sens des échelles croissantes) de celle ayant donné lieu à une détection sur la troisième image. L’avantage est ici d’éviter de perdre le suivi d’un objet qui se déplacerait en direction de la voiture. Certaines régions d’intérêt peuvent être abandonnées à Γ itérât ion suivante si elles n’ont pas donné lieu à des détections. Enfin, la totalité des huit régions d’intérêt ayant été balayées entre la première image et la septième image de balayage, la dernière ligne montre que l’on recommence par l’examen des deux premières régions d’intérêt pour la huitième image.
Il convient d’ailleurs de noter que la plage de balayage pour l’ensemble E’ ne correspond pas forcément à la totalité de l’ensemble E d’origine, comprenant ici huit régions d’intérêt. On pourrait par exemple se limiter à un déplacement de l’ensemble E’ sur les régions d’intérêt correspondant aux plus grandes échelles de l’ensemble E. L’exemple précédent illustre le gain de traitement que l’on peut atteindre par l’examen d’un nombre limité de régions d’intérêts.
Ce gain de traitement peut encore être amélioré en combinant le procédé de traitement précédent à un traitement de recadrage (« cropping » en terminologie anglo-saxonne) des régions d’intérêt ayant données lieu à une détection. Pour ce faire, on considère que chaque région d’intérêt Rj,m peut être segmentée, dans le sens de la largeur, en une pluralité de zones, par exemple trois zones comme cela est illustré sur la figure 4 par des hachures d’orientation différentes. On note RLi,m la zone de gauche, RCi,m , la zone centrale, et RRj,m la zone de droite. Lorsque le traitement d’une image I, a donné le lieu à une détection dans une zone spécifique d’une région d’intérêt donnée, on recadre, à l’itération d’après, cette région d’intérêt uniquement sur cette zone spécifique. Les zones spécifiques se recouvrent de préférence dans une large mesure de manière à éviter de perdre le suivi d’un objet qui se déplacerait rapidement en latéral dans les images. Le tableau 2 suivant montre en gras les modifications apportées au tableau 1 lorsque l’on fait intervenir le recadrage.
tableau 2
Les simulations effectuées par la Demanderesse ont pu montrer que la solution décrite ci-dessus peut réduire d’un facteur 10 le temps de traitement nécessaire à l’examen d’une scène (succession d’images) lorsqu’aucun objet n’a été détecté. Bien sûr, ce facteur est moins élevé en cas de détection d’objets, mais le temps de traitement reste tout de même globalement amélioré par rapport à un algorithme classique de Viola et Jones.
Par ailleurs, le procédé de l’invention permet un niveau de précision de détection variable en fonction de la distance à laquelle se situent les objets, avec une précision plus élevée pour les objets proches, ce qui est tout à fait souhaitable lorsque l’on doit appliquer rapidement une stratégie d’évitement.

Claims (10)

  1. REVENDICATIONS
    1. Procédé de détection d’objets par traitement d’images captées par une caméra (2), dans lequel on utilise un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, le procédé étant caractérisé en ce qu’il comprend une étape de sélection (Si), dans un ensemble (E) prédéterminé de P régions d’intérêt classées dans un ordre défini d’échelles successives, d’un premier sous-ensemble (E’) de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué (S2) pour au moins une première image.
  2. 2. Procédé selon la revendication 1, caractérisé en ce qu’il comprend en outre les étapes suivantes : - on mémorise chaque région d’intérêt du premier sous-ensemble (E’) ayant donné lieu à une détection d’un objet ; - on réitère (S5) le balayage pour les images suivantes sur un deuxième sous-ensemble (E”) de régions d’intérêt successives limité d’une part, aux régions d’intérêt mémorisées et aux régions contiguës aux régions d’intérêt mémorisées, et d’autre part, aux K régions d’intérêt du premier sous-ensemble, en déplaçant, à chaque itération, ledit premier sous-ensemble de K régions d’intérêt successives d’au moins une région d’intérêt dans l’ordre défini d’échelles successives.
  3. 3. Procédé selon la revendication 2, caractérisé en ce que ledit premier sous-ensemble (E’) de K régions d’intérêt successives est déplacé au plus de K régions d’intérêt.
  4. 4. Procédé selon l’une quelconque des revendications 2 ou 3, caractérisé en ce que le balayage est réitéré jusqu’à ce que le premier sous-ensemble (E’) de K régions d’intérêt successives inclue la région d’intérêt dudit ensemble prédéterminé correspondant à la plus grande échelle.
  5. 5. Procédé selon la revendication 4, caractérisé en ce que la plus grande échelle correspond à la taille réelle de l’image captée par la caméra.
  6. 6. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-ensemble (E’) de K régions d’intérêt successives inclut la région d’intérêt dudit ensemble prédéterminé correspondant à la plus petite échelle.
  7. 7. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-ensemble (E) comprend deux régions d’intérêts successives.
  8. 8. Procédé selon l’une quelconque des revendications 2 à 5, caractérisé en ce que chaque région d’intérêt est en outre segmentée dans le sens de la largeur en une pluralité de zones d’intérêt, et le procédé comporte en outre une étape de recadrage des régions d’intérêt mémorisées, voire des régions contigües aux régions d’intérêt, le recadrage s’effectuant dans la zone d’intérêt ayant donné lieu à une détection d’objet.
  9. 9. Système de détection d’objets par traitement d’images captées par une caméra (2), le système comprenant un détecteur (5) utilisant un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, caractérisé en ce que ledit détecteur est programmé pour sélectionner (S1 ) dans un ensemble (E) prédéterminé de P régions d’intérêt, classées dans un ordre défini d’échelles successives, un premier sous-ensemble (E’) de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué (S2) pour une première image.
  10. 10.Système selon la revendication 9, caractérisé en ce que le détecteur est programmé en outre pour : - mémoriser chaque région d’intérêt du premier sous-ensemble (E) ayant donné lieu à une détection d’un objet ; - réitérer (S5) le balayage pour les images suivantes sur un deuxième sous-ensemble (E”) de régions d’intérêt successives limité d’une part, aux régions d’intérêt mémorisées et aux régions contiguës aux régions d’intérêt mémorisées, et d’autre part, aux K régions d’intérêt du premier sous-ensemble, en déplaçant, à chaque itération, ledit premier sous-ensemble de K régions d’intérêt successives d’au moins une région d’intérêt dans l’ordre défini d’échelles successives.
FR1556520A 2015-07-09 2015-07-09 Detection d'objets par traitement d'images Active FR3038760B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1556520A FR3038760B1 (fr) 2015-07-09 2015-07-09 Detection d'objets par traitement d'images
PCT/EP2016/066381 WO2017005930A1 (fr) 2015-07-09 2016-07-11 Détection d'objets par traitement d'images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1556520A FR3038760B1 (fr) 2015-07-09 2015-07-09 Detection d'objets par traitement d'images

Publications (2)

Publication Number Publication Date
FR3038760A1 true FR3038760A1 (fr) 2017-01-13
FR3038760B1 FR3038760B1 (fr) 2018-08-17

Family

ID=54707876

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1556520A Active FR3038760B1 (fr) 2015-07-09 2015-07-09 Detection d'objets par traitement d'images

Country Status (2)

Country Link
FR (1) FR3038760B1 (fr)
WO (1) WO2017005930A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476157A (zh) * 2020-04-07 2020-07-31 南京慧视领航信息技术有限公司 一种路口监控环境下的车道导向箭头识别方法
CN112215219A (zh) * 2020-09-14 2021-01-12 北京百度网讯科技有限公司 用于路侧拍摄设备的感兴趣区域获取方法、装置及介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Correct System Design", vol. 9117, 9 June 2015, SPRINGER INTERNATIONAL PUBLISHING, Cham, ISBN: 978-3-642-28871-5, ISSN: 0302-9743, article ALEJANDRO GONZÁLEZ ET AL: "3D-Guided Multiscale Sliding Window for Pedestrian Detection", pages: 560 - 568, XP055255297, 032548, DOI: 10.1007/978-3-319-19390-8_63 *
FEIDIE LIANG ET AL: "Fast Pedestrian Detection Based on Sliding Window Filtering", 4 December 2012, ADVANCES IN MULTIMEDIA INFORMATION PROCESSING PCM 2012, SPRINGER BERLIN HEIDELBERG, BERLIN, HEIDELBERG, PAGE(S) 811 - 822, ISBN: 978-3-642-34777-1, XP047014270 *
SHAOQING REN ET AL: "Object Detection Networks on Convolutional Feature Maps", CORR, 23 April 2015 (2015-04-23), XP055255038, Retrieved from the Internet <URL:http://arxiv.org/pdf/1504.06066v1.pdf> [retrieved on 20160303] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476157A (zh) * 2020-04-07 2020-07-31 南京慧视领航信息技术有限公司 一种路口监控环境下的车道导向箭头识别方法
CN111476157B (zh) * 2020-04-07 2020-11-03 南京慧视领航信息技术有限公司 一种路口监控环境下的车道导向箭头识别方法
CN112215219A (zh) * 2020-09-14 2021-01-12 北京百度网讯科技有限公司 用于路侧拍摄设备的感兴趣区域获取方法、装置及介质
CN112215219B (zh) * 2020-09-14 2023-11-24 阿波罗智联(北京)科技有限公司 用于路侧拍摄设备的感兴趣区域获取方法、装置及介质

Also Published As

Publication number Publication date
FR3038760B1 (fr) 2018-08-17
WO2017005930A1 (fr) 2017-01-12

Similar Documents

Publication Publication Date Title
EP2275971B1 (fr) Procédé de détection d&#39;un obstacle pour véhicule automobile
Creusot et al. Real-time small obstacle detection on highways using compressive RBM road reconstruction
EP3572976A1 (fr) Procede de traitement d&#39;un flux d&#39;images video
EP2930659B1 (fr) Procédé de détection de points d&#39;intérêt dans une image numérique
WO2019091787A1 (fr) Procédé d&#39;estimation de pose d&#39;une caméra dans le référentiel d&#39;une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d&#39;ordinateur associé
EP2275970A1 (fr) Procédé de détection d&#39;un obstacle pour véhicule automobile
EP3200153B1 (fr) Procédé de détection de cibles au sol et en mouvement dans un flux vidéo acquis par une caméra aéroportée
BE1026095B1 (fr) Dispositif de traitement d’images
WO2009141378A1 (fr) Procede et systeme d&#39;indexation et de recherche de documents video
EP3311333B1 (fr) Appariement d&#39;images d&#39;articles postaux avec des descripteurs de singularites du champ de gradient
FR3146523A1 (fr) Procédé d’estimation de la vitesse d’un véhicule
EP2839410B1 (fr) Procédé de reconnaissance d&#39;un contexte visuel d&#39;une image et dispositif correspondant
WO2018138064A1 (fr) Detection d&#39;obstacles dans l&#39;environnement d&#39;un vehicule automobile par traitement d&#39;images
FR3027432A1 (fr) Estimation de distance d&#39;un pieton par un systeme d&#39;imagerie embarque sur un vehicule automobile
FR3038760A1 (fr) Detection d&#39;objets par traitement d&#39;images
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l&#39;image d&#39;une scene routiere
EP1522951A1 (fr) Détérmination de caractéristiques textuelles de pixels
FR3088465A1 (fr) Estimation d&#39;une carte de disparite a partir d&#39;une image monoscopique par apprentissage profond
FR2950451A1 (fr) Algorithme de detection des points de contour dans une image
EP2769360B1 (fr) Procédé de localisation d&#39;objets par résolution dans l&#39;espace tridimensionnel de la scène
FR3058247B1 (fr) Detection d&#39;obstacles autour d&#39;un vehicule automobile
Kou et al. A lane boundary detection method based on high dynamic range image
WO2018185398A1 (fr) Procédé et dispositif de traitement d&#39;images acquises par une caméra d&#39;un véhicule automobile
FR3154527A1 (fr) Procédé de détection de lumières clignotantes
Abbas et al. Optimizing Vehicle Detection and Tracking Efficiency Through YOLO-Based Multi-Objective Approach

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170113

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11