FR3038760A1 - Detection d'objets par traitement d'images - Google Patents
Detection d'objets par traitement d'images Download PDFInfo
- Publication number
- FR3038760A1 FR3038760A1 FR1556520A FR1556520A FR3038760A1 FR 3038760 A1 FR3038760 A1 FR 3038760A1 FR 1556520 A FR1556520 A FR 1556520A FR 1556520 A FR1556520 A FR 1556520A FR 3038760 A1 FR3038760 A1 FR 3038760A1
- Authority
- FR
- France
- Prior art keywords
- interest
- regions
- subset
- successive
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
L'invention concerne un procédé de détection d'objets par traitement d'images captées par une caméra, dans lequel on utilise un algorithme de reconnaissance de formes par apprentissage apte à détecter au moins un objet en effectuant, pour chaque image d'une succession d'images, le balayage d'une pluralité de régions d'intérêt par une fenêtre glissante de taille fixe prédéterminée, chaque région d'intérêt correspondant à une échelle différente de chaque image. Conformément à l'invention, on sélectionne (S1) dans un ensemble (E) prédéterminé de P régions d'intérêt, classées dans un ordre défini d'échelles successives, un premier sous-ensemble (E') de K régions d'intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué (S2) pour au moins une première image.
Description
DETECTI ON D’OBJETS PAR TRAI TEMENT D’I MAGES
La présente invention concerne de manière générale la détection d’objets par les techniques de reconnaissance de formes dans des images.
Un domaine plus particulièrement, bien que non exclusivement, concerné est celui des véhicules automobiles.
Il est connu d’équiper certains véhicules automobiles avec des systèmes d’aide à la conduite utilisant des images captées par une ou plusieurs caméras embarquées sur le véhicule pour détecter notamment les lignes de marquage routier, les obstacles, les autres véhicules, ou encore les panneaux de signalisation tels que les panneaux de prescription de vitesse.
La détection de piétons est une autre application importante dans les systèmes d'aide à la conduite automobile puisqu’il s’agit de concevoir des systèmes intelligents capables d'avertir ou de prévenir les accidents, en surveillant les alentours du véhicule par l’intermédiaire d’une ou plusieurs caméras. Un tel système de détection peut ainsi soit prévenir le conducteur de la présence d'un piéton à une distance jugée dangereuse, soit directement agir sur le système de freinage du véhicule automobile. Les systèmes de détection de piétons sont en outre cruciaux pour les systèmes de conduite automatisés.
Que l’objet à détecter soit fixe ou mobile, on comprend ainsi qu’un tel système de détection doit pouvoir fournir une information suffisamment fiable et précise pour pouvoir dériver, en temps réel, une estimation de la distance à laquelle se situe l’objet détecté par rapport au véhicule.
On rappelle que la détection de piétons consiste à déterminer le plus précisément possible, la présence et la localisation de toutes les personnes susceptibles d’être présentes dans une image ou une succession d’images. Elle est généralement basée sur des techniques de reconnaissance de formes dont le but est d’apprendre puis de retrouver dans l’image, l’allure générale d’une personne.
Les algorithmes mis en œuvre dans une détection de piétons par reconnaissance de formes sont généralement très complexes compte tenu notamment de la très grande diversité entre les personnes (taille, poids, vêtements, postures...)· Ces algorithmes de reconnaissance de formes sont souvent basés sur l'utilisation combinée de descripteurs et d’une méthode de classification binaire permettant de déterminer si une zone d’une image captée par une caméra correspond à un piéton ou à du fond. Une méthode classique, connue sous le nom de la méthode de Viola et Jones, consiste à tester la présence d’un piéton dans une fenêtre ou imagette de taille fixe, par exemple de 24 sur 48 pixels, à toutes les positions possibles dans l’image et pour plusieurs échelles de l’image. Le test consiste à générer un vecteur de descripteurs de l’imagette et à les comparer avec les descripteurs appris sur une base d’apprentissage. Plus précisément, pour chaque image captée par une caméra, on définit une pluralité de régions d’intérêt à balayer par la fenêtre, chaque région d’intérêt correspondant à une échelle donnée de l’image. A titre d’exemple, une vingtaine de régions d’intérêt, encore appelées zones de balayage relatives à chaque échelle (« scan zone » en terminologie anglo-saxonne), doivent être traitées correspondant à des échelles de l’image variant de 0,025 (zoom avant) à 1 (taille réelle) par pas de 1,22.
La méthode consiste typiquement à balayer chaque région d’intérêt, de même taille que l’image de base, en déplaçant la fenêtre de taille fixe d’un certain nombre de pixels à la fois. Un classifieur combiné à une base d’apprentissage comportant des échantillons de piétons et des échantillons de fond va traiter les différents vecteurs de descripteurs obtenus par la fenêtre glissante pour identifier les zones correspondant effectivement à un piéton par rapport à un modèle appris. Le résultat est délivré par le détecteur de piéton sous forme d’une boîte englobante, généralement de forme rectangulaire, par piéton détecté. Les dimensions et/ou la position verticale de la boîte englobante relative à un piéton détecté sont alors utilisées pour estimer la distance à laquelle se situe le piéton par rapport au véhicule. Une telle méthode est par exemple implémentée par des détecteurs rapides de type Adaboost. Les résultats de la détection rapide sont ensuite généralement affinés et validés par des classifieur plus performants.
On conçoit aisément qu’une telle méthode est très consommatrice en calcul et en temps, et de ce fait, incompatible avec la nécessité d’un traitement en temps réel primordial pour les systèmes d’aide à la conduite.
La présente invention a pour but de pallier les inconvénients des solutions connues basées sur l’algorithme de reconnaissance de formes de type Adaboost en proposant une stratégie de traitement des images qui soit moins consommatrice en temps de calcul.
Pour ce faire, l’invention a pour objet un procédé de détection d’objets par traitement d’images captées par une caméra, dans lequel on utilise un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, le procédé étant caractérisé en ce qu’il comprend une étape de sélection, dans un ensemble prédéterminé de P régions d’intérêt classées dans un ordre défini d’échelles successives, d’un premier sous-ensemble de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué pour au moins une première image.
Outre les caractéristiques principales qui viennent d'être mentionnées dans le paragraphe précédent, le procédé selon l'invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes : - on mémorise chaque région d’intérêt du premier sous-ensemble ayant donné lieu à une détection d’un objet ; et on réitère le balayage pour les images suivantes sur un deuxième sous-ensemble de régions d’intérêt successives limité d’une part, aux régions d’intérêt mémorisées et aux régions contiguës aux régions d’intérêt mémorisées, et d’autre part, aux K régions d’intérêt du premier sous-ensemble, en déplaçant, à chaque itération, ledit premier sous-ensemble de K régions d’intérêt successives d’au moins une région d’intérêt dans l’ordre défini d’échelles successives ; - ledit premier sous-ensemble de K régions d’intérêt successives est déplacé par exemple au plus de K régions d’intérêt ; - le balayage peut être réitéré jusqu’à ce que le premier sous-ensemble de K régions d’intérêt successives inclue la région d’intérêt dudit ensemble prédéterminé correspondant à la plus grande échelle ; - la plus grande échelle correspond par exemple à la taille réelle de l’image captée par la caméra ; - ledit premier sous-ensemble de K régions d’intérêt successives inclut dans un mode de réalisation possible la région d’intérêt dudit ensemble prédéterminé correspondant à la plus petite échelle ; - ledit premier sous-ensemble comprend de préférence deux régions d’intérêts successives ; - chaque région d’intérêt peut être en outre avantageusement segmentée dans le sens de la largeur en une pluralité de zones d’intérêt, et le procédé comporte alors une étape de recadrage des régions d’intérêt mémorisées, voire des régions contigües aux régions d’intérêt, le recadrage s’effectuant dans la zone d’intérêt ayant donné lieu à une détection d’objet. L’invention a également pour objet un système de détection d’objets par traitement d’images captées par une caméra, le système comprenant un détecteur utilisant un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, caractérisé en ce que ledit détecteur est programmé pour sélectionner dans un ensemble prédéterminé de P régions d’intérêt, classées dans un ordre défini d’échelles successives, un premier sous-ensemble de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué pour une première image. L'invention sera mieux comprise à la lecture de la description qui suit, faite en référence aux figures annexées, dans lesquelles : - la figure 1 représente schématiquement une situation rencontrée sur une route par un véhicule automobile équipé d’un système selon l’invention ; - la figure 2 donne un synoptique simplifié illustrant le fonctionnement d’un détecteur de piéton de type Adaboost ; - la figure 3 donne un synoptique simplifié illustrant certaines étapes susceptibles d’être mise en œuvre dans un procédé conforme à l’invention ; - la figure 4 illustre un principe de segmentation des régions d’intérêt.
Dans la suite et en référence à la figure 1, on suppose à titre d’exemple qu’un véhicule automobile 1 équipé d’une caméra , de paramètres de calibration connus et apte à capter des images successives de paysages, se déplace sur une route 3. La caméra est, dans cet exemple, localisée à un endroit du véhicule qui correspond le mieux à ce que le conducteur voit, par exemple centrée au niveau du pare-brise à l’intérieur de l’habitacle. D’autres positionnements peuvent néanmoins être envisagés sans départir du cadre de l’invention, par exemple sur le pare-choc arrière pour une caméra de recul, ou plus généralement à n’importe quel endroit du véhicule selon la zone que l’on souhaite observer. Le véhicule automobile 1 comporte en outre un module de traitement (non représenté) formant, avec la caméra 2, un système permettant de détecter la présence d’un piéton 4, et d’agir sur un système d’aide à la conduite en fonction d’une estimation de la distance séparant le piéton 4 du véhicule automobile 1. La détection de piétons est prise ici à titre d’exemple non limitatif, le système pouvant être prévu pour la détection d’autres objets. Ainsi, la caméra 2 capture les images de la scène routière située à l’avant du véhicule 1 et fournit ces images au module de traitement d’images du système.
Comme représenté très schématiquement sur la figure 2, chaque image I, captée par la caméra est délivrée à un détecteur 5, dans cet exemple non limitatif, un détecteur de piétons, comportant une base d’apprentissage 50 avec des exemples de piétons d’une part, et de fonds d’autre part, et son classifieur associé 51. Le classifieur 51 est apte à implémenter l’algorithme de type Viola et Jones décrit ci-avant, avec les modifications liées à l’invention. On rappelle que cet algorithme consiste en général à balayer chaque région d’intérêt Ri,p d’un ensemble E de P régions d’intérêt correspondant à P échelles possibles de l’image d’origine I,, par une imagette de taille prédéterminée. Lorsqu’un piéton est détecté par ce traitement, le détecteur 5 de piéton délivre en sortie une boîte englobante 52 qui délimite une zone d’image représentative du piéton 4 détecté. Le traitement ci-dessus est réitéré pour chaque image reçue.
Afin de limiter le temps de traitement précédent, le procédé conforme à l’invention propose de ne balayer, pour chaque image reçue I,, qu’un sous-ensemble de régions d’intérêt comprenant au maximum un nombre limité de K régions d’intérêt successives (entier K inférieur à P), ainsi que des régions d’intérêt ayant donné lieu à une détection pour l’image précédente 1,-1 (appelées dans la suite régions d’intérêt validées ou mémorisées) ou contiguës à ces régions d’intérêt validées. A chaque itération, c’est-à-dire lors du traitement d’une nouvelle image captée, on change de préférence en outre les K régions d’intérêt successives qui vont être balayées.
Un exemple d’étapes susceptibles d’être effectuées conformément au procédé selon l’invention va être décrit en référence à la figure 3.
Sur cette figure 3, I, est représentative d’une image captée à l’instant i par la caméra (étape S0). L’ensemble E de régions d’intérêts qui devraient être balayées si l’on devait appliquer la méthode classique de Viola et Jones par un détecteur à reconnaissance de formes de type Adaboost comprend normalement P régions d’intérêts notées par commodité Ri,p, correspondant à P échelles différentes de l’image l,, classées par ordre croissant d’échelles successives. Ainsi, pour chaque image I, : E = { Ri,i ; Ri,2 ; ...Ri,p} avec Rj,p la région d’intérêt correspondant à l’image I, de la taille réelle (en d’autres termes, Rj P= I j), et R,,i la région d’intérêt correspondant à cette même image à la plus petite échelle, par exemple une échelle de 0,025 correspondant à un un sous échantillonnage, c’est-à-dire une diminution de la résolution de l’image l,.
On supposera dans la suite, pour simplifier, que la valeur P est égale à 8. En pratique, la valeur de P dépend de nombreux critères, tels que l’orientation de la caméra, la portée de détection que l’on cherche.
Ici, conformément à l’invention, on prévoit de sélectionner dans un premier temps (étape S^) un premier sous-ensemble E’ comportant seulement K régions d’intérêt successives parmi les P possibles. A titre d’exemple non limitatif, l’entier K est fixé égal à 2. Le premier sous-ensemble E’ peut donc s’écrire sous la forme mathématique suivante : E = { Ri,m ! Ri,m +1} avec m un entier quelconque compris entre 1 et P-1.
On effectue alors, sur chacune des régions d’intérêt successives du premier sous-ensemble E’, ici au nombre de 2, un balayage classique par la fenêtre glissante, de manière à détecter la présence éventuelle d’un ou plusieurs piétons dans ces régions d’intérêt (étape S2). Chaque région d’intérêt ayant effectivement donné lieu à une détection de piéton est alors mémorisée.
Pour l’image suivante (i = i+1), on réitère le balayage sur un deuxième sous-ensemble E” dont le nombre de régions d’intérêt dépend des détections réalisées à l’étape précédente.
Plus précisément, dans le cas où le balayage précédent n’a permis aucune détection (branche de gauche du test référencé S3 sur la figure 3), le deuxième sous-ensemble E” correspond au contenu de premier sous-ensemble E’ réactualisé en déplaçant ledit premier sous-ensemble d’au moins une région d’intérêt dans l’ordre croissant d’échelles successives. Dans l’exemple représenté sur la figure 3, ceci correspond à l’étape S4, dans laquelle le déplacement correspond à exactement une région d’intérêt. Il convient de noter, de façon plus générale, que le déplacement ne peut être supérieur à l’entier K. Ainsi, le deuxième sous-ensemble E” peut s’écrire dans ce cas sous la forme mathématique suivante : E” = E’ = {Ri,m+1 ; Ri,m+2 } ce qui signifie que, pour l’image suivante, le balayage par l’imagette ne s’effectuera là encore que sur deux régions d’intérêt successives.
Dans le cas contraire (branche de droite du test S3 sur la figure 3), le deuxième sous-ensemble E” de régions d’intérêt successives comprend d’une part, les régions d’intérêt mémorisées, voire celles contiguës aux régions d’intérêt mémorisées, et d’autre part, le contenu du premier ensemble E’ réactualisé comme expliqué précédemment, par déplacement d’au moins une région d’intérêt. Dans l’exemple représenté sur la figure 3, ceci correspond à l’étape S5, à l’issue de laquelle le deuxième sous-ensemble E” peut s’écrire sous la forme mathématique suivante, en supposant que l’étape S2 a permis la détection d’un objet dans la région d’intérêt Rj,m : E = Ri,m U E = Ri,m U { R^m+1 ! Ri,m+2 } ce qui signifie que, pour l’image suivante, le balayage par l’imagette ne s’effectuera que sur trois régions d’intérêt successives.
Le balayage est réitéré pour chaque image reçue selon le même principe, et ce, jusqu’à ce que le contenu réactualisé du premier sous-ensemble E’ inclue la région d’intérêt R,,p correspondant à la plus grande échelle.
Pour fixer les idées, le tableau 1 ci-après montre les régions d’intérêt qui sont examinées à chaque itération sur 7 images successives, en fonction des détections réalisées. Dans cet exemple : P=8, K= 2 et m=1, de sorte que le premier sous-ensemble utilisé pour la première image reçue est E’ = { R-1,1 ; Ri ,2} et inclut donc ici la région d’intérêt de l’ensemble E prédéterminé correspondant à la plus petite échelle.
tableau 1
Dans le tableau précédent, on remarque que, tant qu’il n’y a pas de détection (deux première lignes du tableau), le premier ensemble E’ est déplacé d’une région d’intérêt, et le balayage par l’imagette ne s’effectue que sur les deux régions d’intérêt de cet ensemble E’. A la première détection effectuée (ligne 3 du tableau), le premier ensemble est réactualisé par déplacement d’une région d’intérêt, mais on conserve également pour l’examen de l’image d’après la région d’intérêt R^, laquelle correspond à une région contigüe et immédiatement inférieure (dans le sens des échelles croissantes) de celle ayant donné lieu à une détection sur la troisième image. L’avantage est ici d’éviter de perdre le suivi d’un objet qui se déplacerait en direction de la voiture. Certaines régions d’intérêt peuvent être abandonnées à Γ itérât ion suivante si elles n’ont pas donné lieu à des détections. Enfin, la totalité des huit régions d’intérêt ayant été balayées entre la première image et la septième image de balayage, la dernière ligne montre que l’on recommence par l’examen des deux premières régions d’intérêt pour la huitième image.
Il convient d’ailleurs de noter que la plage de balayage pour l’ensemble E’ ne correspond pas forcément à la totalité de l’ensemble E d’origine, comprenant ici huit régions d’intérêt. On pourrait par exemple se limiter à un déplacement de l’ensemble E’ sur les régions d’intérêt correspondant aux plus grandes échelles de l’ensemble E. L’exemple précédent illustre le gain de traitement que l’on peut atteindre par l’examen d’un nombre limité de régions d’intérêts.
Ce gain de traitement peut encore être amélioré en combinant le procédé de traitement précédent à un traitement de recadrage (« cropping » en terminologie anglo-saxonne) des régions d’intérêt ayant données lieu à une détection. Pour ce faire, on considère que chaque région d’intérêt Rj,m peut être segmentée, dans le sens de la largeur, en une pluralité de zones, par exemple trois zones comme cela est illustré sur la figure 4 par des hachures d’orientation différentes. On note RLi,m la zone de gauche, RCi,m , la zone centrale, et RRj,m la zone de droite. Lorsque le traitement d’une image I, a donné le lieu à une détection dans une zone spécifique d’une région d’intérêt donnée, on recadre, à l’itération d’après, cette région d’intérêt uniquement sur cette zone spécifique. Les zones spécifiques se recouvrent de préférence dans une large mesure de manière à éviter de perdre le suivi d’un objet qui se déplacerait rapidement en latéral dans les images. Le tableau 2 suivant montre en gras les modifications apportées au tableau 1 lorsque l’on fait intervenir le recadrage.
tableau 2
Les simulations effectuées par la Demanderesse ont pu montrer que la solution décrite ci-dessus peut réduire d’un facteur 10 le temps de traitement nécessaire à l’examen d’une scène (succession d’images) lorsqu’aucun objet n’a été détecté. Bien sûr, ce facteur est moins élevé en cas de détection d’objets, mais le temps de traitement reste tout de même globalement amélioré par rapport à un algorithme classique de Viola et Jones.
Par ailleurs, le procédé de l’invention permet un niveau de précision de détection variable en fonction de la distance à laquelle se situent les objets, avec une précision plus élevée pour les objets proches, ce qui est tout à fait souhaitable lorsque l’on doit appliquer rapidement une stratégie d’évitement.
Claims (10)
- REVENDICATIONS1. Procédé de détection d’objets par traitement d’images captées par une caméra (2), dans lequel on utilise un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, le procédé étant caractérisé en ce qu’il comprend une étape de sélection (Si), dans un ensemble (E) prédéterminé de P régions d’intérêt classées dans un ordre défini d’échelles successives, d’un premier sous-ensemble (E’) de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué (S2) pour au moins une première image.
- 2. Procédé selon la revendication 1, caractérisé en ce qu’il comprend en outre les étapes suivantes : - on mémorise chaque région d’intérêt du premier sous-ensemble (E’) ayant donné lieu à une détection d’un objet ; - on réitère (S5) le balayage pour les images suivantes sur un deuxième sous-ensemble (E”) de régions d’intérêt successives limité d’une part, aux régions d’intérêt mémorisées et aux régions contiguës aux régions d’intérêt mémorisées, et d’autre part, aux K régions d’intérêt du premier sous-ensemble, en déplaçant, à chaque itération, ledit premier sous-ensemble de K régions d’intérêt successives d’au moins une région d’intérêt dans l’ordre défini d’échelles successives.
- 3. Procédé selon la revendication 2, caractérisé en ce que ledit premier sous-ensemble (E’) de K régions d’intérêt successives est déplacé au plus de K régions d’intérêt.
- 4. Procédé selon l’une quelconque des revendications 2 ou 3, caractérisé en ce que le balayage est réitéré jusqu’à ce que le premier sous-ensemble (E’) de K régions d’intérêt successives inclue la région d’intérêt dudit ensemble prédéterminé correspondant à la plus grande échelle.
- 5. Procédé selon la revendication 4, caractérisé en ce que la plus grande échelle correspond à la taille réelle de l’image captée par la caméra.
- 6. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-ensemble (E’) de K régions d’intérêt successives inclut la région d’intérêt dudit ensemble prédéterminé correspondant à la plus petite échelle.
- 7. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que ledit premier sous-ensemble (E) comprend deux régions d’intérêts successives.
- 8. Procédé selon l’une quelconque des revendications 2 à 5, caractérisé en ce que chaque région d’intérêt est en outre segmentée dans le sens de la largeur en une pluralité de zones d’intérêt, et le procédé comporte en outre une étape de recadrage des régions d’intérêt mémorisées, voire des régions contigües aux régions d’intérêt, le recadrage s’effectuant dans la zone d’intérêt ayant donné lieu à une détection d’objet.
- 9. Système de détection d’objets par traitement d’images captées par une caméra (2), le système comprenant un détecteur (5) utilisant un algorithme de détection et/ou de reconnaissance de formes apte à détecter au moins un objet en effectuant, pour chaque image d’une succession d’images, le balayage d’une pluralité de régions d’intérêt par une fenêtre glissante, chaque région d’intérêt correspondant à une échelle différente de chaque image, caractérisé en ce que ledit détecteur est programmé pour sélectionner (S1 ) dans un ensemble (E) prédéterminé de P régions d’intérêt, classées dans un ordre défini d’échelles successives, un premier sous-ensemble (E’) de K régions d’intérêt successives sur lesquelles le balayage par la fenêtre glissante est effectué (S2) pour une première image.
- 10.Système selon la revendication 9, caractérisé en ce que le détecteur est programmé en outre pour : - mémoriser chaque région d’intérêt du premier sous-ensemble (E) ayant donné lieu à une détection d’un objet ; - réitérer (S5) le balayage pour les images suivantes sur un deuxième sous-ensemble (E”) de régions d’intérêt successives limité d’une part, aux régions d’intérêt mémorisées et aux régions contiguës aux régions d’intérêt mémorisées, et d’autre part, aux K régions d’intérêt du premier sous-ensemble, en déplaçant, à chaque itération, ledit premier sous-ensemble de K régions d’intérêt successives d’au moins une région d’intérêt dans l’ordre défini d’échelles successives.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1556520A FR3038760B1 (fr) | 2015-07-09 | 2015-07-09 | Detection d'objets par traitement d'images |
| PCT/EP2016/066381 WO2017005930A1 (fr) | 2015-07-09 | 2016-07-11 | Détection d'objets par traitement d'images |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1556520A FR3038760B1 (fr) | 2015-07-09 | 2015-07-09 | Detection d'objets par traitement d'images |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| FR3038760A1 true FR3038760A1 (fr) | 2017-01-13 |
| FR3038760B1 FR3038760B1 (fr) | 2018-08-17 |
Family
ID=54707876
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR1556520A Active FR3038760B1 (fr) | 2015-07-09 | 2015-07-09 | Detection d'objets par traitement d'images |
Country Status (2)
| Country | Link |
|---|---|
| FR (1) | FR3038760B1 (fr) |
| WO (1) | WO2017005930A1 (fr) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111476157A (zh) * | 2020-04-07 | 2020-07-31 | 南京慧视领航信息技术有限公司 | 一种路口监控环境下的车道导向箭头识别方法 |
| CN112215219A (zh) * | 2020-09-14 | 2021-01-12 | 北京百度网讯科技有限公司 | 用于路侧拍摄设备的感兴趣区域获取方法、装置及介质 |
-
2015
- 2015-07-09 FR FR1556520A patent/FR3038760B1/fr active Active
-
2016
- 2016-07-11 WO PCT/EP2016/066381 patent/WO2017005930A1/fr not_active Ceased
Non-Patent Citations (3)
| Title |
|---|
| "Correct System Design", vol. 9117, 9 June 2015, SPRINGER INTERNATIONAL PUBLISHING, Cham, ISBN: 978-3-642-28871-5, ISSN: 0302-9743, article ALEJANDRO GONZÁLEZ ET AL: "3D-Guided Multiscale Sliding Window for Pedestrian Detection", pages: 560 - 568, XP055255297, 032548, DOI: 10.1007/978-3-319-19390-8_63 * |
| FEIDIE LIANG ET AL: "Fast Pedestrian Detection Based on Sliding Window Filtering", 4 December 2012, ADVANCES IN MULTIMEDIA INFORMATION PROCESSING PCM 2012, SPRINGER BERLIN HEIDELBERG, BERLIN, HEIDELBERG, PAGE(S) 811 - 822, ISBN: 978-3-642-34777-1, XP047014270 * |
| SHAOQING REN ET AL: "Object Detection Networks on Convolutional Feature Maps", CORR, 23 April 2015 (2015-04-23), XP055255038, Retrieved from the Internet <URL:http://arxiv.org/pdf/1504.06066v1.pdf> [retrieved on 20160303] * |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111476157A (zh) * | 2020-04-07 | 2020-07-31 | 南京慧视领航信息技术有限公司 | 一种路口监控环境下的车道导向箭头识别方法 |
| CN111476157B (zh) * | 2020-04-07 | 2020-11-03 | 南京慧视领航信息技术有限公司 | 一种路口监控环境下的车道导向箭头识别方法 |
| CN112215219A (zh) * | 2020-09-14 | 2021-01-12 | 北京百度网讯科技有限公司 | 用于路侧拍摄设备的感兴趣区域获取方法、装置及介质 |
| CN112215219B (zh) * | 2020-09-14 | 2023-11-24 | 阿波罗智联(北京)科技有限公司 | 用于路侧拍摄设备的感兴趣区域获取方法、装置及介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3038760B1 (fr) | 2018-08-17 |
| WO2017005930A1 (fr) | 2017-01-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2275971B1 (fr) | Procédé de détection d'un obstacle pour véhicule automobile | |
| Creusot et al. | Real-time small obstacle detection on highways using compressive RBM road reconstruction | |
| EP3572976A1 (fr) | Procede de traitement d'un flux d'images video | |
| EP2930659B1 (fr) | Procédé de détection de points d'intérêt dans une image numérique | |
| WO2019091787A1 (fr) | Procédé d'estimation de pose d'une caméra dans le référentiel d'une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d'ordinateur associé | |
| EP2275970A1 (fr) | Procédé de détection d'un obstacle pour véhicule automobile | |
| EP3200153B1 (fr) | Procédé de détection de cibles au sol et en mouvement dans un flux vidéo acquis par une caméra aéroportée | |
| BE1026095B1 (fr) | Dispositif de traitement d’images | |
| WO2009141378A1 (fr) | Procede et systeme d'indexation et de recherche de documents video | |
| EP3311333B1 (fr) | Appariement d'images d'articles postaux avec des descripteurs de singularites du champ de gradient | |
| FR3146523A1 (fr) | Procédé d’estimation de la vitesse d’un véhicule | |
| EP2839410B1 (fr) | Procédé de reconnaissance d'un contexte visuel d'une image et dispositif correspondant | |
| WO2018138064A1 (fr) | Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images | |
| FR3027432A1 (fr) | Estimation de distance d'un pieton par un systeme d'imagerie embarque sur un vehicule automobile | |
| FR3038760A1 (fr) | Detection d'objets par traitement d'images | |
| FR3083352A1 (fr) | Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere | |
| EP1522951A1 (fr) | Détérmination de caractéristiques textuelles de pixels | |
| FR3088465A1 (fr) | Estimation d'une carte de disparite a partir d'une image monoscopique par apprentissage profond | |
| FR2950451A1 (fr) | Algorithme de detection des points de contour dans une image | |
| EP2769360B1 (fr) | Procédé de localisation d'objets par résolution dans l'espace tridimensionnel de la scène | |
| FR3058247B1 (fr) | Detection d'obstacles autour d'un vehicule automobile | |
| Kou et al. | A lane boundary detection method based on high dynamic range image | |
| WO2018185398A1 (fr) | Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile | |
| FR3154527A1 (fr) | Procédé de détection de lumières clignotantes | |
| Abbas et al. | Optimizing Vehicle Detection and Tracking Efficiency Through YOLO-Based Multi-Objective Approach |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20170113 |
|
| PLFP | Fee payment |
Year of fee payment: 3 |
|
| PLFP | Fee payment |
Year of fee payment: 4 |
|
| PLFP | Fee payment |
Year of fee payment: 5 |
|
| PLFP | Fee payment |
Year of fee payment: 6 |
|
| PLFP | Fee payment |
Year of fee payment: 7 |
|
| PLFP | Fee payment |
Year of fee payment: 8 |
|
| PLFP | Fee payment |
Year of fee payment: 9 |
|
| PLFP | Fee payment |
Year of fee payment: 10 |
|
| PLFP | Fee payment |
Year of fee payment: 11 |